PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

basix
2020-06-24, 21:50:56
Bei uns in der Bude gibt es einen Spezialisten für so HF und SerDes Zeugs ;)

Aber ich glaube, wir driften langsam vom eigentlichen Thema des Threads ab :D

Zossel
2020-06-24, 23:17:03
Bei uns in der Bude gibt es einen Spezialisten für so HF und SerDes Zeugs ;)

Aber ich glaube, wir driften langsam vom eigentlichen Thema des Threads ab :D

Seitenweise wird über Ramtimings geredet, warum also nicht mal über die Grundlagen reden?

Gratzner
2020-06-25, 00:07:51
Kriegt man single-ended Leitungen überhaupt hinreichend genau auf eine definierte Impedanz für diesen HF-Kram?

Impedanz-kontrollierte Leitungen sind überhaupt kein Problem. Schnelle Signalleitungen baut man als "Stripline". Das heißt, der Layer, wo sich die Leitung befindet, ist zwischen zwei GND-Layer eingeschlossen, welche die Leitung 'abschirmen' (mit Vcc funktioniert das theoretisch genauso gut oder auch gemischt).

Dadurch ist die Impedanz nur noch davon abhängig, was zwischen den GND-Layern ist. Und was dazwischen ist, kann man sehr genau bestimmen. Besonders relevant sind hier die Dicken und die Dielektrischen Konstanten des Prepegs und des FR4-Cores,. Die Dicken legt man als Entwickler sowieso selber fest und die Dielektrische Konstante des FR4-Cores bzw. des Prepegs könnte man theoretisch auch selber Auswählen, nimmt aber in der Praxis die Standard-Materialien und variiert die Dicke (ist logischerweise günstiger).

Was ich damit sagen will, die Impedanz der Leitungen kann man haargenau im Voraus selber bestimmen und errechnen. Typischerweise beträgt die Impedanz 60 ohm (relativ unabhängig von der Leitungslänge).


Den "quasi differentiellen" Rückwärtskanal bekommt man oft (meistens?) über GND.


Klar, bei einer Stripline, welche zwischen zwei GND-Layer eingeschlossen ist, kommt der Rückstrom (den es immer gibt, weil StromKreis) über die Groundlayer.

Nur hat die einzelne Leitung Masse nicht für sich alleine. Wenn nebenan gleichzeitig tausende von Gatekapazitäten umgeladen werden bleibt das nicht ohne Auswirkung auf alles was sich auf Masse bezieht.


Nö, Blockondensatoren filtern das heraus, zumal kein Netzteil der Welt den Strom für die schnellen Umschaltvorgänge liefern kann (Induktivität der Zuleitungen, sogar die Induktivität der Versorgungspannungs-Layer ist schon viel zu hoch)

basix
2020-06-25, 00:56:46
Klar, bei einer Stripline, welche zwischen zwei GND-Layer eingeschlossen ist, kommt der Rückstrom (den es immer gibt, weil StromKreis) über die Groundlayer.

Das musst du mir nicht erklären, aber danke ;) Den selben Aufbau habe ich selbst schon verwendet inkl. beidseitiges Stitching den Leiterbahnen entlang, wenn auch für den "umgekehrten" Fall nämlich EMI Robustness, ist dann vom Prinzip her wie ein Koaxkabel. Und wie du selbst sagst, könnte man auch andere Signallayer dafür verwenden (Speisung oder irgendeine Referenzspannung / Mittelspannung). Typischerweise ist GND aber am besten für solche Dinge geeignet (z.B. wegen typischerweise geringster Impedanz aller Supply Layer).

Leonidas
2020-06-25, 07:17:55
https://m.youtube.com/watch?feature=youtu.be&v=SBVeM9H-Zik


Video wurde inzwischen auf "private" gesetzt ;)

Zossel
2020-06-25, 07:34:25
Impedanz-kontrollierte Leitungen sind überhaupt kein Problem. Schnelle Signalleitungen baut man als "Stripline". Das heißt, der Layer, wo sich die Leitung befindet, ist zwischen zwei GND-Layer eingeschlossen, welche die Leitung 'abschirmen' (mit Vcc funktioniert das theoretisch genauso gut oder auch gemischt).

Wenn das bei single-ended genauso gut funktioniert wie bei differential dann bräuchte es ja den Aufwand für differential Signale nicht?
Der "Rückstrom" via Masse nimmt ja gerne eine anderen geografischen Weg als das single-ended Signal. Das Zerschnippeln von Groundplanes ist ja ein typisches NoGo.

Skysnake
2020-06-25, 14:04:28
Würde ich jetzt nicht sagen. Gerade auf Chips ist es eigentlich bei den unteren Ebenen gang und gebe, das man die Planes zerstückelt um ne bessere Uniformitat und damit weniger dishing zu bekommen. Zudem sind die maximal zulässigen Ströme etc größer unter ner gewissen Breite - 100nm waren es glaube ich. Daher bekommt man über ne zerschnittene Plane am Ende mehr Strom geballert als über ne komplett ausgefüllte plane :freak:

mksn7
2020-06-25, 15:43:32
Klar, bei einer Stripline, welche zwischen zwei GND-Layer eingeschlossen ist, kommt der Rückstrom (den es immer gibt, weil StromKreis) über die Groundlayer.Das musst du mir nicht erklären, aber danke ;)

Bitte weiterhin erklären, ich hab keine Ahnung.

JVC
2020-06-25, 15:43:57
Video wurde inzwischen auf "private" gesetzt ;)
Ändert nichts an meiner Meinung, das Big-Navi entweder auf 512Bit oder HBM basieren wird.
Weniger lohnt einfach nicht für ein "Hallo Produkt".

M.f.G. JVC

fondness
2020-06-25, 15:45:31
Video wurde inzwischen auf "private" gesetzt ;)

Na wenn die Specs stimmen wäre das schon ziemlich nice.

514 mm2
80CU @ 2760 MHz
512 bit bus
16GB @ 20 Gbps (unspecified type)
400W TDP

Bleibt die Frage ob man sie deshalb auf private gesetzt hat. :)
Die hohen Taktraten würden für mich jedenfalls Sinn ergeben, immerhin wurde ja groß angekündigt, dass für die KonsolenGen das CPU-Team beim Taktoptimieren hilft, plus die 2,27Ghz der PS5 sind auch noch ohne - ein Topmodell sollte da auf jeden Fall darüber liegen.

Linmoum
2020-06-25, 15:47:26
Es ist deshalb auf Privat, weil er verarscht wurde und der leak einfach nur Bullshit war. Also wie immer halt bei ihm.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12334653&postcount=8191

JVC
2020-06-25, 15:59:28
514 mm2
80CU @ 2460 MHz
512 bit bus
16GB @ ≤18 Gbps (unspecified type)
400W TDP

Fixt it vor You :smile:
Hoffe Darauf und trau mich fast wetten ;)

M.f.G. JVC

Langlay
2020-06-25, 16:01:38
Fixt it vor You :smile:
Hoffe Darauf und trau mich fast wetten ;)

M.f.G. JVC

Ich würde bei Speicherinterface dagegen halten. 512bit seh ich wie schon mehrmals geschrieben nicht kommen.

JVC
2020-06-25, 16:03:15
Entweder kommen 512Bit oder HBM.
Alles andere wäre kein "Hallo Produkt"...
(ist aber nur Meine Wette)

M.f.G. JVC

Langlay
2020-06-25, 16:05:49
Ich bleibe bei meiner Aussage 512Bit GDDR6 Speicherinterface werden wir wohl niemals sehen auf einer PCI-E Karte. Imo gibts Highspeed 384Bit , HBM2 oder 448Bit Speicherinterface, Wahrscheinlichkeit würde ich auch in der Reinfolge sehen.

HOT
2020-06-25, 16:30:52
Würd ich aber auch sagen. 512Bit oder HBM wirds werden. Denn 384 wird der mittlere schon haben, dafür aber mit 14-16GT/s RAM um die Karten möglichst billig zu halten.
In der Vergangenheit hat AMD des öfteren auf dickere Speicherinterfaces gesetzt und langsamere Speicher verbaut.

Unicous
2020-06-25, 17:46:21
Man stellt sich ja immer die Frage wie Leute wie Trump an der Macht sind, obwohl sie nichts anderes können außer lügen und betrügen.

Wie oft muss Adored eigentlich noch solche Dinger abziehen bis das Vertrauen endgültig zerstört ist?:confused:
Oder geht das jetzt ewig so weiter bis die Uhr mal wieder richtig geht?:facepalm:

OgrEGT
2020-06-25, 17:53:45
Ein sog. Halo Produkt kann es mMn nur werden wenn die Karte mit Leistung überzeugt und ganz oben mitspielt unabhängig wie der Speicher angebunden ist...
Ne Titan muss auch nicht immer 512bit Interface haben und die HD2900 war mit 512bit auch best. kein Halo Produkt... obwohl vlt auf eine andere Art:ugly:

unl34shed
2020-06-25, 19:18:57
Wie oft muss Adored eigentlich noch solche Dinger abziehen bis das Vertrauen endgültig zerstört ist?:confused:

Was hat er denn abgezogen? Er hat in dem Video die ganze Zeit gesagt, dass ihm das zugespielt wurde und er die Werte selbst nicht glaubt. Dann wurde es auch noch recht schnell als Fake markiert... und selbst wenn es um Clicks ginge, hätte er das Video oben lassen müssen. :confused: Gut das kann auch nur Schadensbegrenzung gewesen sein... gut, wenn man will kann man ihm das vorwerfen.

Er scheint nicht die Kontakte wie Igor zu haben, aber der erzählt auch viel und es trifft nicht alles zu. Wir sprechen hier übrigens immer noch von Spekulationen basierend auf irgendwelchen zugespielten Infos, die man wohl auch nicht immer bestätigt bekommen wird.

Ja, heutzutage hat jeder seine Fackel und Mistgabel griffbereit um Leute im Internet anzufeinden, das ist heute wohl normal geworden... und alles ist nur noch schwarz oder weiß (verdammt darf man das noch sagen :confused:)... Ich werde alt.

https://pbs.twimg.com/media/EVQmJeUXQAEeHyK.png

Unicous
2020-06-25, 19:48:50
Dir ist schon klar, dass das zum wiederholten Male geschehen ist? Das letzte Mal ist iirc nicht einmal ein paar Wochen her.

Das Wichtigste das ein Journalist lernt ist: Quellenarbeit. Quellen einordnen. Sich nicht auf eine Quelle verlassen. Die Informationen durch eine zweite, unabhängige Quelle zu verfizieren.

Der Typ hat eine eigene Website für seine "Analysen" aufgebaut, hat Freiwillige die diese mit "Inhalt" füllen und stellt sich seit einiger Zeit als professioneller Journalist/Analyst dar, hat aber alle paar Monate einen meltdown, weil seine "Quellen" ihn verarscht haben oder wenn er auf einen fake hereinfallen ist, oder sein Video auf reddit von einem Mod gelöscht wurde/er aus subreddits verbannt wurde.

Igor zeigt im übrigen auch immer mehr eine nicht so schöne Seite von sich, möchte ich mal anmerken. Das hat man hier schon lesen können (als er noch einen Account hatte), wie er auf Kritik reagiert hat und auf seiner eigenen Website schießt er auch gerne mal in die Menge, wenn ihm was nicht passt.

Journalismus wird leider leider immer unprofessioneller, insbesondere durch Menschen die sich jahrelang über Blogs profilieren und dann meinen das Zeug zum investigativen Journalist zu haben. Journalismus ist kein geschützter Beruf. Das wird immer mehr zum Fluch als Segen.

Das was Journalismus ausmacht, wird eigentlich in einer Journalistenschule bzw. in einem Studium gelehrt. Das schützt nicht davor schlechten Journalismus zu betreiben, aber im besten Fall lernt man das Grundkonstrukt des Handwerks.

Und dennoch werden unkommentiert seine Videos hier geteilt. Oder von Moore's Law is dead und wie sie alle heißen.
Ihr gebt den Leuten extrem viel Legitimität die sie nicht verdient haben und vergrößert damit deren Reichweite. Etwas legitimere Seiten merken, ach darüber wird in den Foren geredet, lass mal schnell einen Artikel dazu in die Tasten hauen, vllt. generieren wir damit ein paar clicks. Ihr füttert diesen Teufelskreis fördert damit das Legitimieren von fake news. Denn dementieren kann man am Ende ja immer.:rolleyes:


edit:

https://twitter.com/AdoredTV/status/1271153600614588422


Quick update - I very quickly got info from a mobo guy who knows about this stuff. The "tighter tolerances codenames" thing is nonsense and invalidates the whole "leaked" info. Just ignore it. I should just pull the video I think...
8:53 nachm. · 11. Juni 2020

Das war vor zwei Wochen. Wie oft bekommt der Typ noch den "benefit of the doubt"?
Wie viele Videos und fakes muss es noch geben, bis ihr mal merkt dass Trump Adored unverlässlich ist?

edit:

Um noch kurz zu klären was ich meinte. Ich veröffentliche kein Video oder Artikel in dem ich von vorn herein davon ausgehe, dass der Leak bzw. die Quelle unzuverlässig oder schlicht eine Fälschung ist. Das ist schlicht unethisch und Verletzung der Sorgfaltspflicht. Wie lange will der Typ sich denn noch hinter "I'm just a Youtuber, i vlog my life away" verstecken?

robbitop
2020-06-25, 19:57:51
Ich mag die Labertanten auf yt auch nicht (1 min information in 20 min strecken und auch die von dir genannten gründe) - aber war adored nicht der, der vom chiplet design in bezug auf zen 2 als erster berichtete? Wenn das der Fall ist, scheinen zumindest gewisse Quellen vorhanden zu sein.

Grendizer
2020-06-25, 20:00:14
Was wäre die Welt aber, wenn wir bis September-November nur 2 fach verifizierte Nachrichten präsentiert bekommen ? Ich glaube, dann wäre uns verdammt langweilig und der Thread hätte max. 1/4 der Seiten :biggrin:

aufkrawall
2020-06-25, 20:06:35
Wenn das der Fall ist, scheinen zumindest gewisse Quellen vorhanden zu sein.
Kann auch genau so gut ein einmaliger Tipp gewesen sein.

Unicous
2020-06-25, 20:15:49
@robbitop

Das war offensichtlich ein Fall von "broken clock is right twice a day". Und iirc hatte jemand zuvor auch schon Patente für chiplets und eine konkrete Implementierung gefunden, die timeline war da etwas schwammig.

Man sieht an Seiten wie VCZ, die auch öfter mal Blödsinn verbreiten, dafür aber konsistent echte Leaks und scoops vorweisen können, dass es auch anders geht. Hinzu kommt wie du bereits sagtest der Informationsgehalt von einer Minute, der auf 30-minütige Videos ausgedehnt wird und die Arroganz die er besonders bei Twitter und zuvor bei reddit ausstrahlt (da sagt er dann, ja ich weiß jetzt noch viel mehr als vorher, nachdem er einen fake verbreitet hat:freak:). Selbstreflexion Fehlanzeige, und sich gleichzeitig dahinter verstecken, dass man doch eine Prise Salz einnehmen sollte bevor man sich das 30-Minuten Video gönnt.:freak:


Wir sind der Wahrheit kein Stück näher gekommen, stattdessen wurde wieder darüber spekuliert ob ein Fantasie-Chip the real deal ist um dann ein paar Stunden später zu bemerken, dass man zum zigsten Mal verarscht wurde. Von der selben Person.:freak:

Gratzner
2020-06-25, 20:29:03
Wenn das bei single-ended genauso gut funktioniert wie bei differential dann bräuchte es ja den Aufwand für differential Signale nicht?
Der "Rückstrom" via Masse nimmt ja gerne eine anderen geografischen Weg als das single-ended Signal.


Also differentielle Leitungen haben immer noch den Vorteil, falls man nicht vermeiden kann, das was einstrahlt, macht denen das nicht aus (weshalb man die auch nicht unbedingt abschirmen muss). Single-ended ist hingegen sehr störanfällig (und sehr -produzieren).

Zum Beispiel bei PCIe, kann man schlecht Microstrips und Striplines über den Stecker verlegen, da ist differentiell schon hilfreich.

Anderes Beispiel wären Taktsignale von Interfaces. Diese sind auch sehr gerne Differentiell. Ich glaube die Begründung war, selbst wenn sich das Taktsignal zwischen zwei GND-Layer befinden, immer noch seitlich was von den benachbarten Datenleitungen des dazugehörigen Interfaces einstrahlen kann.
Den Datenleitungen selber untereinander macht das viel weniger aus, da ihre Flanken und somit auch der Abstrahlzeitpunkt ja außerhalb von den Setup- und Holdzeiten liegt.

Das Zerschnippeln von Groundplanes ist ja ein typisches NoGo.
Also da gibt es so eine "legendäre" Empfehlung von NXP: www.nxp.com (https://www.nxp.com/docs/en/data-sheet/MC9S12XEP100RMV1.pdf) (Seite 1265 ff.). Ihre Filterkondensatoren haben die hier auch ziemlich "legendär" gesetzt.

Würde ich jetzt nicht sagen. Gerade auf Chips ist es eigentlich bei den unteren Ebenen gang und gebe, das man die Planes zerstückelt um ne bessere Uniformitat und damit weniger dishing zu bekommen. Zudem sind die maximal zulässigen Ströme etc größer unter ner gewissen Breite - 100nm waren es glaube ich. Daher bekommt man über ne zerschnittene Plane am Ende mehr Strom geballert als über ne komplett ausgefüllte plane :freak:

Ich versteh nicht was Du meinst. "dishing" heißt ja, etwas zunichte machen. Was wird zunichte gemacht?
Was für ein Effekt soll das sein, wo dünnere Leitungen höhere Ströme transportieren können?

Skysnake
2020-06-25, 20:50:05
Wenn die freie Weglänge des Elektrons größer wird als die länge der Leitung, dann hast du keine Stöße mehr und damit keine Elektromigration, bzw halt deutlich reduziert. Deswegen kannst du mehr über die Leitung prügeln. Das ist nen Effekt der seit 28nm schon deutlich zu Tage tritt und auch bewusst eingesetzt wird.

Dishing meint hier, dass du beim ChemischMechanischenPolieren eben Auswaschungen bekommst wenn du keine uniformität von Leitungs zu Dielektrikum hast. Bzw es gibt Erhöhungen. Daher gibt es ja auch Regeln wieviel fill du haben musst bzw nur haben darfst über einige hundert µm².

Mit dem Effekt von Oben macht man dann halt gerne statt ner Plane schmale Leitungen die dann auch noch zwischen Layern hin und her wechseln. Damit hat man uniformität, blockiert nicht alles fürs Routing und kann auch noch höhere Ströme leiten ohne das einen das Zeug durch Elektromigration wegbruzelt.

Jetzt verstanden?

Gratzner
2020-06-25, 21:20:35
Ja, jetzt ergibt es Sinn. Las sich im Kontext ziemlich verwirrend. Es ging ja mal ursprünglich um Mainboards und da tritt der Effekt, wenn man jetzt nicht beginnt für Extreme Übertaktungszwecken das Mainboard sehr weit runterzukühlen, nicht auf. Ganz im Gegenteil, so eine zerschnittene Groundplane bringt auf Mainboards EMV-Probleme mit. Deshalb, wie es Zossel gesagt hat, GND-Plane zerschneiden ist ein No-Go, also auf Mainboardebene

OK, dishing bei CMP^^

Skysnake
2020-06-25, 22:41:14
Ja auf Mainboard oder auch Sockel Ebene ist das wieder was anderes.

Auf Sockelebene nimmt man ja auch auch gerne runde Ecken wegen der Reflektion. Nen Studienkollege hat mal nen Autorouter geschrieben. Da war nichts gerade und nirgends die gleiche Kurve. Das sah schon heiß aus :D

Leonidas
2020-06-26, 05:15:54
Es ist deshalb auf Privat, weil er verarscht wurde und der leak einfach nur Bullshit war. Also wie immer halt bei ihm.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12334653&postcount=8191


Schade, habe ich leider überlesen.

y33H@
2020-06-26, 08:52:23
Ich mag die Labertanten auf yt auch nicht (1 min information in 20 min strecken und auch die von dir genannten gründe) - aber war adored nicht der, der vom chiplet design in bezug auf zen 2 als erster berichtete? Wenn das der Fall ist, scheinen zumindest gewisse Quellen vorhanden zu sein.Schon zur Computex 2016 war [mir] bekannt, dass es 8C-Zepplin-Dies und ein Interconnect-Die ("Chipset" mit 2x DDR4 + 32 Lanes) gibt, entsprechende Dokumente inklusive. Wie üblich ist es aber eine Sache, sowas zu wissen und eine andere, es zu posten bzw in ein 20 min Video zu stecken.

Kehaar
2020-06-26, 09:04:45
Und was ist Dir jetzt so bekannt? :upara:

y33H@
2020-06-26, 09:13:42
*auf den Schreibtisch guck*

Kehaar
2020-06-26, 09:22:41
:usweet::freak:

Diesmal aber nicht "Jahre" später darüber aufklären :ulol2:

Complicated
2020-06-26, 11:51:56
Hier wurde seit 2015 darüber spekuliert:
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs

Leonidas
2020-06-26, 12:10:20
Hab ich vorgestern per Zufall genauso im 3DC-Archiv gefunden:
https://www.3dcenter.org/news/amds-prozessoren-zukunft-geht-richtung-multichip-socs

Ausgangspunkt war das 3DC-Forum:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10629311#post10629311

y33H@
2020-06-26, 12:55:24
Es ging in dem Kontext ja dediziert um Zen 2 bzw Matisse / Rome und nicht generell Chiplets, denn das hat AMD ja definitiv schon vor 2016 auf den Roadmaps gehabt.

tEd
2020-06-27, 09:53:17
https://hardwareleaks.com/2020/06/27/macos-11-big-sur-beta-amd-navi31-mi100-mi200-cezanne/

Navi31 in MacOS Treiber ...Navi22 Apple only?

Complicated
2020-06-27, 09:57:43
Könnte sein, dass Navi22 das komplette HBM-Lineup darstellt. Apple only möglich aber vielleicht auch mit Ablegern für x86-Notebook nach einer Exklusiv-Frist. Apple möchte vielleicht hier mit AMD, trotz der höheren Kosten, die Stacking-Technologie pushen für die kommenden eigenen SoCs auf ARM Basis in 2 Jahren.

mironicus
2020-06-27, 10:22:23
Offensichtlich wird Apple die Zusammenarbeit mit AMD nicht beenden. In Zukunft könnte die diskrete Grafik in ARM-basierten Macs die teuerste Einzelkomponente werden. Die eigenen CPUs kosten Apple (ein A12 = 30 Dollar) nur ein Bruchteil dessen was für Intel-CPUs fällig ist.

HOT
2020-06-27, 10:23:43
Navi3x hatte ich ja schon länger für die kleinen Chips vermutet. Sicherlich in N6 mMn.

pixeljetstream
2020-06-27, 11:47:46
Apple's eigene CPU ist ein SoC mit eigener GPU. Dann wäre doch AMD da wie Intel auch raus.

https://twitter.com/gavkar/status/1276586196165029891?s=19

https://developer.apple.com/documentation/metal/porting_your_metal_code_to_apple_silicon

HOT
2020-06-27, 11:51:16
Die ersetzen die Intel-"SOCs" durch eigene. Klar haben die dann PowerVR statt Intel-Grafik. Ist ja auch von TBDR die Rede, also ist das eindeutig.
Für die diskreten Karten in den Profikisten wird man weiterhin auf AMD setzen.

mironicus
2020-06-27, 11:53:09
Das ist weiterhin nur eine CPU mit integrierter Grafik. Mac-Software ist meistens optimiert zur Verwendung mit interner und diskreter Grafik gleichzeitig. Und alles wird Apple nicht sofort ersetzen können.

pixeljetstream
2020-06-27, 11:58:32
Ist mir nicht so klar, wenn man den Schritt macht alles allein zu haben, warum noch dritte? Sie sprechen ja von einer Family of SoCs, da kann durchaus was haben wo die GPU größer ausfällt oder was eigenes dediziertes drankommt. Bin Mal gespannt aber würde eigentlich davon ausgehen, dass die alles alleine machen nun, das gibt den sauberen Schlussstrich in der Architektur und Infrastruktur.

aufkrawall
2020-06-27, 12:03:11
Wenn sie selber keine großen GPUs haben, würde ihnen allerdings auch der fortbestehende Support für AMD-GPUs nicht weh tun. Ändert ja an der Kompatibilität für Anwendungen nichts.

Dampf
2020-06-27, 12:03:39
Ich frage mich ja, ob die GPUs auch mit AMD und Nvidia mithalten können. Meistens ist die CPU in diesen ARM SOCs super stark und die GPU dagegen ne Krücke. Vielleicht wird das ganze ja ausbalancierter demnächst.

BlacKi
2020-06-27, 12:11:55
ich finde das auch klasse, das apple auf arm geht. man bedenke was das für einen push für arm systeme geben wird.

=Floi=
2020-06-27, 12:20:30
Die eigenen CPUs kosten Apple (ein A12 = 30 Dollar) nur ein Bruchteil dessen was für Intel-CPUs fällig ist.

Das ist ne milchmädchenrechnung.

HOT
2020-06-27, 12:21:44
Die diskreten AMD-GPUs bleiben natürlich. Apple wird da jetzt keine High-End-Karten mit PowerVR-Technik bauen. Bin mir nicht mal sicher, ob das theoretisch mit heutigen PowerVR-Architekturen überhaupt geht. In jedem Falle wäre das für den kleinen Apple-Markt und den dazu vergleichbar winzigen Markt für diskrete Grafik bei Apple mMn einfach viel zuviel Entwicklungsaufwand. Das wird einfach wie bisher günstig und semi-Custom eingekauft werden und fertig. Ähnliches wird für High-End-Grafik für Notebooks gelten, wofür N12 ja gemacht wurde. Die ganze Rechnung geht für Grafik einfach nicht auf.
Und klar, die machen nen sauberen Schnitt. Keine Intel-CPUs mehr vom Smartphone bis zum dicken Server, inclusive natürlich der Intel Grafik aber eben auch nur dieser.

x-force
2020-06-27, 12:29:01
Bin mir nicht mal sicher, ob das theoretisch mit heutigen PowerVR-Architekturen überhaupt geht.

laut wiki skaliert IMG A-Series (Albiorix) von 16 bis 2048 tflops

pixeljetstream
2020-06-27, 13:26:04
Weiter mit der Diskussion zur Apple GPU im Apple thread
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12349755#post12349755

robbitop
2020-06-27, 13:38:42
Die GPU im Ax SoC ist schon ein paar Jahre lang intern keine PowerVR GPU mehr. Apple hat mittlerweile alles umgeschrieben und eine eigene GPU gebaut. IMG bekommt lediglich Lizenzen, da sie sonst gegen deren IP verstoßen würden.
Man sollte Apple nicht unterschätzen - auch im GPU Bereich haben sie mittlerweile eine ganze Menge Top Talente akquiriert.
Und gerade GPU uArchs sind ja noch relativ leicht skalierbar durch Breite.

Ich würde eher aus nicht technischen Gründen annehmen, dass die ganz großen GPUs nicht von Apple kommen werden. Ganz einfach weil es sich nicht lohnt. So viele Mac Pros verkauft man ja gar nicht. Entsprechend wird man aus wirtschaftlichen Gründen sicher genau entscheiden, bis wohin es sich lohnt und alles darüber kann man ja einkaufen. Wenn sie es wollten, gäbe es da wenig Grenzen mittelfristig.
Bei GPUs ist das "Mischen" ja auch dank der standardisierten Abstraktionsschichten viel viel leichter.

pixeljetstream
2020-06-27, 13:42:25
Ich hab dazu im anderen thread geantwortet.

Berniyh
2020-06-27, 15:55:03
Ich hab ja immer wieder geschrieben, dass ich nicht zwingend davon ausgehen würde, dass das komplette Navi2x Lineup auch "normale" Enduser Produkte darstellt.
Zuletzt hat sich die Gerüchtelage dahin gehend entwickelt, dass es so ist, aber 100%ige Gewissheit werden wir wohl erst haben, wenn entsprechende Chips released werden (oder halt auch nicht).
An eine GDDR6/HBM2 Aufteilung, so wie bei Navi10 und Navi12, glaube ich aber auch nicht so richtig.
Insbesondere, da – wenn man sich schon den Aufwand mit HBM2 macht – es in dem Fall einfach wenig Sinn machen würde für Big Navi (welcher ja angeblich Navi21-basiert ist) eben kein HBM2 zu nutzen.
Ich könnte mir aber auf jeden Fall gut vorstellen, dass Apple das komplette Lineup oder einen Teil von Navi22 exklusive bekommt. Evtl. auch nur die besten Chips, so wie das scheinbar bei Navi14 der Fall ist.

Complicated
2020-06-27, 17:18:56
Die ersetzen die Intel-"SOCs" durch eigene. Klar haben die dann PowerVR statt Intel-Grafik.
Außer sie gehen den selben Weg wie Samsung und lizenzieren AMD GPU-IP. Könnte durchaus schneller der Fall sein, als man denkt, wenn die direkte Konkurrenz damit droht einen großen Sprung zu machen.

Raspo
2020-06-27, 20:23:25
Außer sie gehen den selben Weg wie Samsung und lizenzieren AMD GPU-IP. Könnte durchaus schneller der Fall sein, als man denkt, wenn die direkte Konkurrenz damit droht einen großen Sprung zu machen.
Und genau den Gedanken hatte ich auch schon.

Lehdro
2020-06-27, 21:33:06
Die könnten auch einfach ihren CPU Kram mit ARM weiter fahren und ähnlich wie Intel damals mit Hades Canyon mit einer von AMDs/TSMCs Techniken oder Apple Eigengebräu (so was ähnliches wie EMIB) recht zielgerichtet die richtige GPU dranflanschen, je nach Einsatzgebiet. AMD ist da, mit seinem Semicustom IP Baukasten, sicherlich nicht gänzlich abgeneigt, sofern man eben weiter GPUs verkaufen kann.

LasterCluster
2020-06-28, 10:15:23
Warum ist im Appletreiber Van Gogh und Cezanne drin? Wird das die nächste Demütigung Intels? Erst Abschied von x86 und dann noch die Nutzung von paar AMD Produkten in der Auslaufphase?

https://hardwareleaks.com/2020/06/27/macos-11-big-sur-beta-amd-navi31-mi100-mi200-cezanne/

mironicus
2020-06-28, 10:20:29
Kann man nicht ausschließen. Und Apple hat ja auch angekündigt, daß noch x86-basierte Produkte in der Pipeline sind. Eine 8 Kern-APU mit 15 Watt TDP in ein 13 Zoll-Gehäuse wird sicherlich noch Abnehmer finden. Und du kannst dann auch noch Windows drauf laufen lassen.

Berniyh
2020-06-28, 10:34:58
Warum ist im Appletreiber Van Gogh und Cezanne drin? Wird das die nächste Demütigung Intels? Erst Abschied von x86 und dann noch die Nutzung von paar AMD Produkten in der Auslaufphase?

https://hardwareleaks.com/2020/06/27/macos-11-big-sur-beta-amd-navi31-mi100-mi200-cezanne/
evtl. übernimmt man auch einfach (Teile) des Linux Treibers.

LasterCluster
2020-06-28, 10:50:01
evtl. übernimmt man auch einfach (Teile) des Linux Treibers.

Ist wohl die logische (aber sehr langweilige ;)) Folgerung

robbitop
2020-06-28, 10:51:00
Man hat doch funktionierende wohl optimierte MacOS Treiber für GCN und RDNA. Wozu den Linuxtreiber auf ein anderes OS portieren?

unl34shed
2020-06-28, 10:52:46
Einfach nur die gleiche Code base? Oder warum sollte man das Rad für jedes OS komplett neu erfinden?

Berniyh
2020-06-28, 12:58:42
Man hat doch funktionierende wohl optimierte MacOS Treiber für GCN und RDNA. Wozu den Linuxtreiber auf ein anderes OS portieren?
Soweit mir bekannt verwendet man auch für Windows und Linux zumindest teilweise den gleichen Treibercode, also wohl auch für OS X.

Dazu kommt, dass der Linux Treiber auch prinzipiell auf BSD laufen würde (wenn sich dort jemand die Arbeit machen würde das einzubinden), selbst die Lizenz wäre dafür geeignet (praktisch der komplette DRM Code ist MIT, soweit mir bekannt).
Apple nutzt ja BSD als Basis, auch wenn da sicher inzwischen viel modifiziert wurde.

BlacKi
2020-06-29, 18:00:06
soviel zum thema, die ps5 hält ihren takt unter last.

"Sony went with the bold choice of using variable frequencies for both CPU and GPU, a decision that made the PS5's 10.28 TFLOPs figure feel misleading"
https://cdn.wccftech.com/wp-content/uploads/2020/03/xbox-series-x-vs-sony-ps5-sustained-graphics-performance-tflops-2-1030x595.jpg
https://wccftech.com/microsoft-we-could-have-used-variable-clocks-for-xsx-but-were-not-interested-in-tflops-numbers/

unl34shed
2020-06-29, 18:54:33
Und das basiert auf einer "estimated 2GHz sustained Clock" ist also nichts wert.

E:
Auch ist die Art wie geschätzt wird fragwürdig. Die 2GHz seien schon optimistisch, weil Eine 5700XT das nicht mal in der gleichen Node schaft... Wie Navi aber in der gleichen Node mehr Takt als eine Vega VII geschaft hat erklären sie aber nicht.

BlacKi
2020-06-29, 19:06:18
mag alles sein, aber die info, das die ps5 keinen boost hat, sondern einen festen stabilen 2,23ghz takt, ist eben nicht wahr. damals hieß es, die 2,23ghz wären ein optimaler betriebspunkt der von jedem chip und unter voller last selbst im sommer gehalten werden kann und man daran den takt für navi21 ableiten könnte.

soviel dazu. die xbox hat hier einen stabilen punkt angegeben mit 1,8ghz, das ist wohl auch die taktrate die wir erwarten können bei navi21.

Ravenhearth
2020-06-29, 19:09:11
Cerny sagte aber klar, dass die PS5 den Großteil der Zeit mit dem Maximaltakt laufen soll.

Microsoft scheint da eher einen Konsolen-typischen konservativen Takt gewählt zu haben, siehe PS4 (800MHz) vs. GCN zu der Zeit (~1000MHz), PS4 Pro (911 MHz), One X (1172 MHz), ...

BlacKi
2020-06-29, 19:35:20
ja, nämlich dann wenn die fps gekappt werden XD

unl34shed
2020-06-29, 20:56:16
mag alles sein, aber die info, das die ps5 keinen boost hat, sondern einen festen stabilen 2,23ghz takt, ist eben nicht wahr.

Kannst du mal aufhören dir hier was zu erfinden?
Es wurde weder das eine noch das andere was du scheibst behauptet. Es wurde weder behauptet, dass die 2.23GHz die Baseclock sind, noch dass es ein Boost ist, sondern es wurden mit der Gameclock verglichen, also dem Takt, der bei AMD im Schnitt während der Spiele anliegt.

Zumindest wenn man der Erklärung Cernies folgt deckt sich das Verhalten recht gut.

JVC
2020-06-30, 11:09:37
die xbox hat hier einen stabilen punkt angegeben mit 1,8ghz,
das ist wohl auch die Taktrate die wir erwarten können bei navi21.
Ich denke, das du da eindeutig zu tief stapelst :wink:


die Ps5 hat hier einen stabilen punkt angegeben mit 2,23ghz,
das ist wohl auch die Taktrate die wir erwarten können bei navi21.
Durch den höheren Verbrauch einer GPU (300-400? Watt) im PC,
erwarte ich, das Das sogar viel eher zutreffen würde...

Abwarten und Tee trinken ^^

M.f.G. JVC

HOT
2020-06-30, 11:15:45
[...]
soviel dazu. die xbox hat hier einen stabilen punkt angegeben mit 1,8ghz, das ist wohl auch die taktrate die wir erwarten können bei navi21.

Das ist Unfug. Der XBox-Chip tackert ja den Takt hier fest, das wird die GPU natürlich nicht tun. Der Minimaltakt mit Powervirus könnte da landen, was anderes aber ganz sicher nicht.
Des Weiteren ist nicht klar, wie weit N21 auch vor den Konsolenchips ist entwicklungstechnisch, denn die Konsolenchips sind ja ein gutes halbes Jahr eher ins Tape Out gegangen.

Zum Vergleich, PS4 und XBox takteten damals nur 800 und 850MHz. so ist das hier selbstverständlich auch zu sehen. Selbst die PS4 Pro mit 16nm taktet nur knapp über 900MHz! Sony setzt mit der PS5 aber erstmals auf semi-feste Takte, die sich mit der CPU ein Powerbudget teilen. Die 2,2GHz gibts halt nur, wenn die CPU entsprechend zurücksteckt. Wenn man das alles so sieht, würd ich insgesamt betrachtet eher von 2,3-2,4GHz Maximaltakt für die neue Generation ausgehen und 2,0GHz Basistakt, für die 80CU-Variante etwas weniger, aufgrund des Powerbudgets - und das ist konservativ berechnet.

Leonidas
2020-06-30, 14:04:36
https://wccftech.com/microsoft-we-could-have-used-variable-clocks-for-xsx-but-were-not-interested-in-tflops-numbers/


Bißchen seltsam, hier der XBSX gleich variable Taktraten anzudichten.

Thunder99
2020-06-30, 14:48:14
Was hat die Konsolen Diskussion hier verloren?

Spannender ist doch wie viel Big Navi wirklich bringt. Schafft es AMD Nvidia im High End zu kontern oder nicht. Wie wird die Raytracing Performance sein? Unterstützen sie alle Features?

mironicus
2020-06-30, 16:26:57
Was würdet ihr denn kaufen, wenn
- Big Navi eine höhere Rohleistung besitzt als Ampere (z.B. 12-15%), aber dafür eine geringere Raytracing-Leistung
- Ampere nur in Titeln mit DLSS Big Navi schlagen kann

HOT
2020-06-30, 16:28:28
Das wird sich erweisen müssen. Da gibts immerhin noch andere Kriterien, Speichermenge z.B., Leistungsaufnahme usw.
Und wie ich schon sagte, bei RT wird es erst mal darauf ankommen, wie wenig RT die Grafik bremst und das ist unmöglich vorherzusagen, wie die Ansätze hier greifen. Kann ja sein, dass der eine Grafikchip weniger Leistung mit klassischen Schatten und HBAO+ hat und bei RT weniger einbricht. Welchen würde man dann wählen? Letztendlich wird das ne reine Bauchentscheidung sein, da man unmöglich vorhersagen kann, wie die Gewichtung in Zukunft ausfällt.

JVC
2020-06-30, 16:39:05
Was würdet ihr denn kaufen, wenn
- Big Navi eine höhere Rohleistung besitzt als Ampere (z.B. 12-15%), aber dafür eine geringere Raytracing-Leistung
- Ampere nur in Titeln mit DLSS Big Navi schlagen kann
Komische frage :rolleyes:

Ich kaufe "Big Navi" auch mit -10% Rechenleistung und ohne RTX :freak:
Natürlich darf NV 10% schneller sein(auch ohne DLSS) und ich würde trotzdem ne AMD kaufen :freak:

Jetzt hab ich ne NV im Rechner...
Als nächstes kommt AMD zum Zug ;)
(außer AMD ist mir zu langsam und zu teuer :eek:)

M.f.G. JVC

unl34shed
2020-06-30, 16:40:53
Das wird sich erweisen müssen. Da gibts immerhin noch andere Kriterien, Speichermenge z.B., Leistungsaufnahme usw.

Die Vergangenheit hat gezeigt, dass das nur relevant ist, wenn Nvidia einen Vorteil hat (Verbrauch bei Fermi egal, später super wichtig, Speicher 3/6GB 1060 vs RX480 oder 3,5GB der 970 war egal vs. "nur" 4GB Fiji etc.)

Nazar
2020-06-30, 17:40:39
Was würdet ihr denn kaufen, wenn
- Big Navi eine höhere Rohleistung besitzt als Ampere (z.B. 12-15%), aber dafür eine geringere Raytracing-Leistung
- Ampere nur in Titeln mit DLSS Big Navi schlagen kann

Ein sehr gute Frage. ;)
Ich sehe weiterhin keinen für mich nötigen und erkennbaren optischen Vorteil durch RTX. Wenn ich spiele fällt mir fehlendes AA oder schlechtes AF auf, fehlendes RTX ist mir bisher nur durch bessere FPS und teilweise glaubwürdige Ausleuchtungen aufgefallen. Für mich zählt alleine die Rohleistung. Ich habe jetzt schon Spiele, die aufgrund der Nutzung von VR am absoluten Limit in allen Bereichen laufen. Rohleistung ist hier das Non Plus Ultra! Auch sehr wichtig, VRAM. 11GB VRAM sind, bezogen auf VR, für mich absolut zu wenig und das stand jetzt.

Es gibt viele Spieler die wie ich Simulationen zocken und die nur auf eines schauen: Rohleistung und VRAM.
Wenn es AMD nicht schafft nV dort deutlich zu schlagen, ist immer noch der VRAM ein wichtiges Argument für mich. Hier setzt nV voll auf DLSS und das funktioniert eben nicht überall und vor allem nicht überall auch wirklich gut.
Ich habe da lieber die Möglichkeit aus dem Vollem zu schöpfen als darauf zu hoffen, dass nV irgendwann DLSS für meine Lieblingsspiele anbietet oder sich der Entwickler auf das Spiel einlässt.
Persönlich habe ich den Eindruck, dass das Thema VRAM versus RTX+DLSS von nV komplett unterschätzt wird.

Also ganz klar die Rohleistung + VRAM. :wink:

gedi
2020-06-30, 18:59:21
Was würdet ihr denn kaufen, wenn
- Big Navi eine höhere Rohleistung besitzt als Ampere (z.B. 12-15%), aber dafür eine geringere Raytracing-Leistung
- Ampere nur in Titeln mit DLSS Big Navi schlagen kann

Wenn Navi nur mit nem fixen Upsampler zu schlagen ist, Ich glaube da sollte die Antwort klar sein. Ich bin mir aber absolut sicher, dass RDNA2 so etwas auch beherrscht, nur halt variabel und mit nem Slider. Best IQ, middle, low und AMD-optimized

gedi
2020-06-30, 21:02:03
Ich meine, es doch ein Witz, man legt incl. passendem Kühler 1900€ hin und erhält Upscaling�� Tut jetzt nicht sonderlich weh, aber trotzdem. Hoffe doch dass Ampere DLSS u.a. auch mit Gescheitem DS möglich ist

robbitop
2020-06-30, 21:58:27
Ist es doch mit Turing schon. Da hat Raff sogar einen PCGH Artikel verfasst.
Weiterhin bietet dlss tatsächlich bereits diese 3 Presets.

Auch ist DLSS nur eine Option - gleichwohl aber deutlich mehr als einfach nur ein Upscaler. Es wird ja durch das jittern der Sampleposition über mehrere Frames temporal echte Information hinzugefügt. Dank AI entstehen da deutlich weniger Artefakte als wenn man das mit starren Algorithmen versucht. Ich empfehle hier klar den GTC talk, der das genauer erklärt und auch anhand von Szenen zeigt.

Es ist als Option nutzbar, um (ggf nicht für die allerhöchsten Ansprüche) auch mit kleinen Karten höhere Auflösungen zu fahren oder ihr Leben zu verlängern. Oder aber mit Dickschiffen auch hohe Auflösungen bei highfps zu schaffen oder aber mit DS noch mehr hinzubekommen. Es ist eine gute Option - aber eben nur eine Option.

basix
2020-07-01, 11:00:23
DLSS 1.0 war sehr spannend, das Resultat aber schlecht. Bei DLSS 2.0 sieht das ganz anders aus. Die Resultate sind sehr positive. Bei selber Performance erhält man bessere Bildqualität oder bei selber Bildqualität höhere Performance. Für die Puristen optional. Ist doch alles OK. Ich hätte nur lieber, dass man das bei mehr Spielen und auch auf AMD Karten hat.

DLSS 2x wäre ebenfalls sehr schick. OGSSAA mit sehr geringen Mehrkosten.

gedi
2020-07-01, 11:15:23
Ist es doch mit Turing schon. Da hat Raff sogar einen PCGH Artikel verfasst.
Weiterhin bietet dlss tatsächlich bereits diese 3 Presets.

Auch ist DLSS nur eine Option - gleichwohl aber deutlich mehr als einfach nur ein Upscaler. Es wird ja durch das jittern der Sampleposition über mehrere Frames temporal echte Information hinzugefügt. Dank AI entstehen da deutlich weniger Artefakte als wenn man das mit starren Algorithmen versucht. Ich empfehle hier klar den GTC talk, der das genauer erklärt und auch anhand von Szenen zeigt.

Es ist als Option nutzbar, um (ggf nicht für die allerhöchsten Ansprüche) auch mit kleinen Karten höhere Auflösungen zu fahren oder ihr Leben zu verlängern. Oder aber mit Dickschiffen auch hohe Auflösungen bei highfps zu schaffen oder aber mit DS noch mehr hinzubekommen. Es ist eine gute Option - aber eben nur eine Option.

Nur hatte ich mit DLSS 2.0 + downsampling mit heftigen Grafikfehlern zu kämpfen. Die Performance war ebenso meh. Verbaut war ne 2080ti unter Wasser. Naja, wie damals beim NV40 und SM3.0. Kann HDR, aber laaaangsam.

robbitop
2020-07-01, 18:30:30
Nur hatte ich mit DLSS 2.0 + downsampling mit heftigen Grafikfehlern zu kämpfen. Die Performance war ebenso meh. Verbaut war ne 2080ti unter Wasser. Naja, wie damals beim NV40 und SM3.0. Kann HDR, aber laaaangsam.

Die Grafikfehler kamen afaik nicht vom Downsampling sondern in Verbindung mit der DLSS Implementierung je nach Spiel.

y33H@
2020-07-01, 19:14:18
Auch sehr wichtig, VRAM. 11GB VRAM sind, bezogen auf VR, für mich absolut zu wenig und das stand jetzt. Rohleistung für VR unterschreibe ich, aber welche Titel benötigen bitte 11GB? Zudem hat Nvidia mehr Performance-Optionen für VR.

Ravenhearth
2020-07-01, 19:15:38
Rohrleistung. :naughty:

Berniyh
2020-07-02, 16:29:40
Ich führ die Diskussion mal hier her, Beitrag kommt aber aus dem Thread zu Speichertechnologien:
Sk Hynix startet Massenproduktion von 3.6GT/s HBM2e https://videocardz.com/press-release/sk-hynix-announces-mass-production-of-hbm2e-high-speed-dram
Passend zu GloFos 12LP+-Prozess und 12LP+-Interposer-Launch ;).

https://www.techpowerup.com/269309/globalfoundries-announces-12lp-enhanced-12nm-silicon-fabrication-node

Aber er zeigt sich, dass die Zeit von GDDR unweigerlich abläuft. Die Geschwindigkeiten und Speichermengen, die man mit HBM hinbekommt sind einfach enorm.

Also jetzt mal unabhängig von der ganzen GDDR6 vs. HBM2 Diskussion:
Haltet ihr es für zeitlich realistisch, dass das noch in Big Navi einfließt?
Ist eigentlich bissle spät, wenn SK Hynix erst jetzt die Massenproduktion ankündigt, oder nicht? Schließlich sollte Big Navi schon klar auf der Zielgeraden sein.
d.h. im Falle von HBM2 bei Big Navi müsste man eher mit einer älteren, d.h. langsameren, Spec rechnen?

Langlay
2020-07-02, 17:02:15
Also jetzt mal unabhängig von der ganzen GDDR6 vs. HBM2 Diskussion:
Haltet ihr es für zeitlich realistisch, dass das noch in Big Navi einfließt?
Ist eigentlich bissle spät, wenn SK Hynix erst jetzt die Massenproduktion ankündigt, oder nicht? Schließlich sollte Big Navi schon klar auf der Zielgeraden sein.
d.h. im Falle von HBM2 bei Big Navi müsste man eher mit einer älteren, d.h. langsameren, Spec rechnen?


Sollte grundsätzlich möglich sein. Samsung hat Anfang Januar 2018 gesagt das sie die Massenproduktion von HBM2 gestartet haben. Ende März 2018 hat Nvidia GV100 gelauncht.

https://www.anandtech.com/show/12301/samsung-starts-production-of-hbm2-aquabolt-memory-8-gb-24-gbps

https://www.pcgameshardware.de/Volta-Codename-266151/News/Statt-Geforce-2018-Nvidia-Quadro-GV100-GPU-HBM2-1253288/

unl34shed
2020-07-02, 17:04:56
Du hast ja davor schon qualification Samples mit denen Navi bereits getestet werden könnte, das könnte schon klappen mit Navi August/September.

Das einzige Problem was ich mit dem HBM2E habe ist, dass man mMn. mit 2 Stacks zu wenig Bandbreite für big Navi hat, 3 Stacks eine komische Zahl wäre und 4 Stacks mit 1,84TB/s aber schon wieder zu viel Bandbreite ergibt, sollte er fullspeed laufen.


Bei GDDR5X gab es die Meldung mit der Massenfertigung (10/11.5) erst nach der Vorstellung (6.5) der 1080 und ein paar Wochen vor Verkaufsstart (27.5).

reaperrr
2020-07-02, 17:14:11
Das einzige Problem was ich mit dem HBM2E habe ist, dass man mMn. mit 2 Stacks zu wenig Bandbreite für big Navi hat, 3 Stacks eine komische Zahl wäre und 4 Stacks mit 1,7TB/s aber schon wieder zu viel Bandbreite ergibt, sollte er fullspeed laufen.
2 Stacke mit je 460 GB/s Bandbreite wären 920 GB/s und damit etwas mehr als eine Verdoppelung von der 5700XT (448 GB/s). Und die 5700XT hängt nicht wirklich im Bandbreitenlimit, solange Big Navi nicht oder nicht viel höher als N10 taktet, sehe ich da kein Problem.

Außerdem würde ich davon ausgehen, dass AMD wie Nvidia jede Generation Verbesserungen an DCC, L2-Cache und/oder anderen Einflüssen auf die Bandbreiteneffizienz vornimmt, die das Bandbreitenlimit zusätzlich nach oben verschieben.

Ich bin noch immer skeptisch, ob wirklich HBM zum Einsatz kommt, aber an der Bandbreite wird's mMn nicht scheitern, auch nicht bei nur 2 Stacks.

unl34shed
2020-07-02, 17:37:30
Es kommt mit RT noch denke ich noch etwas Bandbretienbedarf hinzu, du hast aber recht, ich bin doof und war irgendwie bei 860GB/s für 2 Stacks...

gedi
2020-07-02, 17:56:45
:naughty:

Okay jetzt verstehe ich, min. 30cm Länge und im Durchmesser (?) min 6 cm.

@ Reaperr

Schon N10 hängt manchmal im Bandbreiten-Limit, so z.B. in SotTR

Zudem hat Raff mal ne interessante Frage gestellt: Wie gesichert sind denn die kolportierten 504mm im Q? Man nehme mal an N21 hat z.B. 540 und HBM2?!

HOT
2020-07-02, 18:04:17
N21 wird offenbar wirklich 512Bit GDDR6 mitbringen so wie es aussieht. Aber für einen evtl. N31 könnt ich mir 2 oder 4 HBM2E-Stapel vorstellen. Und natürlich Arcuturus.

nagus
2020-07-02, 18:22:44
N21 wird offenbar wirklich 512Bit GDDR6 mitbringen so wie es aussieht. ....

sagt wer / steht wo?

Mortalvision
2020-07-02, 18:24:36
Dann bitte mit Volldampf zurück zur 290. Was gabs da nicht alles an Problemen mit der Kühlung des VRAMs....

Langlay
2020-07-02, 18:29:10
sagt wer / steht wo?

Sein Bauchgefühl. Wie gesagt ich glaub nicht an 512Bit Speicherinterface. Da wäre ein 2 Stack HBM deutlich sinnvoller.

Und wenn AMD eine Karte(Vega56) mit HBM für 400€ UVP beim Launch vor 3 Jahren bringen konnte. Dann seh ich nicht wieso bei einer 700+€ Karte 2 Stacks HBM2E aufeinmal unfinanzierbar sein sollte. Ganz zu schweigen von den anderen Vorteilen (weniger Diesize, weniger Verbrauch, deutlich einfacheres PCB design).

Grendizer
2020-07-02, 18:43:26
Ich erinnere mich nur an eine sau schlechte Verfügbarkeit, gerade der Vega 56 nach Release die monatelang angehalten hat. Evtl. war da HBM auch nicht so ganz unschuldig dran.

Daredevil
2020-07-02, 18:53:28
Und AMD hätte mit HBM nicht nur Gamer im Visier, sondern auch die Crypto Miner.
Die schaufeln heute noch Geld in AMDs Taschen, ohne das sie dafür Werbung machen müssen.

Langlay
2020-07-02, 19:08:41
Ich erinnere mich nur an eine sau schlechte Verfügbarkeit, gerade der Vega 56 nach Release die monatelang angehalten hat. Evtl. war da HBM auch nicht so ganz unschuldig dran.

Yap, die Vega56 kam halt genau zum Miningboom. Irgendwann in Mitte 2019 wurden die Teile dann für <250€ verramscht.

N0Thing
2020-07-02, 20:31:49
Ich erinnere mich nur an eine sau schlechte Verfügbarkeit, gerade der Vega 56 nach Release die monatelang angehalten hat. Evtl. war da HBM auch nicht so ganz unschuldig dran.

Wenn ich mich recht erinnere, hatten die Boardpartner am Anfang Probleme, die drei unterschiedlichen Varianten des Package mit dem Kühler zu verheiraten. Da gab es ja eine Variante mit gleich hohen und umhüllten Chips, dann eine empfindlichere, nicht umgegossene Variante und dann nochmal eine Variante, in der GPU und HBM unterschiedlich hoch waren und die Lücken ebenfalls nicht mit Füllmaterial versehen war, was laut Igor zu Beginn zu einer gestoppten Produktion geführt hat, bis man sich daran angepasst hat.

Ob das stimmt, wissen nur Insider, aber wenn es so wahr, sollte man inzwischen wissen, welche Fehler zu vermeiden sind. Und Mining spielt natürlich auch nicht mehr die selbe Rolle wie damals.

Berniyh
2020-07-02, 20:54:23
Es kommt mit RT noch denke ich noch etwas Bandbretienbedarf hinzu, du hast aber recht, ich bin doof und war irgendwie bei 860GB/s für 2 Stacks...
Wobei 860 GB/s jetzt nicht so weit weg sind von 920 GB/s und mit 18 GT/s GDDR6 auch mit einem 384 bit Speicherinterface realisierbar ist.

Aber du hast schon recht, dass 3 Stacks zumindest "interessant" wären.

Ich weiß jetzt nicht, wie groß der Unterschied im Preis zwischen HBM2 und HBM2e wäre, aber wenn man eh schon den Interposer nutzt ist es evtl. am Ende günstiger (und besser?) statt 2 Stacks HBM2e dann 4 Stacks HBM2 zu nutzen?
Das wären dann 1 TB/s Bandbreite, was ja für Big Navi eigentlich gut passen sollte (und etwa äquivalent zu 22 GT/s GDDR6 mit 384 bit Bus).

Mal als Auflistung:
14 GT/s GDDR6 256 bit (RX 5700): 448 GB/s
14 GT/s GDDR6 384 bit: 672 GB/s
14 GT/s GDDR6 512 bit: 896 GB/s
18 GT/s GDDR6 384 bit: 864 GB/s
18 GT/s GDDR6 512 bit: 1152 GB/s
20 GT/s GDDR6 384 bit: 960 GB/s
20 GT/s GDDR6 512 bit: 1280 GB/s
24 GT/s GDDR6 384 bit: 1152 GB/s
24 GT/s GDDR6 512 bit: 1536 GB/s

2 Stack HBM2 256 GB/s: 512 GB/s
3 Stack HBM2 256 GB/s: 768 GB/s
4 Stack HBM2 256 GB/s: 1024 GB/s
2 Stack HBM2 307 GB/s: 614 GB/s
3 Stack HBM2 307 GB/s: 921 GB/s
4 Stack HBM2 307 GB/s: 1228 GB/s
2 Stack HBM2e 460 GB/s: 920 GB/s
3 Stack HBM2e 460 GB/s: 1380 GB/s
4 Stack HBM2e 460 GB/s: 1840 GB/s

4 Stacks à 4GB würden ja auch gut ins Konzept passen.

Cyberfries
2020-07-03, 21:19:49
Wenn Navi mit HBM ausgestattet wird, kann ich mir mehr als 2 Stacks nicht vorstellen.
Egal ob Samsung mit 860GB/s oder Micron mit 920GB/s, die Bandbreite liegt im erwarteten Rahmen.
Ein 512bit GDDR6 Interface müsste auf langsameren Speicher setzen und selbst mit an 384bit wird AMD kaum über 16GT/s kommen.

Bei 4 HBM Stacks passt Aufwand/Nutzen nicht mehr, genau wie bei 512bit GDDR6.
Wenn nVidias A100 5 HBM Stacks hat, können auch 3 Stacks bei AMD nicht ausgeschlossen werden.
Entscheiden wird sich das ganze dennoch zwischen 2 HBM Stacks oder 384bit GDDR6, alles andere ergibt wenig Sinn für eine 80CU-Karte.

BiZiNiZz
2020-07-03, 21:38:30
Wenn Navi mit HBM ausgestattet wird, kann ich mir mehr als 2 Stacks nicht vorstellen.
Egal ob Samsung mit 860GB/s oder Micron mit 920GB/s, die Bandbreite liegt im erwarteten Rahmen.
Ein 512bit GDDR6 Interface müsste auf langsameren Speicher setzen und selbst mit an 384bit wird AMD kaum über 16GT/s kommen.

Bei 4 HBM Stacks passt Aufwand/Nutzen nicht mehr, genau wie bei 512bit GDDR6.
Wenn nVidias A100 5 HBM Stacks hat, können auch 3 Stacks bei AMD nicht ausgeschlossen werden.
Entscheiden wird sich das ganze dennoch zwischen 2 HBM Stacks oder 384bit GDDR6, alles andere ergibt wenig Sinn für eine 80CU-Karte.

A100 hat sogar 6 Stacks, nur 5 davon sind aber aktiv, da alles was mit ihm zusammenhängt für die Ausbeute deaktiviert wurde.

unl34shed
2020-07-03, 22:11:33
4 HBM Interfaces dürften in etwa den Platz von 256bit GDDR6 IF auf dem Die verbrauchen und der Aufwand ob jetzt 2 oder 4 verbaut werden dürfte egal sein.

Bei 3 ist halt die Frage ob man die auf einer Chipseite unter bekommt, sonst sind 4 auch nicht teuere, da der Interposer gleich groß sein wird, man könnte dann sogar 4x langsameren und damit günstigeren Speicher nutzen und was denke ich auch ein Problem sein könnte, wenn die 3 nicht auf der gleichen Seite sind könnte der Kühler beim befestigen kippeln und einen den Die beschädigen.

Bei GDDR6 sehe ich 448bit auch noch nicht ganz aus dem Rennen, aber an 512bit glaub ich einfach nicht.

Cyberfries
2020-07-03, 23:28:35
A100 hat sogar 6 Stacks, nur 5 davon sind aber aktiv, da alles was mit ihm zusammenhängt für die Ausbeute deaktiviert wurde.

Meines Wissens nach sind es fünf Stacks + ein Dummy zur Symmetrie.
Ob Dummy oder deaktiviert, spielt für die Grundaussage jedoch keine Rolle.


Bei 3 ist halt die Frage ob man die auf einer Chipseite unter bekommt

Wenn die kurze Seite zur GPU zeigt, rein geometrisch betrachtet kein Problem.
Ich kann mich jedoch nicht erinnern dass es so etwas bereits gäbe, bisher ist mir nur Längsausrichtung bekannt.
Gibt es da irgendwelche Einschränkungen bei der Positionierung?

Brillus
2020-07-04, 03:09:18
Meines Wissens nach sind es fünf Stacks + ein Dummy zur Symmetrie.
Ob Dummy oder deaktiviert, spielt für die Grundaussage jedoch keine Rolle.



Wenn die kurze Seite zur GPU zeigt, rein geometrisch betrachtet kein Problem.
Ich kann mich jedoch nicht erinnern dass es so etwas bereits gäbe, bisher ist mir nur Längsausrichtung bekannt.
Gibt es da irgendwelche Einschränkungen bei der Positionierung?

Nach meinem Wissen sind die Pins bei HBM an der kurzen Seite.

unl34shed
2020-07-04, 09:00:47
Brilus, es müste die lange seite sein, war es zumindest bei HBM1 und Fiji.
Bei HBM2 wird es genauso sein, und somit auch der Grund warum es keine gedrehten HBM stacks gibt, da du so nicht das Problem mit komplett unterschiedliche langen Leitungen hast.
https://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2016/Die-Shot-AMD-Fiji-3.jpg

Nazar
2020-07-04, 16:45:56
Rohleistung für VR unterschreibe ich, aber welche Titel benötigen bitte 11GB? Zudem hat Nvidia mehr Performance-Optionen für VR.

Hatte ich das vergessen zu schreiben? :confused:
Es ist DCS. Es verschlingt meinem gesamten Speicher in der VR. Das Spiel ist auch weit weg von Optimierungen aber es schafft es locker den kompletten VRAM meiner 2080Ti in der VR zu verbraten. 10.07 GB zeigt FPSVR an (danach erfolgt keine Änderung der Daten) und da ist die BQ schon extrem stark reduziert.
Ohne VR werden locker mehr als 9,77 GB (Edit2: eben getestet und bin nach ein paar Minuten Flug bei 10,27 GB gelandet) bei einem simplen Trägerstart im VRAM verlangt, wo nichts außer das Meer zu sehen ist.
Das Spiel frisst VRAM zum Frühstück, kotzt ihn aus und verspeist in gleich noch einmal. ;)

Edit:
Der RAM Bedarf des Systems ist noch bei weitem höher. Wenn man im MP spielen möchte, mit vielen Einheiten, sind über 24GB RAM Bedarf keine Seltenheit.
Wer sein System auf Herz und Nieren auf Stabilität testen möchte, der sollte es mit DCS (https://www.digitalcombatsimulator.com/de/) tun. :wink:

Edit3:
Und da kommen wir zur Krux mit der Sache von wegen Nvidia und Optimierungen. Die gibt es eben nicht für alle älteren Spiele und bei DCS greift keine der VR Optimierungen von nV. ;)
Ich brauche Rohleistung und deutlich mehr VRAM für mein Lieblingsspiel als es von nV bisher angeboten wird.

y33H@
2020-07-04, 17:51:19
Belegt das Spiel den Speicher nur oder nutzt es ihn? Titan RTX getestet? ^^

Nazar
2020-07-04, 20:36:26
Belegt das Spiel den Speicher nur oder nutzt es ihn? Titan RTX getestet? ^^

Das ist eine Frage, die müsste man den Entwicklern stellen.
Man kann die "Belegung" zumindest steuern, indem man die BQ und die Effekte variiert. Texturen haben eine deutlich Einfluss, ebenso die Sichtweite und Objektdichte.
Aber wie ich schon schrieb, was mit den Daten im VRAM passiert, weiß ich nicht.

basix
2020-07-11, 13:11:19
Im Ampere Thread kam das Thema Zeitraum Tapeout bis Release auf. Man spicht von 6-9 Monaten im Regelfall.

Nun war das Tapeout von Big Navi laut Gerüchten im herbst 2019 so Ende Oktober / Anfang November (https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019). Schon damals sprach man von Release im Sommer 2020.

Nun haben wir Juli und was macht AMD da:

07.07. 3x00XT CPUs
14.07. TR4 WX Workstation CPUs
21.07. Renoir Pro / Renoir Desktop Release
28.07. ??? -> Wie wäre es denn mit Big Navi? ;D

AffenJack
2020-07-11, 13:55:46
Im Ampere Thread kam das Thema Zeitraum Tapeout bis Release auf. Man spicht von 6-9 Monaten im Regelfall.

Nun war das Tapeout von Big Navi laut Gerüchten im herbst 2019 so Ende Oktober / Anfang November (https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019). Schon damals sprach man von Release im Sommer 2020.

Nun haben wir Juli und was macht AMD da:

07.07. 3x00XT CPUs
14.07. TR4 WX Workstation CPUs
21.07. Renoir Pro / Renoir Desktop Release
28.07. ??? -> Wie wäre es denn mit Big Navi? ;D


Es sind 9-12 Monate vom Tapeout. Es sind 6-9 Monate vom ersten Chip im Labor zum Produkt. Tapeout und Chips zurück vom Fertiger wird aber dauernd falsch verwendet.

Abgesehen davon ist es noch viel zu ruhig für einen Hardlaunch vor September. Mehr als nen Paperlaunch im August wirds bestimmt nicht geben.

Brillus
2020-07-11, 14:31:19
Es sind 9-12 Monate vom Tapeout. Es sind 6-9 Monate vom ersten Chip im Labor zum Produkt. Tapeout und Chips zurück vom Fertiger wird aber dauernd falsch verwendet.

Abgesehen davon ist es noch viel zu ruhig für einen Hardlaunch vor September. Mehr als nen Paperlaunch im August wirds bestimmt nicht geben.

Für Topdog GPU nicht unbedingt, soviele braucht man da auch nicht und be Ref design Kleben die Graka-Hersteller auch nur Aufkleber drauf. Da reichen 3-4 Wochen massiv.

SKYNET
2020-07-11, 17:59:35
Es sind 9-12 Monate vom Tapeout. Es sind 6-9 Monate vom ersten Chip im Labor zum Produkt. Tapeout und Chips zurück vom Fertiger wird aber dauernd falsch verwendet.

Abgesehen davon ist es noch viel zu ruhig für einen Hardlaunch vor September. Mehr als nen Paperlaunch im August wirds bestimmt nicht geben.

wäre mir da garnicht mehr so sicher, dass das ding so spät kommt... ampere kommt wohl erst Q1/21, das wird AMD nutzen wollen... evtl. sehen wir nicht grad den big-big navi, aber könnte mir vorstellen das es wie bei NV mit pascal läuft mit der 1080 wo später die Ti nachgeschoben wurde, also 2. & 2. schnellste karte -zumindest- für reviews zur verfügung steht, um die leute geil zu machen, und nen monat später im handel, und zum x-mas geschäft kommt dann das dickschiff.

weil viele wollen nicht warten, die wollen JETZT was neues, und wenn AMD performancemässig überzeugen kann, wird NV auf einigen amperes sitzenbleiben, da die leute schon zu navi gegriffen haben. :)

oder AMD schiebt nen rdna1 refresh ende des monats nach, verbesserter prozess, höherer takt.

Grendizer
2020-07-11, 18:28:23
wäre mir da garnicht mehr so sicher, dass das ding so spät kommt... ampere kommt wohl erst Q1/21, das wird AMD nutzen wollen... evtl. sehen wir nicht grad den big-big navi, aber könnte mir vorstellen das es wie bei NV mit pascal läuft mit der 1080 wo später die Ti nachgeschoben wurde, also 2. & 2. schnellste karte -zumindest- für reviews zur verfügung steht, um die leute geil zu machen, und nen monat später im handel, und zum x-mas geschäft kommt dann das dickschiff.

weil viele wollen nicht warten, die wollen JETZT was neues, und wenn AMD performancemässig überzeugen kann, wird NV auf einigen amperes sitzenbleiben, da die leute schon zu navi gegriffen haben. :)

oder AMD schiebt nen rdna1 refresh ende des monats nach, verbesserter prozess, höherer takt.


Wenn man so wie ich Pascal hat und Turing ausgelassen hat, dann kann man auch noch bis Q1/2021 warten falls Ampere wirklich so spät kommt. Man beißt sich doch nur in den Arsch, wenn man nach 3-3,5 Jahren warten übereillt zur AMD Karte gegriffen hat und dann 3-4 Monate später evtl. doch ein besseres nVidia Produkt kommt. Wenn beide gleich performant sind und der Preis ist gut, kann man dann immer noch beruhigt zur AMD Karte greifen.

AffenJack
2020-07-11, 19:04:27
wäre mir da garnicht mehr so sicher, dass das ding so spät kommt... ampere kommt wohl erst Q1/21, das wird AMD nutzen wollen...

Lol, du immer mit deinen Träumereien. Nach dir wäre RDNA2 doch schon bestimmt schon in Q1 da gewesen und wird alles was Nv hat zersägen.

Aber im Moment deutet alles darauf hin, dass Ampere zeitgleich, wenn nicht sogar vor RDNA2 kommt.

Langlay
2020-07-11, 19:33:55
Aber im Moment deutet alles darauf hin, dass Ampere zeitgleich, wenn nicht sogar vor RDNA2 kommt.

Imo war der Stand Ampere kommt mit Aug./September und BigNavi im Sept./Okt.

SKYNET
2020-07-11, 21:55:49
Lol, du immer mit deinen Träumereien. Nach dir wäre RDNA2 doch schon bestimmt schon in Q1 da gewesen und wird alles was Nv hat zersägen.

Aber im Moment deutet alles darauf hin, dass Ampere zeitgleich, wenn nicht sogar vor RDNA2 kommt.


dann schau mal in den ampere thread...

[MK2]Mythos
2020-07-11, 22:21:47
dann schau mal in den ampere thread...
Da geht es um GA106 und GA107. Dass die später kommen als die "Dicken", ist doch keine neue Erkenntnis?

SKYNET
2020-07-12, 02:45:17
Mythos;12362105']Da geht es um GA106 und GA107. Dass die später kommen als die "Dicken", ist doch keine neue Erkenntnis?


umgedreht, die kleinen kommen diesen spätsommer, die dickschiffe später...

Leonidas
2020-07-12, 03:57:14
Nun war das Tapeout von Big Navi laut Gerüchten im herbst 2019 so Ende Oktober / Anfang November (https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019). Schon damals sprach man von Release im Sommer 2020.


Leider ist immer noch nicht sicher, ob jener 505mm² große Chip nun wirklich Navi 21 oder denn Arcturus ist.

Davon abgesehen geht das Gerücht um, das AMD bewußt später als NV kommen will, damit sich NV schon entblättert hat, wenn AMD dann seine Produkte vorstellt. Für ein "später" in diesem Sinne reichen wenige Wochen aus.

Generell hast Du aber Recht: Kaum AMD-Leaks derzeit - so als wäre nix in Vorbereitung.

rentex
2020-07-12, 08:17:05
umgedreht, die kleinen kommen diesen spätsommer, die dickschiffe später...


Ähmm...nö. Die großen Ampere kommen wohl spätestens im September. Die kleinen Karten später.

mironicus
2020-07-12, 14:51:53
Kaum AMD-Leaks derzeit - so als wäre nix in Vorbereitung.

Hat AMD sich vielleicht auch Produktnamen registrieren lassen wie NVidia (3080,4080,5080...)?

horn 12
2020-07-12, 15:03:43
Big Navi kommt wohl spät. Anfang Oktober
und die Konsolen gut einem Monat später.

[MK2]Mythos
2020-07-12, 15:11:47
Big Navi kommt wohl spät. Anfang Oktober
und die Konsolen gut einem Monat später.
Woher weißt du das denn schon wieder? Hat sich deine Quelle wieder gemeldet?

Berniyh
2020-07-12, 16:19:25
Ignoriere es doch einfach. ;)

horn 12
2020-07-12, 17:07:49
https://videocardz.com/newz/nvidia-rumored-to-retire-geforce-rtx-2080-ti-super-and-geforce-rtx-2070-super-graphics-cards-soon

Seth
2020-07-12, 21:35:32
Langsam glaube ich horn 12 ist ein chatbot. XD
Es steht nichts von Navi oder Konsolen in deinem Link.

[MK2]Mythos
2020-07-12, 22:57:09
Langsam glaube ich horn 12 ist ein chatbot. XD
Es steht nichts von Navi oder Konsolen in deinem Link.
Genau den gleichen Gedanken hatte ich auch. :D

mironicus
2020-07-14, 15:17:28
Neue Spekulation über Big Navi. Der Leak soll sogar aus Kreisen von NVidia stammen.
427 mm², 72 SM, 384 Bit GDDR6, 2050 MHz Game Clock, 2150 HMz Boost, ca. 300 Watt, 40-50% schneller als RTX 2080 Ti.

9zJL99lb7F4

Edgecrusher86
2020-07-14, 16:17:49
Dafür müsste auch die IPC massiv ansteigen - um Richtung 20% tippe ich. In 4K ist eine RTX 2080 Ti etwa 50-60% vor der RX 5700XT.
RDNA2 hätte ca. 120% Mehrleistung als RDNA1. Bisher ging man ja von grob 20-30% Vorsprung auf TU102 aus, also doppelt so schnell wie Navi 10.

Solte das erstmal ein Cut sein, könnte man 2021 nochmals grob 10% drauf legen per Refresh und 80SM. :wink:

Mortalvision
2020-07-14, 16:19:48
Bei 4k bitte immer auch die VII im Hinterkopf haben. Es gibt genug Settings, da limitieren die 11GB der 2080Ti :freak:

Der_Korken
2020-07-14, 16:21:39
Neue Spekulation über Big Navi. Der Leak soll sogar aus Kreisen von NVidia stammen.
427 mm², 72 SM, 384 Bit GDDR6, 2050 MHz Game Clock, 2150 HMz Boost, ca. 300 Watt, 40-50% schneller als RTX 2080 Ti.

Das sieht mir schon eher nach einer realistischen Einschätzung des Topdogs aus als die ganzen 80CU+ und 500mm²+ Spekulationen. Das Ding hätte ungefähr doppelt so viele Flops wie eine 5700XT (+80% CUs, +10-15% Takt), was hochgerechnet ungefähr auf 2080Ti+30% Performance rauskommen würde bei einer 1:1-Skalierung. Geht man noch von mehr IPC durch RDNA2 selbst aus, wären 40% auf die 2080Ti durchaus machbar.

Auf die Effizienz bezogen entspricht das ungefähr der +50%-Aussage vom FAD. Die Chipgröße sieht erstmal nach wenig aus, dafür dass 80% mehr CUs drinstecken, die auch noch mehr IPC und zusätzlich RT haben sollen. Allerdings wurde hier ja schon anhand von Dieshots ausreichend erörtert, dass ~40% der Fläche von N10 quasi IO sind, die nicht mit mehr CUs mitwachsen. Natürlich wäre ein 384bit SI 50% größer, aber eben nicht 80%+. Die Bandbreite scheint auch zu passen. 384bit@18Gbps = 864GB/s = +93% gegenüber N10. Alles im Rahmen von besserer Bandbreiteneffizienz. Selbst 16Gbps sollten unproblematisch sein, da bereits N10 kaum an der Bandbreite hängt.

Edgecrusher86
2020-07-14, 16:22:31
Da fallen mir spontan eigentlich nur Minecraft RTX Beta und Gears 5 ein, wo es mit 11GB eng werden könnte.

Per Rohleistung doppelt so schnell bzw. minimal darüber, ja:

N21 Speku - 4608SP @ 2,05 - 2,15 GHz: 18,9-19,8 TF/s FP32
5700XT - 2560SP @ 1,86 GHz: 9,5 TF/s FP32

Also beim RE2 Remake sind es in 8K grob 19,5 GB mit TITAN RTX NVL bei grob 40-50 fps - zwei 2080 Ti bringen 2-6 fps. :D
https://www.youtube.com/watch?v=MoMMvmKH_tQ

In 4K sehe ich hier 10-11 GB mit den RTX im NVL:
https://www.youtube.com/watch?v=5XQLnv-fSAg

Mortalvision
2020-07-14, 16:25:00
Resident Evil 2 Remake hatte bei mir auf Ultra 12-13 GB geschluckt. Vermutlich hatte das das aktuelle Bild nicht beeindruckt. Aber wir werden bestimmt noch mehr vram Bedarf sehen, dieses oder nächstes Jahr.

rentex
2020-07-14, 16:29:28
Und WANN soll BigNavi aufschlagen?

Edgecrusher86
2020-07-14, 16:30:33
September bis Oktober wird gemunkelt.

rentex
2020-07-14, 16:44:01
Dafür gibt es viel zu wenige Anzeichen. Kein AIB, könnte einen Leak verhindern und dann soll NV was wissen?! Bisschen unwahrscheinlich...

Der_Korken
2020-07-14, 16:48:24
Mehr als 12GB werden es wohl nicht werden, wenn die 384bit feststehen. Ich würde es aber nicht so als großes Problem ansehen, denn wie pixeljetstream im Ampere-Thread ausgeführt hat, muss ein großer Speicher auch entsprechend viel Bandbreit haben, damit er was bringt. Bei 864GB/s kann man einen 24GB großen Speicher nur 36 mal pro Sekunde lesen. Das heißt, selbst wenn jedes Bit nur genau einmal angefragt wird (und kein Bit doppelt), dann können allein aufgrund der Bandbreite gar nicht mehr als 36fps erreicht werden, wenn die 24GB voll ausgenutzt werden. Bei 12GB entsprechend 72fps.

Für Speicherknappheit müsste sich also entweder die Szene rasend schnell ändern, d.h. (quasi von einem Frame auf den anderen in ganz anderes Level teleportieren ohne Ladezeit) oder partieller und randomierster Zugriff auf eine Datenstruktur, z.B. eine 50GB große BVH, wo immer nur 10% von gelesen werden. Ersteres ist eher unwahrscheinlich, bzw. wenn dann schlecht programmiert. Wenn man sich dem "Rand" der aktuell geladenen Welt nähert, dann kann man schon eine Sekunde vorher anfangen nachzuladen, das geht mit PCIe 4.0 ja mit 30GB/s (man braucht also gerade mal 0,4 Sekunden, um einen 12GB großen VRAM neu zu füllen, theoretisch). Zweiteres kann natürlich zum Problem werden, aber solch ein fragmentierter Zugriff killt natürlich jeden Cache und nutzt auch die Bandbreite eventuell nur zu einem Bruchteil aus (wenn z.B. immer nur 64Byte-Chunks vom Speicher gelesen werden können, man aber immer nur 8Byte abfragt, also von den 864GB/s effektiv nur 108 (!) nutzen kann). Klar würde hier ein großer VRAM was bringen, aber selbst dann würde es wie ein Sack Nüsse laufen, sodass man sowas vielleicht lieber direkt vermeidet.

Edgecrusher86
2020-07-14, 17:05:01
Oder man fährt aus Gründen des Marketings ähnlich NV zweigleisig - sprich der Top-Dog mit 24GB und eine non XT dann mit 12GB. Einfach um eine Radeon VII auch im Bereich der Speichermenge zu überbieten. Es mag durchaus sein, dass auch AMD über 18 Gbps verbaut. Bei 20 Gbps (960 GB/s) und 8Gb jeweils wäre man in Schlagweite zu den 2 Gbps @ 4096-bit im letzten Jahr.

Der_Korken
2020-07-14, 17:54:18
Der hochgetaktete GDDR6(X?) scheint aber sehr aufwendig zu sein, was ich so aus dem Ampere-Thread vernommen habe. Der Speicher muss näher an die GPU ran, verbraucht viel Strom usw. Ich glaube nicht, dass AMD da mitzieht. Wenn sie wirklich ans Limit gehen wollen, würden sie einfach nochmal HBM2 verbauen, dann würden auch 16GB gehen, die nicht so übertrieben wie 24GB sind.

dargo
2020-07-14, 18:53:09
427mm² wären aber schon deutlich unter den immer wieder spekulierten 505mm². Wenn die Leistung stimmt warum nicht? Je kleiner die GPU umso besser die Chance auf nicht völlig überzogene Preise.

gedi
2020-07-14, 19:10:22
Naja, 430mm^2 und trotzdem so schnell? Der Leak seitens NV besagt gar nix, außer dass das was da kolportiert wird, ein Fake ist! Warum sollte NV so nen Mist Posten? Über RDNA2 weiß man nichts und bevor Ampere nicht released wird, bleibt das wohl so

Rampage 2
2020-07-14, 19:10:37
427mm² wären aber schon deutlich unter den immer wieder spekulierten 505mm². Wenn die Leistung stimmt warum nicht? Je kleiner die GPU umso besser die Chance auf nicht völlig überzogene Preise.

Die Die-Fläche kann ruhig so niedrig sein, wie es geht, aber alles unterhalb 80 CUs wäre eine Enttäuschung - ich hoffe, dass sich diese 72 CUs auf einen Salvage-Chip beziehen, falls diese News stimmen sollte. (selbst die kolportierte 3080Ti hat, obwohl beschnitten, bereits 82 SMs...)

R2

Linmoum
2020-07-14, 19:20:09
Wie viele CU ist im Endeffekt völlig egal, sofern die Leistung stimmt. Vega10 hatte derer 64 und wurde von einer 1080 spielend in Schach gehalten.

dargo
2020-07-14, 19:32:42
Die Die-Fläche kann ruhig so niedrig sein, wie es geht, aber alles unterhalb 80 CUs wäre eine Enttäuschung...
Wen interessiert die Anzahl der CUs wenn die Leistung passt? Solange das Ding ca. Faktor 2 von Navi 10 bietet bin ich vollkommen zufrieden. Sowas nenne ich ein lohnenswertes Upgrade. Sofern natürlich andere Parameter wie bsw. Preis, Verbrauch etc. stimmen.

[MK2]Mythos
2020-07-14, 19:34:59
Klingt ja fast zu gut um wahr zu sein und steht im krassen Gegensatz zu den bisherigen Gerüchten. Ich trau dem Braten nicht. :upara:

Der_Korken
2020-07-14, 19:45:20
Man darf bei 430mm² nicht vergessen, dass die Transistordichte auch nochmal ordentlich steigen kann. Renoir und GA100 haben 50% mehr Packdichte als N10! Das heißt nicht, dass N2X auch 50% mehr hat, aber 20% wären jetzt nicht undenkbar.

Und was die Anzahl der CUs angeht: Wenn man mit weniger auskommt, wird AMD das auch versuchen. Der "High-CU"-Ansatz hat letztlich nie gut funktioniert, weil das Skalierungen auf viele CUs wohl schwieriger ist als gedacht. Dann lieber Takt und IPC pushen, sofern möglich.

dargo
2020-07-14, 19:51:47
Den Takt kannst du aber auch nur "pushen" wenn du den Stromverbrauch bei hohen Frequenzen im Griff hast. Es ist immer ein Kompromiss.

JVC
2020-07-14, 19:56:12
PS5 2,23Ghz...

Ist m.M.n. ein kastrierter N21...
Topp Dog sollte mindestens 14Gb haben.

M.f.G. JVC

Fragman
2020-07-14, 19:58:49
Die Specs klingen zumindest realistischer inkl dem Speicherinterface.
Preislich könnte man sich dann auf dem aktuellen 2080 Niveau einpendeln, wo man Ampere ja auch vermuten kann. Könnte ein Kopf and Kopf Rennen werden beim klassischen Rasterizer.

Berniyh
2020-07-14, 20:25:53
Mythos;12364665']Klingt ja fast zu gut um wahr zu sein und steht im krassen Gegensatz zu den bisherigen Gerüchten. Ich trau dem Braten nicht. :upara:
Eben, zuletzt gab es so viele widersprüchliche "Informationen" und das sogar wenn man die Posts von horn_12 mal außen vor lässt. ;)

Ich glaub momentan hilft einfach nichts außer abwarten und Tee trinken.

tEd
2020-07-14, 20:36:50
Neuer chip(name) in Linux Treiber aufgetaucht:

static int amdgpu_device_ip_early_init(struct amdgpu_device *adev)
case CHIP_NAVI14:
case CHIP_NAVI12:
case CHIP_SIENNA_CICHLID:
case CHIP_NAVY_FLOUNDER:

The gfx version of navy_flounder is 10.3, identical to
sienna_cichlid, follow the way of sienna_cichlid.

rentex
2020-07-14, 20:52:20
Eben, zuletzt gab es so viele widersprüchliche "Informationen" und das sogar wenn man die Posts von horn_12 mal außen vor lässt. ;)

Ich glaub momentan hilft einfach nichts außer abwarten und Tee trinken.

Bei AMD definitiv.

Akkarin
2020-07-14, 20:55:37
Wenn man naiverweise die 5600XT holt, ihre Leistung verdoppelt und um Taktsteigerungen abzubilden mit 2000/1350 multipliziert kommt man auch einen 3DC-Leistungsindex von 2470. Das ist eine Steigerung gegenüber der 2080 ti von über 75% (!). Skaliert man die Leistungsaufnahme genauso naiv und rechnet eine 50% höher perf/watt ein kommt man auf 260W verbrauch.

Aus verschiedenen Gründen funktioniert diese Rechnung natürlich nicht. Aber ich denke sie Zeigt ganz gut auf warum man nicht Jammern sollte dass mehr CUs verbaut werden müssen. Skalierung mit den CUs, Bandbreite und Leistungsverbrauch bei hohen Taktraten sind wohl wichtiger. Und wenn AMD bei 72 CUs und einem 384 bit Interface einen sweetspot gefunden hat dann ist das vermutlich vollkommen ausreichend, selbst wenn nVidia nachher 10% schneller ist.

Wichtiger ist wohl eine gute perf/(mm^2*waferkosten) zu finden um auch Preislich druck machen zu können. Ein Problem von AMD war bisher (~seit Maxwell) ja auch dass nVidia jegliche Preisreduktion hätte locker kontern können weil ihre Chips billiger waren als die Vergleichsprodukte von AMD.

Screemer
2020-07-14, 22:16:49
Neuer chip(name) in Linux Treiber aufgetaucht:
evtl. der erste rdna2 chip für apple.

Cyberfries
2020-07-14, 22:17:29
427 mm² also, das ist eine sinnvolle Auflösung der Chipgrößenfrage.
Die oft spekulierten 505mm² waren einfach zu groß bemessen.
Ich hatte zuletzt eher auf 350mm² getippt, aber das war wohl etwas zu knapp.

72 CU's klingt eher nach der abgespeckten Variante, da sollte noch was kommen.
GDDR6 passt zu einer Chipgröße über 400mm², das Interface braucht Platz.

So langsam wird das Bild doch klarer.

Daredevil
2020-07-14, 22:20:15
Okay, LG Besitzer sind nicht mehr gebunden. ^^
Firmware-Update: OLED-TVs von LG erhalten FreeSync

Also steht nicht nur unbedingt Ampere auf der Kaufliste. :D

Berniyh
2020-07-14, 22:33:01
evtl. der erste rdna2 chip für apple.
Möglich ja, könnte aber auch ein zweiter Desktop-Chip sein. Vom Zeitpunkt her könnte das ganz grob passen. Die ersten Patches zu Sienna Cichlid gab es vor ca. 2 Monaten, wenn ich mich recht entsinne.
Wenn Big Navi im Oktober raus kommt, dann würde Navi22 oder Navi23 in etwa zum Jahreswechsel kommen, was grob passen würde.
427 mm² also, das ist eine sinnvolle Auflösung der Chipgrößenfrage.
Die oft spekulierten 505mm² waren einfach zu groß bemessen.
Ich hatte zuletzt eher auf 350mm² getippt, aber das war wohl etwas zu knapp.
Abwarten, die Gerüchte zuletzt waren einfach zu widersprüchlich als dass man jetzt irgendwas für bare Münze nehmen sollte, insbesondere wenn es angeblich von Nvidia Mitarbeitern stammt. ;)

Dass es einen Chip mit 505 mm² gibt ist zudem eigentlich unbestritten. Unklar war bzw. ist halt, ob das Big Navi oder Arcturus ist.

Berniyh
2020-07-14, 22:46:53
Zu Navy Flounder:
commit id 43e2ec860d7b0acc1171e8e7dc4364405486a7f2

Sienna_cichlid has four sdma instances, but other chips don't.
So we need expand to add multiple trap event irq id in sdma
v5.2.
Klingt irgendwie danach, dass Navy Flounder kleiner ist als Sienna Cichlid, was jetzt keine Überraschung wäre.
Genauer gesagt hat Navy Flounder wohl 2 SDMA Controller, Sienne Cichlid deren 4:
commit id 333bfd4387fb5713dc51a8bb9df35bafa87ef403

Navy_Flounder has the same sdma IP version with
sienna_cichlid, and it has 2 sdma controllers.

Sienna Cichlid ist damit übrigens der erste Chip von AMD mit 4 SDMA controllern.
Alle davor haben 1 (manche APUs) oder 2 (Rest).
Arcturus hat zusätzlich noch 6 "XGMI SDMA" engines, was auch immer das bedeueten soll.

Außerdem hat Sienna Cichlid ja zwei VCN Einheiten, von denen laut aktuellem Code eine für Encoding und eine für Decoding verwendet wird, wenn ich mich recht entsinne.
Navy Flounder hat aber nur eine.

Ansonsten ist das aktuell quasi Copy&Paste (d.h. einfach den Chip Namen überall einfügen, damit der entsprechende Sienna Cichlid Code ausgeführt wird).
Die Patches deuten aber an, dass es zukünftig Patch Serien geben wird die den Code zwischen den Chips aufzweigen, aber prinzipiell wird Navy Flounder wohl mit dem Sienna Cichlid Code weitgehend lauffähig sein.

SKYNET
2020-07-14, 23:16:20
Möglich ja, könnte aber auch ein zweiter Desktop-Chip sein. Vom Zeitpunkt her könnte das ganz grob passen. Die ersten Patches zu Sienna Cichlid gab es vor ca. 2 Monaten, wenn ich mich recht entsinne.
Wenn Big Navi im Oktober raus kommt, dann würde Navi22 oder Navi23 in etwa zum Jahreswechsel kommen, was grob passen würde.

Abwarten, die Gerüchte zuletzt waren einfach zu widersprüchlich als dass man jetzt irgendwas für bare Münze nehmen sollte, insbesondere wenn es angeblich von Nvidia Mitarbeitern stammt. ;)

Dass es einen Chip mit 505 mm² gibt ist zudem eigentlich unbestritten. Unklar war bzw. ist halt, ob das Big Navi oder Arcturus ist.


gehe davon aus, AMD hat noch nen 96er in der hinterhand... der kommt wenn NV das ultimative dickschiff aka TITAN rausgehauen hat, um diese komplett zu deklassieren :D

Screemer
2020-07-15, 00:14:46
Träume sterben zuletzt.

Locuza
2020-07-15, 04:07:20
[...]
Sienna Cichlid ist damit übrigens der erste Chip von AMD mit 4 SDMA controllern.
Alle davor haben 1 (manche APUs) oder 2 (Rest).
Arcturus hat zusätzlich noch 6 "XGMI SDMA" engines, was auch immer das bedeueten soll.

Außerdem hat Sienna Cichlid ja zwei VCN Einheiten, von denen laut aktuellem Code eine für Encoding und eine für Decoding verwendet wird, wenn ich mich recht entsinne.
Navy Flounder hat aber nur eine.
[...]
Ich nehme an Arcturus hat stolze 6 xGMI-Links und die xGMI SDMA-Engines kümmern sich pro Link bezüglicher direkter Datentransfers.

Bei SC war Instanz 0 nur für das Decoding zuständig, Instanz 1 nur für Encoding.
Navy Flounder wird dann einfach wie die bisherigen GPUs eine Instanz für Beides verwenden.
Bei SC ist es, wie im Treiber auch angemerkt, möglicherweise nur vorübergehend so gestaltet.

Berniyh
2020-07-15, 07:03:21
Bei SC war Instanz 0 nur für das Decoding zuständig, Instanz 1 nur für Encoding.
Navy Flounder wird dann einfach wie die bisherigen GPUs eine Instanz für Beides verwenden.
Bei SC ist es, wie im Treiber auch angemerkt, möglicherweise nur vorübergehend so gestaltet.
Genau, ich gehe auch davon aus, dass man das bei Sienna Cichlid noch ändern wird.
Evtl. fehlt noch (etwas komplexerer?) Code für das Balancing/Scheduling zwischen den Einheiten?

Tun muss sich da auf jeden Fall, denn ich hab das auch so wie du verstanden und da der Code für Navy Flounder bislang ja wirklich fast nur Copy&Paste ist würde der demnach derzeit kein Encoding untersützen, da Instanz 0 ja nur für Decoding verwendet wird und Instanz 1 nicht initialisiert wird bzw. auch gar nicht existiert.

Akkarin
2020-07-15, 12:20:17
Ich hab mal ne Tabelle gemacht wie viel gflops pro bandbreite AMD typerscherweise so verbaut hat:

-|gflop/GBps|perf/GBps
7970 GHz|14,22|1,39
290X|17,6|1,66
Fury X|16,8|1,33
580|24,12|2,30
Vega 64|26,18|1,92
5500 XT|23,20|2,90
5600 XT|21,40|2,65
5700 XT|20,92|2,43

Wenn man davon ausgeht, dass nicht über 25 gflops/GBps verbaut werden kann man ja Ausrechnen wie viele CUs und Takt man bei welchem Interface braucht.

Locuza
2020-07-15, 14:03:05
[...]
Tun muss sich da auf jeden Fall, denn ich hab das auch so wie du verstanden und da der Code für Navy Flounder bislang ja wirklich fast nur Copy&Paste ist würde der demnach derzeit kein Encoding untersützen, da Instanz 0 ja nur für Decoding verwendet wird und Instanz 1 nicht initialisiert wird bzw. auch gar nicht existiert.
Da hast du sehr wahrscheinlich Recht, bei Sienna Cichlid gibt es die Aussage, wenn Instanz ungleich 0 dann kein Scheduling für Decoding, wenn Instanz ungleich 1 kein Scheduling for Encoding.
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-navy-flounder&id=17824821fa78b1e2455177d9b782fb6a064698d0

Es gab soweit ich sehe mit den "Navy Flounders" Patches kein Update für den VCN3.0 Code, entsprechend dürfte Encoding nicht funktionieren.

----

Zwei Feature-"Bestätigungen" kann man in Bezug auf Navi21/Sienna Cichlid finden.
1.) Wie Navi14, 12 und die Xbox Series X unterstützt Navi21 dot instructions für 8xINT4 und 4xINT8:
case GK_GFX1030:
Features["ci-insts"] = true;
Features["dot1-insts"] = true;
Features["dot2-insts"] = true;
Features["dot5-insts"] = true;
Features["dot6-insts"] = true;
Features["dl-insts"] = true;

https://github.com/llvm/llvm-project/commit/9ee272f13d88f090817235ef4f91e56bb2a153d6

2.) Der xGMI-Support war bei Navi21 nicht eindeutig, mittlerweile gibt es aber ein Patch der den Support direkt nennt:
drm/amdgpu: add XGMI support for sienna cichlid
support for setting up XGMI FB address regions
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-navy-flounder&id=57bde5ec6ffbeb984981ab1a38d85b07df651bd2

Mit
+ case CHIP_SIENNA_CICHLID:
+ max_num_physical_nodes = 4;
+ max_physical_node_id = 3;


führt Navi21 die gleichen Einträge wie Vega20, Arcturus unterstützt mehr:
switch (adev->asic_type) {
case CHIP_VEGA20:
max_num_physical_nodes = 4;
max_physical_node_id = 3;
break;
case CHIP_ARCTURUS:
max_num_physical_nodes = 8;
max_physical_node_id = 7;

https://github.com/torvalds/linux/blob/master/drivers/gpu/drm/amd/amdgpu/gfxhub_v1_1.c

Berniyh
2020-07-15, 16:38:58
Es gab soweit ich sehe mit den "Navy Flounders" Patches kein Update für den VCN3.0 Code, entsprechend dürfte Encoding nicht funktionieren.
Genau, aber es steht ja auch an vielen Stellen drin, dass die 1:1 Übernahme von Code provisorisch ist, so auch bei VCN.
Ich könnte mir vorstellen, dass man mit der quick'n'dirty Methode evtl. versucht noch in 5.9 reinzukommen (Release dürfte da in ca. 3 Monaten sein, also Oktober/November), da es ja eigentlich nur minimale Änderungen sind. Somit wäre auch mit 5.9 zumindest Basis-Support für Navy Flounders schon verfügbar.
Alles weiter dürfte frühestens für 5.10 (Release vermutlich gegen Ende 2020) ein Thema sein, da drm glaube ich grob einen Kernel-Zyklus Vorlaufzeit hat.

Piefkee
2020-07-15, 22:39:59
Navi Flounder ist Navi22... entgegen erster Gerüchte um Navi23

Das würde bedeuten das der Navi22 Chip nicht Apple exklusive ist. Heißt es gibt bei Navi2x 3 Chips...
Navi 21
Navi22
Navi23

Nightspider
2020-07-15, 22:47:28
AMD meinte ja RDNA2 soll 50% energieeffizienter sein.

Damit einher gehen könnte ja das man ein paar Möglichkeiten gefunden hat weniger Daten über größere Entfernungen (VRAM) zu schubsen, durch deutlich besseren Cache/Kompression und man dann halt auch etwas wenige Bandbreite pro Rechenleistung benötigt.

Muss natürlich nichts miteinander zutun haben aber korrelliert bestimmt oft genug in irgendeiner Form.

[MK2]Mythos
2020-07-15, 22:54:47
War das nicht eh ein Punkt bei dem AMD NV seit Maxwell deutlich unterlegen war?

N0Thing
2020-07-15, 23:08:47
Ja, Nvidia hat in letzten Generationen den on-chip-Datentransfer optimiert und auch dadurch an der Perf/Watt-Schraube drehen können. Da hat AMD bis jetzt noch deutlichen Nachholbedarf, es muss das Ziel sein, auch beim gleichen Herstellungsprozess auf ähnliche Verbrauchswerte zu kommen.

Hauwech
2020-07-15, 23:13:14
AMD meinte ja RDNA2 soll 50% energieeffizienter sein.

Damit einher gehen könnte ja das man ein paar Möglichkeiten gefunden hat weniger Daten über größere Entfernungen (VRAM) zu schubsen, durch deutlich besseren Cache/Kompression und man dann halt auch etwas wenige Bandbreite pro Rechenleistung benötigt.

Muss natürlich nichts miteinander zutun haben aber korrelliert bestimmt oft genug in irgendeiner Form.

Ist die Frage was überhaupt alles in den +50% Perf/W drinsteckt bzw mitgezählt wird und von wo aus genau sie "messen". Für sich alleine sagen die +50% nix aus und mit Prozentzahlen kann man ja leider viel "schön" rechnen und toll aussehen lassen.

Berniyh
2020-07-15, 23:26:33
Navi Flounder ist Navi22... entgegen erster Gerüchte um Navi23

Das würde bedeuten das der Navi22 Chip nicht Apple exklusive ist. Heißt es gibt bei Navi2x 3 Chips...
Navi 21
Navi22
Navi23
Quelle?

Leonidas
2020-07-16, 04:33:59
Wieso muß Navi 22 deswegen nicht Apple-exklusiv sein? Als echte Frage gedacht - die Logik daher würde mich interessieren.

genervt
2020-07-16, 06:30:56
Wieso muß Navi 22 deswegen nicht Apple-exklusiv sein? Als echte Frage gedacht - die Logik daher würde mich interessieren.

Vermutlich weil man keine Treiber außerhalb Apple macOS dafür schreiben würde, wenn es Apple exklusiv ist. Und Apple schreibt die Treiber selbst.

Berniyh
2020-07-16, 06:52:45
Vermutlich weil man keine Treiber außerhalb Apple macOS dafür schreiben würde, wenn es Apple exklusiv ist. Und Apple schreibt die Treiber selbst.
Navi12 ist auch im Linux Kernel integriert, das Argument ist also nichtig. Oh und der letzte Teil dürfte auch falsch sein, der Treiber dürfte ziemlich sicher von AMD kommen.

HOT
2020-07-16, 08:02:14
Nach Navi12 wird sich das mit Apples Exklusivchips eh erledigt haben, die haben sicher nur noch eigene Produkte in der Pipeline.
Das sind 3 Chips für ein ganzes Lineup, wie bei Tahiti damals. Nachzüglich noch N31 dazu.

Piefkee
2020-07-16, 08:24:41
Wieso muß Navi 22 deswegen nicht Apple-exklusiv sein? Als echte Frage gedacht - die Logik daher würde mich interessieren.

Treiber im Linux. Deshalb

Berniyh
2020-07-16, 08:27:47
Treiber im Linux. Deshalb
Und wieso ist Navy Flounders = Navi22 sicher?

Und abgesehen davon: Navi12 ist auch Apple-exklusiv und wird vom Linux Kernel unterstützt …:rolleyes:

HOT
2020-07-16, 08:30:56
Was soll es denn sonst sein?

Ich würd mal folgendes Vermuten: Es gibt ein kleines und ein großes Frontend und jeder Command-Processor packt 64CUs. Dann würde das Lineup rein rechnerisch schon in etwa so aussehen:

N23 -> 40 CUs @2x0mm² mit 256Bit (6600/6700)
N22 -> 64 CUs @35xmm² mit 384Bit (6800)
N21 -> 80 CUs @427mm² mit 384Bit (schnellerer RAM) (6900)
(N31 -> 128 CUs @? mm² in N5+ mit HBM) (Fury II oder sowas)

Darunter bleibt ganz einfach N14 und Polaris31 aktuell, RDNA2-Lineup komplett.
Das kann man dann in 22 in N6 refreshen und dann in N3 RDNA3 starten Ende 23.

Leonidas
2020-07-16, 08:45:45
Nach Navi12 wird sich das mit Apples Exklusivchips eh erledigt haben, die haben sicher nur noch eigene Produkte in der Pipeline.


Aber doch noch lange nicht für 2020, oder? Davon abgesehen ist immer noch nicht bombensicher, ob Apples GPU wirklich auf die Performance-Klasse von gehaltvollen Desktop-Lösungen geht.

Berniyh
2020-07-16, 08:45:54
Was soll es denn sonst sein?
Navi23?
(N31 -> 128 CUs @? mm² in N5+ mit HBM) (Fury II oder sowas)
Das dürfte in etwa so wahrscheinlich sein wie ein Flug zum Mars mit einer umgebauten Waschmaschine innerhalb der nächsten 2 Jahre …

Cyberfries
2020-07-16, 09:45:34
N23 -> 40 CUs @2x0mm² mit 256Bit (6600/6700)
N22 -> 64 CUs @35xmm² mit 384Bit (6800)
N21 -> 80 CUs @427mm² mit 384Bit (schnellerer RAM) (6900)
(N31 -> 128 CUs @? mm² in N5+ mit HBM) (Fury II oder sowas)

Darunter bleibt ganz einfach N14 und Polaris31 aktuell, RDNA2-Lineup komplett.

Das liegt alles viel zu eng beisammen.
Zwischen 64 und 80 CUs liegen gerade mal 25%.
Wenn N21 bei 80 CUs liegt, also 2x N10, dann landet der nächstkleinere Chip bei 48 CUs (2x N14), maximal bei 56 CUs.
Mit Salvagelösungen bei 72 und 44 CUs bleibt noch Platz für einen RX5700-Refresh als 6600.
Und das Fury als Name zurückkehrt, da liegen die Chancen für Rage höher.

davidzo
2020-07-16, 10:08:48
Das liegt alles viel zu eng beisammen.
Zwischen 64 und 80 CUs liegen gerade mal 25%.
Wenn N21 bei 80 CUs liegt, also 2x N10, dann landet der nächstkleinere Chip bei 48 CUs (2x N14), maximal bei 56 CUs.
Mit Salvagelösungen bei 72 und 44 CUs bleibt noch Platz für einen RX5700-Refresh als 6600.
Und das Fury als Name zurückkehrt, da liegen die Chancen für Rage höher.

Stimme zu, 64 auf 80cu ist eher ein Abstand den man mit salvagelösungen oder über takt und speicher lösen kann.
Oberhalb von Navi10, was aktuell noch die Performance-Klasse ist, ist nur Platz für maximal zwei Chips, die dann das neue Highend und die neue Performance-Klasse bilden.

Allerdings sehe ich die große Lücke in AMDs Portfolio nicht nur im Highend, sondern auch woanders. Mit N10 und N14 ist Midrange der einzige Bereich der einigermaßen aktuell ist, dadrunter gibts aber Polaris 12 und sogar noch GCN 1 Chips. Die werden in Lowcost labtops, NUCs mit Atoms oder alten core i3s gekoppelt etc. noch zu großen stückzahlen verkauft.

Die Radeon 610 zum Beispiel, gelauncht in 2019 basiert auf GCN1.0 (Oland / sun) in 28nm. Ich meine nicht dass man diese Leistungsklasse anpeilen wird, aber das Äquivalent dazu für 2020 muss auch irgendwie besetzt werden und Polaris 12 säuft zuviel.

Die zweite große Lücke in AMDs Portfolio neben dem Highend ist imo unterhalb von Navi14.

Dass man dabei ist RDNA auch für kleine Chips aufzulegen ist nichts neues, schließlich wird Van Gogh mit Navi GPU die Nachfolge von Dali antreten der bisher mit einer Vega3 ausgestattet ist.
Von dieser Navi Minimalvariante noch eine diskrete Auskopplung zu machen würde nur zu den begrenzten parallelen Entwicklungsressourcen von AMDs Grafikteam aktuell passen.

Berniyh
2020-07-16, 10:11:51
Navi14 dürfte der zukünftige Lowcost Chip sein, vermutlich dann, wenn man einen N6 Refresh auflegt?
Und Polaris wird wohl solange weiterlaufen bis man das Teil einfach gar nicht mehr verkaufen kann. Dürfte noch etwas dauern. ;)

davidzo
2020-07-16, 10:35:33
Navi14 dürfte der zukünftige Lowcost Chip sein, vermutlich dann, wenn man einen N6 Refresh auflegt?
Und Polaris wird wohl solange weiterlaufen bis man das Teil einfach gar nicht mehr verkaufen kann. Dürfte noch etwas dauern. ;)

Dann schon eher Polaris 12. Navi14 ist mit 158mm2 in 7nm einfach zu teuer für einen wirklichen lowcost chip. Man braucht etwas unter 100mm2, so wie Oland (90mm2) oder zur not auch Polaris 12 (101mm2).

Aber wie gesagt, Van Gogh bekommt auch eine RDNA-Auskopplung, zudem war da von einer integrierten navi2x die Rede. Würde mich nicht wundern wenn deshalb auch ein Navi2x unterhalb von Navi14 als diskreter chip kommt.

Cyberfries
2020-07-16, 10:52:40
Allerdings sehe ich die große Lücke in AMDs Portfolio nicht nur im Highend, sondern auch woanders. Mit N10 und N14 ist Midrange der einzige Bereich der einigermaßen aktuell ist, dadrunter gibts aber Polaris 12 und sogar noch GCN 1 Chips. Die werden in Lowcost labtops, NUCs mit Atoms oder alten core i3s gekoppelt etc. noch zu großen stückzahlen verkauft.

Die Radeon 610 zum Beispiel, gelauncht in 2019 basiert auf GCN1.0 (Oland / sun) in 28nm.

Ganz ehrlich, ein Notebook in dem eine Radeon 610/620/625/630 verbaut ist, sollte gemieden werden.
Ein Produkt, in dem eine GPU verbaut die schwächer als die IGPU ist, ist ein Blender und wahrscheinlich noch an anderen Stellen problembehaftet.
Glücklicherweise konnte ich nach kurzer Suche auch nur zwei Modelle finden.

Radeon 640/560 - stimmt, da gibt es keinen Ersatz.
Eine wirkliche Lücke gibt es jedoch für einen solchen Chip nicht, der Chip müsste zwischen den APUs mit 8CU und der 5300M mit 20CUs liegen.
Das Einsparpotential an Chipfläche wird da zu gering, das würde immer noch klar über 100mm² liegen.
Kombiniert mit den hohen Fertigungskosten sehe ich da keinen Freiraum.

basix
2020-07-16, 10:56:51
Das dürfte in etwa so wahrscheinlich sein wie ein Flug zum Mars mit einer umgebauten Waschmaschine innerhalb der nächsten 2 Jahre …

Die steht bei McGyver seit den 80ern in der Garage ;)

Im ernst: Wieso soll ein 5nm Halo Chip so unwahrscheinlich sein?

Berniyh
2020-07-16, 11:19:40
Dann schon eher Polaris 12. Navi14 ist mit 158mm2 in 7nm einfach zu teuer für einen wirklichen lowcost chip. Man braucht etwas unter 100mm2, so wie Oland (90mm2) oder zur not auch Polaris 12 (101mm2).
Deshalb ja Refresh in N6, das wird der zukünftige Mainstream-Prozess werden.
Aber wie gesagt, Van Gogh bekommt auch eine RDNA-Auskopplung, zudem war da von einer integrierten navi2x die Rede. Würde mich nicht wundern wenn deshalb auch ein Navi2x unterhalb von Navi14 als diskreter chip kommt.
Van Gogh ist RDNA2, aber nicht Navi2x.

Im ernst: Wieso soll ein 5nm Halo Chip so unwahrscheinlich sein?
Ein Halo Chip an sich ist nicht unbedingt, aber 128 CU schon. Warum? Kostet viel, bringt wenig.
Nvidia kann sich solchen Unsinn erlauben, da sie ein sehr hohes R&D Budget und eine sehr hohe Marge haben. AMD hat das nicht.
Zwar ist es beim Budget sicher nicht mehr so eng wie früher, aber müssen bestimmt trotzdem noch ihre Ressourcen sinnvoll planen und ein wahnsinnig überdimensionierter Chip ist dafür einfach viel zu großes Risiko.
Warum großes Risiko? ganz einfach: wenn du damit nicht die Performance-Krone absahnst, dann hast du irrsinnig viele Ressourcen verschwendet, praktisch ohne Gewinn.

basix
2020-07-16, 11:35:28
Ein Halo Chip an sich ist nicht unbedingt, aber 128 CU schon. Warum? Kostet viel, bringt wenig.
Nvidia kann sich solchen Unsinn erlauben, da sie ein sehr hohes R&D Budget und eine sehr hohe Marge haben. AMD hat das nicht.
Zwar ist es beim Budget sicher nicht mehr so eng wie früher, aber müssen bestimmt trotzdem noch ihre Ressourcen sinnvoll planen und ein wahnsinnig überdimensionierter Chip ist dafür einfach viel zu großes Risiko.
Warum großes Risiko? ganz einfach: wenn du damit nicht die Performance-Krone absahnst, dann hast du irrsinnig viele Ressourcen verschwendet, praktisch ohne Gewinn.

Ich stimme dir da sicher zu. Ich sehe aber folgende Pros:

128 CU wäre mit sehr hoher Wahrscheinlichkeit schneller als alles, was Nvidia bietet (sagen wir mal im Sommer 2021). Wenn Nvidia nicht auch mit einem 5nm Chip um die Ecke kommt, wäre AMD vermutlich deutlich vorne. Fragezeichen sind Raytracing und DLSS.
Mindshare Gewinn als "Marktührer"
128 CU mit HBM wäre in 5nm irgendwo um 400-500 mm2, so riesig ist das nicht
5nm Pipecleaner
Profiprodukte für CAD, Rendering, Apple usw. wo CDNA nicht das richtige ist.


Wenn es dummerweise nicht für die Performance-Krone langt, sind die ersten zwei Punkte abgeschwächt, aber nicht vollumfänglich ausradiert. Immerhin hätte man trotzdem ein vermutlich konkurrenzfähiges Produkt, welches man sonst nicht hätte.

Cyberfries
2020-07-16, 11:45:49
So viele CUs muss man auch füttern und verwalten.
Wenn sich die Steigerung der letzten Jahre fortsetzt sind von nvidia 20-30% Zuwachs zu erwarten.
Amd wird da mitziehen, aber nicht darüber hinaus gehen. Ca. 100CU also.

Complicated
2020-07-16, 12:39:11
Einen 5nm Pipecleaner würde man eher kleiner gestalten, siehe 40nm z.B. HD 4770.
Es ist auch ziemlich ausgeschlossen, dass AMD für so etwas Waferfläche verschwenden würde in dieser Marktlage, wo jeder mm² in Umsatz verwandelt wird und die Nachfrage das Angebot übersteigt.

HOT
2020-07-16, 13:05:22
N31 hätte kaum mehr als 350mm² in N5, siehe V20. Das war übrigens auch der Pipecleaner.
Und Leo: Für Apple ist jetzt grad mal N12 verfügbar, alles weitere kommt in 21 und hierfür sieht Apple ja bereits eigene Produkte vor. Man sollte sich an den Gedanken gewöhnen, dass das der letzte Apple-Exklusive Chip sein wird.

Locuza
2020-07-16, 13:48:30
Und wieso ist Navy Flounders = Navi22 sicher?
[...]
Na, wegen dir. :D

Du hast vor mehreren Monaten bei PAL Einträge zu Navi22 und Navi23 gefunden:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12124009#post12124009

Bei Navi22 und Navi23 stand Folgendes:
#if ADDR_NAVI22_BUILD
#define AMDGPU_NAVI22_RANGE 0x32, 0x3C

#if ADDR_NAVI23_BUILD
#define AMDGPU_NAVI23_RANGE 0x3C, 0x46



Die "Navy Flounder" Einträge haben folgende Zeilen bei den VCN/JPEG Power/Clock Gating commits:
case CHIP_NAVY_FLOUNDER:
adev->cg_flags = AMD_CG_SUPPORT_VCN_MGCG;
+ adev->pg_flags = AMD_PG_SUPPORT_VCN |
+ AMD_PG_SUPPORT_VCN_DPG;
adev->external_rev_id = adev->rev_id + 0x32;
break;;
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-navy-flounder&id=c453446d186a5feb76e924bd6c2ebba5d105c4e7
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-navy-flounder&id=99d0c3eae8036d0e8a7c6dc26f746d55000ffe9f

Berniyh
2020-07-16, 14:46:55
@Locuza: danke!
Hatte ich vergessen, dass wir ja bereits die ID Zuordnungen hatten.
Damit dürfte das in der Tat ziemlich sicher sein, wenngleich die Einträge aus pal ja inzwischen wieder rausgeflogen sind.

Bin mal gespannt wann wir Support für Navi23 sehen werden. Wird aber vermutlich auch erst mal Copy&Paste sein.
Einen 5nm Pipecleaner würde man eher kleiner gestalten, siehe 40nm z.B. HD 4770.
Es ist auch ziemlich ausgeschlossen, dass AMD für so etwas Waferfläche verschwenden würde in dieser Marktlage, wo jeder mm² in Umsatz verwandelt wird und die Nachfrage das Angebot übersteigt.
Nein, Pipecleaner dürfte wie zuletzt eigentlich immer ein Compute Chip sein, wie z.B. Vega20 oder zuletzt wohl Arcturus.
Für 5nm dürfte das ziemlich sicher CDNA2 sein und damit sicher kein "kleiner" Chip.

Liegt vermutlich auch daran, dass bei diesen Chips die Marge sehr hoch ist, damit fallen die hohen Entwicklungskosten an der Stelle nicht so stark ins Gewicht.
Zudem sind die Stückzahlen wohl eher gering, was die Kosten auch einigermaßen im Rahmen hält.

davidzo
2020-07-16, 19:16:53
Ganz ehrlich, ein Notebook in dem eine Radeon 610/620/625/630 verbaut ist, sollte gemieden werden.
Ein Produkt, in dem eine GPU verbaut die schwächer als die IGPU ist, ist ein Blender und wahrscheinlich noch an anderen Stellen problembehaftet.


Na klar sollten die gemieden werden, verkaufen tut sich das trotzdem. Selbst wenn das nur gleichschnell oder minimal schneller als eine UHD 620 IGP ist liest sich das für 70% der Kunden im Mediamarkt besser als eine aktuelle Intel IGP.



Radeon 640/560 - stimmt, da gibt es keinen Ersatz.
Eine wirkliche Lücke gibt es jedoch für einen solchen Chip nicht, der Chip müsste zwischen den APUs mit 8CU und der 5300M mit 20CUs liegen.
Das Einsparpotential an Chipfläche wird da zu gering, das würde immer noch klar über 100mm² liegen.
Kombiniert mit den hohen Fertigungskosten sehe ich da keinen Freiraum.

Du vergisst dass immer noch 80% der Geräte mit einer CPU des blauen Herstellers über die Theke gehen. Und 90% davon pro-Icelake. Bei einem Atom bzw. gegenüber einer UHD 610 macht das sogar Leistungstechnisch Sinn da eine 8CU diskreten Chip dazu zu packen, was im Business USFF Bereich durchaus häufig vorkommt. Meistens geht es um die Featureliste und Treiberinterstützung, die Leistung guckt man sich nicht genauer an.


Deshalb ja Refresh in N6, das wird der zukünftige Mainstream-Prozess werden.


Welche Leaks gibts denn zu einem Navi Refresh in N6? Mir ist da nichts bekannt.


Van Gogh ist RDNA2, aber nicht Navi2x.


Nöö:
Dort steht als Nachfolger Van Gogh auf dem Plan, für den bereits zuvor Hinweise auf den Einsatz einer Navi-GPU aufgetaucht waren.
In dem Igor's Lab vorliegenden Auszug eines Dokuments ist jetzt vom Codenamen Navi 21 die Rede,
was die Vermutung um den Einsatz der RDNA-Architektur bei Van Gogh bekräftigt.
Navi 21 deutet klar auf RDNA2 hin, wobei hier vermutlich nur Treiberähnlichkeiten zu Navi21 gemeint sind, es werden wohl eher 8CU als 80 werden ;D

Berniyh
2020-07-16, 19:48:51
Welche Leaks gibts denn zu einem Navi Refresh in N6? Mir ist da nichts bekannt.
Gar keine, ist reine Spekulation meinerseits. Aber irgendwas in der Art wird wohl ziemlich sicher kommen, denn N6 ist einfach die logische Fortsetzung von N7/N7P (in dem Navi1x produziert wird).
Nöö:
Dort steht als Nachfolger Van Gogh auf dem Plan, für den bereits zuvor Hinweise auf den Einsatz einer Navi-GPU aufgetaucht waren.
In dem Igor's Lab vorliegenden Auszug eines Dokuments ist jetzt vom Codenamen Navi 21 die Rede,
was die Vermutung um den Einsatz der RDNA-Architektur bei Van Gogh bekräftigt.
Navi 21 deutet klar auf RDNA2 hin, wobei hier vermutlich nur Treiberähnlichkeiten zu Navi21 gemeint sind, es werden wohl eher 8CU als 80 werden ;D
Da hat Igor leider ins Klo gegriffen, das macht nämlich überhaupt keinen Sinn. Navi21 ist schließlich der High-End Chip. Eine direkte Verwandschaft zu Navi22 oder 23 würde viel mehr Sinn machen.

Letztendlich ist es aber einfach nur eine Frage der Nomenklatur. van Gogh wird auf der RDNA2 Architektur basieren, deren Implementierung in dedizierten Grafikkarten eben Navi2x ist. Ob man nun die Mobile/APU Implementierungen als "Navi" bezeichnet ist wieder eine andere Frage.
Die Info, dass van Gogh auf RDNA2 basiert gibt es übrigens schon seit letztem Jahr, also lange bevor Igor das gepubst hat.
Navi21 ist in jedem Fall aber Quatsch.

Edit: übrigens hat van Gogh laut Komachi die Bezeichnung gfx1033:
https://twitter.com/KOMACHI_ENSAKA/status/1279447956576325632/photo/1

Hier ist auch noch erwähnenswert, dass es demnach auch van Gogh "LITE" gibt mit gfx1040. Da ist aber genau wie bei den ganzen anderen "LITE" Versionen völlig unklar was es damit auf sich hat.

HOT
2020-07-16, 20:37:42
[...]

Nein, Pipecleaner dürfte wie zuletzt eigentlich immer ein Compute Chip sein, wie z.B. Vega20 oder zuletzt wohl Arcturus.
Für 5nm dürfte das ziemlich sicher CDNA2 sein und damit sicher kein "kleiner" Chip.

Liegt vermutlich auch daran, dass bei diesen Chips die Marge sehr hoch ist, damit fallen die hohen Entwicklungskosten an der Stelle nicht so stark ins Gewicht.
Zudem sind die Stückzahlen wohl eher gering, was die Kosten auch einigermaßen im Rahmen hält.


Pipecleaner wird ganz sicher nicht CDNA sein, da CDNA in 7nm angekündigt wurde und CNDA2 wohl kaum vor 22 antreten wird.
Zudem sind die Margen auch bei einem poteniellen 128CU-Chip hoch und die Menge gering. Der wahrscheinlichste Pipecleaner ist meines Erachten genau das, ein 5nm RDNA2-Chip mit entsprechend >300mm². Es passt zeitlich nichts anderes dahin.

Cyberfries
2020-07-16, 20:48:55
Du vergisst dass immer noch 80% der Geräte mit einer CPU des blauen Herstellers über die Theke gehen. Und 90% davon pro-Icelake. Bei einem Atom bzw. gegenüber einer UHD 610 macht das sogar Leistungstechnisch Sinn da eine 8CU diskreten Chip dazu zu packen, was im Business USFF Bereich durchaus häufig vorkommt.

Ich nehme an das sollte pre-(vor)-Icelake heißen, was ein gutes Stichwort ist.
Denn es handelt sich hierbei um Altgeräte, sowohl bei AMD als auch bei Intel machen die neuen IGPUs die alten GCN-Überbleibsel obsolet.
Wozu für einen wegbrechenden Markt eine Neuentwicklung?

Die UHD610 ist immerhin von 2017 und Atom ist noch länger tot. Das ist nichts wogegen man heute noch einen Gegner stellen muss.

Complicated
2020-07-17, 12:16:50
Nein, Pipecleaner dürfte wie zuletzt eigentlich immer ein Compute Chip sein, wie z.B. Vega20 oder zuletzt wohl Arcturus.
Für 5nm dürfte das ziemlich sicher CDNA2 sein und damit sicher kein "kleiner" Chip.Irgendwie unsinnig das Argument. Das Nein bzgl. der von mir genannten Diegrößen belegst du mit einem 7nm Vega-Shrink auf 331 mm². Also genau die Größe die ich für maximal sinnvoll halte bei einem Pipecleaner. Und das Argument mit dem Compute CDNA/RDNA spielt in diesem Zusammenhang überhaupt keine Rolle. Welche Logik verbaut ist bestimmt nicht ob der Chip als Pipecleaner taugt für einen Prozess. Klar könnte auch ein CDNA-Chip sein. Doch dagegen spricht, wie Hot ausgeführt hat, die schon bekannte Roadmap.
Der wahrscheinlichste Pipecleaner ist meines Erachten genau das, ein 5nm RDNA2-Chip mit entsprechend >300mm². Es passt zeitlich nichts anderes dahin.

Brillus
2020-07-17, 12:51:29
Irgendwie unsinnig das Argument. Das Nein bzgl. der von mir genannten Diegrößen belegst du mit einem 7nm Vega-Shrink auf 331 mm². Also genau die Größe die ich für maximal sinnvoll halte bei einem Pipecleaner. Und das Argument mit dem Compute CDNA/RDNA spielt in diesem Zusammenhang überhaupt keine Rolle. Welche Logik verbaut ist bestimmt nicht ob der Chip als Pipecleaner taugt für einen Prozess. Klar könnte auch ein CDNA-Chip sein. Doch dagegen spricht, wie Hot ausgeführt hat, die schon bekannte Roadmap.

Technisch nicht aber Betriebwirtschaftlich. Wenn das Teil schlecht läuft und sagen wir um Gewinn zu machen due Endverkaufspreis von 1K € brauchst ist blöd wenn du einen Spielechip hast der evtl. nur für 800€ geht.

Hast dann die Möglichkeit ihn mit Verlust zu verkaufen oder zu wartem bis Prozess besser läuft aber dann hast du schlechte PR weil Paperlsunch und wenn er dann mal läuft ist er schon alt.

Wenn es nun aber ein Compute-Chip ist den du für 2k+ verkaufen kannst ist vielleicht schlechter Marge als erhofft aber immernoch OK.

Berniyh
2020-07-17, 13:08:49
Irgendwie unsinnig das Argument. Das Nein bzgl. der von mir genannten Diegrößen belegst du mit einem 7nm Vega-Shrink auf 331 mm². Also genau die Größe die ich für maximal sinnvoll halte bei einem Pipecleaner. Und das Argument mit dem Compute CDNA/RDNA spielt in diesem Zusammenhang überhaupt keine Rolle. Welche Logik verbaut ist bestimmt nicht ob der Chip als Pipecleaner taugt für einen Prozess. Klar könnte auch ein CDNA-Chip sein. Doch dagegen spricht, wie Hot ausgeführt hat, die schon bekannte Roadmap.
Ich habe nicht mit Die Größen argumentiert, sondern nur damit, dass AMD zuletzt immer die Compute Chips als erstes auf neue Prozesse angewendet hat.
Das ist nun mal Fakt und ich sehe auch nicht wirklich, warum sich das in naher Zukunft ändern sollte.

Abgesehen davon: 5nm RDNA2 ist bislang auf keiner Roadmap zu finden, das ist nur mal wieder HOTs Fantasie entsprungen.
Wenn Navi2x komplett in N7P kommt, dann dürfte das auch nur ein feuchter Traum bleiben, da die 5nm Prozesse damit nicht kompatibel sind und damit der Aufwand entsprechend größer wird.
Sollte Navi2x hingegen N7+ sein, dann könnte es schon wahrscheinlicher sein, aber die letzten Infos deuteten eher auf N7P hin.
RDNA3 wird vermutlich in N5, N5+ oder irgendwas in der Art kommen, aber wohl nach CDNA2.
Ebenso wie Vega20 ca. ein 1/2 bis 3/4 Jahr vor RDNA1 kam und CDNA1 ca. ein halbes Jahr vor RDNA2.

Und das mit der Marge bei einem Ultra-Highend Chip ist auch ein Witz im Vergleich zu den Compute Chips. Klar, Nvidia kann da ordentlich was verlangen, aber auch nur deshalb, weil es keine Konkurrenz gibt.
Und selbst dann ist die Marge im Vergleich zu den Compute Produkten immer noch ein Witz.
Selbst AMD verkauft (oder verkaufte) ja Vega MI Chips für mehrere tausend Doller pro Stück.

Complicated
2020-07-17, 13:14:50
Ein Pipecleaner hat technische Gründe, keine wirtschaftlichen. Ob auf den 300mm² Compute oder Gaming Transistoren verbaut sind ändert nichts an der Chipgröße. In der Vergangenheit wurden sowohl Gaming- als auch Computevarianten genutzt. Daher ist das Argument für die Größe unsinnig - also Nein zu was?

Der Pipecleaner kommt wenn es nötig ist den neuen Prozessnode zu nutzen. Was auf der Roadmap sich dazu anbietet wird genommen. Das Kriterium ist zunächts die sinnvolle Diegröße.

Wenn ich 2.000,- € für einen Compute Chip verlangen kann der mit 520 mm² und durch die Größe bei 50% Yield landet, dann muss ich schon dagegen rechnen wie viele Chiplets für Zen2 ich aus der selben Fläche herausholen kann die eine Yield von 98% (Vor 7 Monaten war die Defektrate bei ca. 93% gemessen an voll funktionsfähigen 8-Core-Chiplets (https://www.reddit.com/r/Amd/comments/e8bfxd/amd_has_935_chiplets_with_all_8_cores_and_full/)) bei 75 mm² 8-Core Chiplets (7nm) haben. Da habe ich 12 Chiplets die zusammen genommen 3x32-Core EPYC ergeben oder 3x3970X TR, der pro Stück auch für 2.000,- € über die Ladentheke geht. Die 6.000,- € muss der 520 mm² Chip dann aber auch einbringen, wofür ein Pipecleaner schnell zu niedrig takten kann.

Die selbe Rechnung aufgestellt mit einem ca. 300m² Chip und dadurch ca. 80% Yield macht das ganze dann deutlich wirtschaftlicher für einen Pipecleaner, der auch +-10% Leistung abliefern kann ohne Gefahr zu laufen im Regal liegen zu bleiben.

@Berniyh
Du leitest mit "Nein" ein nach meinem Zitat das einen kleineren Chip für wahrscheinlicher hält. Und schreibst dann zusammenhanglos über Compute oder Gaming Logik auf dem Chip. Wo ist das ein Argument für die Größe (oder dagegen) des Chips?

Berniyh
2020-07-17, 16:32:21
Ach Leute, das ist doch viel zu viel Kleinklein. Meine wesentliche Aussage war lediglich, dass zuletzt immer ein Compute Chip die Funktion übernommen hat und, dass die Compute Chips eben derzeit den Consumer Chips bezogen auf Release ca. ein 1/2 bis 3/4 Jahr voraus sind.

Natürlich ist überhaupt nicht ausgeschlossen, dass AMD irgendwo einen Zwischenschritt mit Refresh in 5nm o.ä. auflegt, aber es gibt bislang auch absolut keine Anzeichen dafür.
Demnach kann man Stand aktuell zurecht davon ausgehen, dass ein Compute Chip, namentlich CDNA2, Pipecleaner für 5nm wird.

Complicated
2020-07-17, 17:18:30
Na sorry, wenn ich darauf eingehen wenn du mich zitierst und "Nein..." schreibst.
Wir reden über einen Pipecleaner und nicht was wohl AMD zuerst bei GPUs veröffentlicht. Also aneinander vorbei. Daher finde ich deinen Widerspruch eben nicht mit dem passenden Argument zum Thema unterlegt. Aber Schwamm drüber, wollte nur klar stellen, dass es egal ist was auf einem Pipecleaner-Chip verbaut ist. Du kannst es jetzt als Zwischenschritt mit Refresh bezeichnen, was wiederum etwas völlig anderes ist.

Und es gibt seit Monaten Anzeichen für ein frühes AMD 5nm Produkt. Ich spekulierte schon im Januar darüber hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12193502&postcount=32

HOT
2020-07-17, 18:29:25
Zuletzt immer? Nein. Bei 28nm war es ein Consumerchip mit ~350mm², bei 14nm ebenfalls einer mit 220mm² (P10) und bei 7nm eben ein Vega mit 350mm² (das ist kein Compute-Chip, sondern ein Vega mit erweiterten Comupte-Fähigkeiten). Ein RDNA2 mit 350mm² ist der wahrscheinlichste Pipecleaner, punktum. CDNA1 kommt in ein paar Monaten in 7nm, das ist definitiv, ein CDNA2 wird nicht vor 2022 erscheinen. RDNA3 ist ebenfalls nicht vor 22 zu erwarten und Prozessoren kommen ebenfalls nicht vor 22.

Das heißt nicht, dass das jetzt zwingend ist, dass so ein Ding kommt, aber wenn einer kommt, dann ist es ein Consumer-Top-End-Chip.

Cyberfries
2020-07-17, 18:40:53
Da es bei AMD eine Unterscheidung zwischen Consume und Compute erst seit der Radeon VII gibt und die VII auch bisher der einzige Compute-Chip ist,
ist jede Argumentation die auf eine Regelmäßigkeit hinauswill sinnlos.
Arcturus ist immer noch nicht sichtbar, obwohl die Spatzen seit Jahresanfang "jetzt bald" schreien.

Bei dem Tempo könnte RDNA2 sogar noch vor CDNA1 kommen und damit AMDs erster EUV-Chip werden.
In jedem Fall passt weder Navi 2x als Consumer-Chip, noch Arcturus als wahrsch. 500+mm² Riese zu den Argumentationen hier.

Piefkee
2020-07-17, 20:39:55
Zuletzt immer? Nein. Bei 28nm war es ein Consumerchip mit ~350mm², bei 14nm ebenfalls einer mit 220mm² (P10) und bei 7nm eben ein Vega mit 350mm² (das ist kein Compute-Chip, sondern ein Vega mit erweiterten Comupte-Fähigkeiten). Ein RDNA2 mit 350mm² ist der wahrscheinlichste Pipecleaner, punktum. CDNA1 kommt in ein paar Monaten in 7nm, das ist definitiv, ein CDNA2 wird nicht vor 2022 erscheinen. RDNA3 ist ebenfalls nicht vor 22 zu erwarten und Prozessoren kommen ebenfalls nicht vor 22.

Das heißt nicht, dass das jetzt zwingend ist, dass so ein Ding kommt, aber wenn einer kommt, dann ist es ein Consumer-Top-End-Chip.

Pipecleaner? War GA100 kein pipecleaner? Nur weil AMD den letzten großen Chip vor 15 Jahren gebracht hat ist deine Argumentation sinnlos. Auch deine Meilensteine kannst du dir sparen sie als Fakt hinzustellen..

Complicated
2020-07-17, 20:49:47
Nvidia und AMD verfolgen hier unterschiedliche Ansätze. Einen Pipecleaner nutzt man um keine schlechten Yields bei großen Chips zu haben. Nvidia nimmt die schlechten Yields in Kauf und optimiert vom großen Chip aus. AMD nutzt gerne kleinere Pipecleaner. Damit wird der große Chip von Nvidia nicht zum Pipecleaner. Für wen auch noch? Der größte Chip ist ja schon fertig und muss nur noch die Yield verbessern. Man kann sich wohl streiten darüber was wirtschaftlicher ist, ein zusätzliches Design oder die höheren Yield-Kosten zu beginn.

Piefkee
2020-07-17, 21:58:09
Nvidia und AMD verfolgen hier unterschiedliche Ansätze. Einen Pipecleaner nutzt man um keine schlechten Yields bei großen Chips zu haben. Nvidia nimmt die schlechten Yields in Kauf und optimiert vom großen Chip aus. AMD nutzt gerne kleinere Pipecleaner. Damit wird der große Chip von Nvidia nicht zum Pipecleaner. Für wen auch noch? Der größte Chip ist ja schon fertig und muss nur noch die Yield verbessern. Man kann sich wohl streiten darüber was wirtschaftlicher ist, ein zusätzliches Design oder die höheren Yield-Kosten zu beginn.


Bitte bringt mir doch mal andere Beispiele weil AMD das gleiche auch macht.

Polaris10 -> Polaris11
Nav10 zuerst dann Navi14
Navi21 —-> Navi23

Soll ich weiter machen ?? Nur weil AMD in der Vergangenheit keinen Big Die dich leisten konnte machen die das gleiche wir Nv

Complicated
2020-07-18, 08:01:06
P10 und N10 haben keine 500mm^2
Daher kann man kaum sagen sie machen das gleiche.

Piefkee
2020-07-18, 08:05:35
P10 und N10 haben keine 500mm^2
Daher kann man kaum sagen sie machen das gleiche.

Größere chips sind meinen Meinung gerade bei GPU die ersten beim neuen Node. Nur weil AMD in den letzten Jahren nicht größer als 400mm^2 im Programm hatte heist das nicht das nicht im jeweiligen lineup der größere Chip zuerst kommt.

Das ganze ist ja auch logisch man bringt den größeren Chip der schlechten Yield hat aber wesentlich größere Marge hat . Macht ja keinen Sinn einen kleinen Chip mit schlechten Yield und minimaler Marge zu verkaufen

Complicated
2020-07-18, 08:13:38
Es geht nicht um den größten Chip im Lineup, es geht um einen möglichen vorgezogenen 5nm Chip der bei AMD sicherlich keine 500mm^2 haben wird, sollte er tatsächlich kommen.
Ein kleiner Chip hat bessere Yields und die Rechnung hatten wir schon einige Beiträge vorher durchgekaut.

Piefkee
2020-07-18, 09:19:16
Es geht nicht um den größten Chip im Lineup, es geht um einen möglichen vorgezogenen 5nm Chip der bei AMD sicherlich keine 500mm^2 haben wird, sollte er tatsächlich kommen.
Ein kleiner Chip hat bessere Yields und die Rechnung hatten wir schon einige Beiträge vorher durchgekaut.

Naja aber ist halt bullshit
Vorgezogen wird eh nichts das funktioniert nicht so einfach wie hier viele meinen. Ein Node ist lange im Vorfeld geplant.

Complicated
2020-07-18, 09:28:06
Und diese Planungen haben anscheinend auch statt gefunden. Es gibt Hinweise dafür:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12193502#post12193502
TSMC hat vermeldet, dass AMD neben Apple und Hisilicon zu den ersten Kunden gehört bei der 5nm Fertigung. Da Zen4 aber erst für 2021 geplant ist in 5nm, ist der Abstand zwischen Q2/2020 (Apple startet im März 5nm Massenproduktion mit 2/3 der Kapazitäten die verfügbar sind) und vermutlich Q3/2021(viel früher machen Desktop Modelle keinen Sinn wenn Zen3 in Q3/2020 kommt) recht lang um schon damit in Produktion zu gehen. Hinzu kommt eben die Info mit dem kurzfristig erhöhten R&D wegen einer Gelegenheit bei TSMC und der Investition von 40 Mio.

Hier zeichnet sich, abweichend von den ursprünglichen Roadmaps, ein früherer Start der 5nm Fertigung ab. Jetzt kann man einerseits spekulierten, dass eben auf Halde produziert wird bis Q3/2021 oder dass mit den 5nm Chips schon Ende des Jahres oder Q1/2021 schon ein Produkt kommt.

Welches Produkt das sein könnte ist eben meine Spekulation. Ich denke es muss ein Chip sein der nicht größer als Mobil SoCs ist um so früh schon wirtschaftlich sein zu können. Zudem muss er um wirtschaftlich produziert zu werden einen hohen Endkundenpreis haben. Eine Highend GPU wäre später dran und entspricht nicht AMDs bisherigen Strategien. Ein Chiplet für Zen4 erfüllt alle Kriterien und würde für Entlastung bei der 7nm(+) Fertigung sorgen und mehr Zen3 im Massenmarkt verfügbar machen.

Jetzt wäre nur noch die Frage für welche Produkte diese Chiplets am sinnvollsten zum Einsatz kommen. Und hier bietet sich vom Zeitrahmen die nächste Generation des TR an oder Epyc. Vom Rhythmus her könnten dann schon ausreichend Zen4 Chiplets für TR vorhanden sein zu dem Zeitpunkt als diese mit Zen3 vorgesehen waren, um die aktuellen zu ersetzen.
Oder es werden Highend Epyc CPUs.
Oder womöglich eine Custom-Server CPU für HPC/Google/???

Die Spekulationsbasis ist die Kombination der genutzten Gelegenheit (40Mio. R&D bei TSMC) +5nm früh +Engpass bei 7nm(+) wegen hoher Nachfrage.

Edit: AMD wird Berichten zufolge wohl ab Start der 5nm Fertigung Apple als größten TSMC-Kunden ablösen mit der Übernahme der frei werdenden 7nm Kapazitäten +5nm Produktion.

Diese Info würde ebefalls für einen deutlich schnelleren Zen4 Release sprechen.
https://www.kitguru.net/components/cpu/joao-silva/tsmcs-5nm-process-node-to-be-mass-produced-in-2020-3nm-to-follow-in-2022/?PageSpeed=noscript

Kommt 3nm mit Zen5 1 Jahr früher muss Zen4 irgendwo rein und kann nicht erst Ende 2021 kommen.

Edit2:
Transcript mit TSMC CEO aus Q3/2019: https://www.tsmc.com/uploadfile/ir/quarterly/2019/3d36C/E/TSMC%203Q19%20transcript.pdf

Ausser AMD fällt mir hier kein Kandidat ein der HPC initial mit 5nm starten könnte derzeit.
Ich denke nicht dass es ein GPU Chip sein wird, der zuerst in 5nm kommt. Wenn es doch einer sein sollte ist es kein 500mm² Chip.

HOT
2020-07-18, 09:31:03
Pipecleaner? War GA100 kein pipecleaner? Nur weil AMD den letzten großen Chip vor 15 Jahren gebracht hat ist deine Argumentation sinnlos. Auch deine Meilensteine kannst du dir sparen sie als Fakt hinzustellen..
Was hat das mit GA100 zu tun? Das wird wohl erst mal NVs einziger N7-Chip sein und der nutzt auch noch die Mobilkonfiguration. Zudem steht ein Pipecleaner ja am Anfang des Prozesses und nicht am Ende.

rentex
2020-07-22, 09:13:02
https://wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/

unl34shed
2020-07-22, 09:25:03
Die 384bit und 16GB passen irgendwie nicht zusammen.

Leonidas
2020-07-22, 09:38:44
Ich sehe bisher nicht, wo 'wjm47196' das gesagt haben soll:
https://www.chiphell.com/thread-2246022-1-1.html


Update: Anderer Thread als von WCCF Tech angegeben:
https://www.chiphell.com/thread-2246127-1-1.html

.... aber dort kein sicherer Hinweis auf "Big Navi". Es kann ergo sonstwas gemeint sein.
PS: "Sonstwas" von AMD.

rentex
2020-07-22, 10:32:55
WCTech halt...

Digidi
2020-07-23, 01:14:52
Hmm mal eine Frage an die Experten. Wenn man einen Chip also z.B. Navi 10 verdoppelt in welchem maße vergrößern sich den die Interconnects? 432mm² machen sinn wenn es nicht viele Interconect geben wird. Das würde heißen eine fast 1 zu 1 Kopie von Navi 10 für Navi 21.

Wenn die Interconnects aber viel mehr werden, dann stimmt eher die 505 mm².

Was ja auch interessant ist, AMD hat laut Locusas Infos aus dem Treiber, die Grafikengine am Eingang nochmals einer Aufteilung unterzogen. Das könnte Interconnects sparen und würde Analog für ein CCX Design wie bei Ryzen sprechen anstelle eines Netzdesign wie bei Intel.

Am Ende könnt es wirklich nur ein gedoppelter Navi 10 sein mit 128 rops und 8 Shader Engines. Das könnte auch der erste Test für Multi GPU auf dem Chip sein.

Digidi
2020-07-23, 01:26:35
Hier ist ein Patent von AMD wo geplant wird in jeder CU eine Raytracing Intercetion Unit zu pflanzen:

http://www.freepatentsonline.com/10706609.pdf

Und Primitive Sahder 2.0:
http://www.freepatentsonline.com/20200193703.pdf
Hier nochmal das orginal Patent zum vergleich:
http://www.freepatentsonline.com/20180082399.pdf

Ich bin auch noch über dieses Patent aus 2018 gestopltert. Das fasst meine Idee auf das Culling über die Shader läuft:
https://patents.google.com/patent/US20180033184A1/en

Leonidas
2020-07-23, 13:00:35
Ich sehe bisher nicht, wo 'wjm47196' das gesagt haben soll:
https://www.chiphell.com/thread-2246022-1-1.html

Update: Anderer Thread als von WCCF Tech angegeben:
https://www.chiphell.com/thread-2246127-1-1.html

.... aber dort kein sicherer Hinweis auf "Big Navi". Es kann ergo sonstwas gemeint sein.
PS: "Sonstwas" von AMD.


... habe es mir nochmals genau angesehen und mehrfach übersetzt. Die Original-Quelle redet von einem AMD-Grafik des Consumer-Segments, welcher 16 GB Speicher an einem vermutlich 512 Bit Interface hat. Die "384 Bit" werden als frühere Information genannt, ergo nicht bezogen auf die 16 GB Speicher. Damit passt es wieder - und es gibt eine Aussicht, das Big Navi tatsächlich so erscheint. Daumendrücken!
https://www.3dcenter.org/news/geruechtekueche-amds-big-navi-wohl-doch-mit-512-bit-interface-samt-16-gb-speicher

rentex
2020-07-23, 13:25:40
Aber günstig wird der Spaß nicht.

unl34shed
2020-07-23, 13:30:24
Macht halt immernoch keinen Sinn in einem eh schon TDP limitierten Szenario mit ca 80CUs auch noch so viel Energiebudget für den Speicher auszugeben. HBM ist mMn. bei 16GB immernoch die sinnvollere Technologie.

mironicus
2020-07-23, 13:36:45
Dann halt mit 400 Watt. :D :D

rentex
2020-07-23, 14:41:48
Das wirds sein.

davidzo
2020-07-23, 15:19:44
https://www.3dcenter.org/news/geruechtekueche-amds-big-navi-wohl-doch-mit-512-bit-interface-samt-16-gb-speicher


Vielleicht pullt AMD ja einen Hawai und legt das SI für 512bit aber nicht besonders hoch taktbar aus.

Damals haben Tahiti, Tonga und Curacao, also praktisch alle anderen chips der serie deutlich höhere Speichertakte erreicht als das Flaggschiff. Gleichzeitig war AMD sehr stolz dass das SI im Chip nicht wirklich größer war als das 384bit SI in Tahiti. Und die 512bit PCBs schienen sich auch nicht sonderlich auf die Herstellungpreise ausgewirkt zu haben.

Möglicherweise nimmt man ja auch einfachen 14-17gbs GDDR6 und hält damit die Kosten für gleich 16GB in Grenzen. Selbst auf 14Gbps wäre das noch mehr als genug Speicherbandbreite.

mboeller
2020-07-23, 16:50:24
Vielleicht pullt AMD ja einen Hawai und legt das SI für 512bit aber nicht besonders hoch taktbar aus.

Damals haben Tahiti, Tonga und Curacao, also praktisch alle anderen chips der serie deutlich höhere Speichertakte erreicht als das Flaggschiff. Gleichzeitig war AMD sehr stolz dass das SI im Chip nicht wirklich größer war als das 384bit SI in Tahiti. Und die 512bit PCBs schienen sich auch nicht sonderlich auf die Herstellungpreise ausgewirkt zu haben.

Möglicherweise nimmt man ja auch einfachen 14-17gbs GDDR6 und hält damit die Kosten für gleich 16GB in Grenzen. Selbst auf 14Gbps wäre das noch mehr als genug Speicherbandbreite.

... und der Verbrauch von 16gbs GDDR6 sollte auch geringer sein als der von 21gbs GDDR6

gefunden habe ich auf die schnelle leider nur das hier:
https://ieeexplore.ieee.org/abstract/document/8588344


This GDDR6 operates 16 Gb/s/pin with 1.15 V and achieves 18 Gb/s/pin with 1.35 V in the DRAM process


1,15²/1,35² = 0,725

vielleicht verbrauchen die 16GB/512bit GDDR6 mit 16gbs genausoviel oder weniger als die 12GB/384bit GDDR6 mit 21gbs (gleiche Bandbreite)

dargo
2020-07-23, 18:15:44
Vielleicht pullt AMD ja einen Hawai und legt das SI für 512bit aber nicht besonders hoch taktbar aus.

Damals haben Tahiti, Tonga und Curacao, also praktisch alle anderen chips der serie deutlich höhere Speichertakte erreicht als das Flaggschiff. Gleichzeitig war AMD sehr stolz dass das SI im Chip nicht wirklich größer war als das 384bit SI in Tahiti. Und die 512bit PCBs schienen sich auch nicht sonderlich auf die Herstellungpreise ausgewirkt zu haben.

Möglicherweise nimmt man ja auch einfachen 14-17gbs GDDR6 und hält damit die Kosten für gleich 16GB in Grenzen. Selbst auf 14Gbps wäre das noch mehr als genug Speicherbandbreite.
Ich sehe hier durchaus Parallelen zum SI von Hawaii. "Kompakt" und relativ wenig Verbrauch dank "niedriger" Frequenz. 14Gbps reichen da locker aus mit dann 896GB/s Bandbreite. Ich könnte mir sogar hier 12Gbps vorstellen sofern diese Chips spürbar günstiger im Einkauf sind (gibts überhaupt was unterhalb 14Gbps bei GDDR6?). Wäre immer noch 71% mehr Bandbreite als Navi10.

JVC
2020-07-24, 09:04:16
16Gb:up: , :massa:512Bit

Damit alleine, würde mich AMD schon überzeugen :freak:
(die 390 8Gb 512Bit ~300.- ist m.M.n. die am besten gealterte GPU :smile:)

X , XT oder XTX ... freu mich schon auf die Tests :biggrin:

M.f.G. JVC

HOT
2020-07-24, 09:38:44
Da bin ich auch vorsichtig erleichtert, dass das Ding 16GB bekommt. Das wäre auf jeden Fall ein interessantes Produkt.

FlashBFE
2020-07-24, 15:31:37
Ich sehe hier durchaus Parallelen zum SI von Hawaii. "Kompakt" und relativ wenig Verbrauch dank "niedriger" Frequenz.
Es ist jetzt nur noch die Frage, ob auch eine weitere Parallele zu Hawaii gezogen wird, nämlich dass der Preis ansprechend wird. Damals war die erste 28nm-Generation bei AMD und NV bis zur 7970Ghz noch sehr teuer und Hawaii hat dann erstmal das Preisverhältnis wieder weit unter 500€ geholt, für High-End-Technik wohlgemerkt. Davon kann man heute träumen. Die Hauptfrage wird sein, ob AMD einfach das aktuelle Preislevel, das NV über Jahre aufgebaut hat, weiter mitspielt.

maximus_hertus
2020-07-24, 15:40:31
Die Hauptfrage wird sein, ob AMD einfach das aktuelle Preislevel, das NV über Jahre aufgebaut hat, weiter mitspielt.

Da AMD Geld verdienen will und die Marge weiter erhöhen will => ja, sie werden grob nVs Preisspirale mitmachen.

Das hat man doch schon bei den 5700er gesehen.

Ich lege mich sogar fest: Die Salvage Version vom größten Navi wird wohl nicht für unter 500 Euro zu haben sein.

Digidi
2020-07-24, 15:49:35
Ich find es lustig das hier wieder nur über die Speicher diskutiert wird. Hätte man sich mal auf die Patente konzentriert wüßte man das man wegkommen will von Ram. Es wird hard an allen Ecken und Enden mit Streaming und an Kompression gearbeitet. PS5 lässt grüßen.

Bei speicher tut sich kaum was mit Patenten, aber am Speicherinterface und Kompression umso mehr.

Aber stats das man mal über die verlinkten Patente diskutiert die real existent sind diskutiert man hier wieder mal zum 1000 mal über die Ramgröße und den Speicher als ob eine GPU nur aus diesen beiden Dingen besteht.

Dinge wie Primitive Shader zielen ja genau auf so etwas ab den Speicheroverhead zu veringern indem man ihm nicht mit unnützem Zeug vollpumpt.

Zossel
2020-07-24, 15:52:17
Ich find es lustig das hier wieder nur über die Speicher diskutiert wird. Hätte man sich mal auf die Patente konzentriert wüßte man das man wegkommen will von Ram. Es wird hard an allen Ecken und Enden mit Streaming und an Kompression gearbeitet. PS5 lässt grüßen.

Das adressiert unterschiedlichen Themen.

unl34shed
2020-07-24, 15:56:44
Naja 500€ müssen es nicht sein, aber wenn man Navi mit "Highend ist unter 1000$" sprich 999$ released und Salvage dann für 800€ dürfte man Nvidia immer noch gut piesacken können, vorausgesetzt die 3080Ti startet wieder mit 1250$.

Grendizer
2020-07-24, 16:00:36
Naja 500€ müssen es nicht sein, aber wenn man Navi mit "Highend ist unter 1000$" sprich 999$ released und Salvage dann für 800€ dürfte man Nvidia immer noch gut piesacken können, vorausgesetzt die 3080Ti startet wieder mit 1250$.

Ich glaube das das Feature Set DLSS bei nVidia einen gewissen Aufpreis sogar rechtfertigen würde. Das AMD bei BigNavi was vergleichbares anbietet glaube ich nicht. Das wird vermutlich noch ein wenig brauchen und bei der nächsten Generation dann dabei sein.

JVC
2020-07-24, 16:05:32
Ich glaube das das Feature Set DLSS bei nVidia einen gewissen Aufpreis sogar rechtfertigen würde.
Das AMD bei BigNavi was vergleichbares anbietet glaube ich nicht.
Können die neuen Konsolen DLSS ? Nein.
Können die neuen Konsolen was vergleichbares ? m.M.n. Ja.

Ich zweifle noch immer daran, das DLSS(mit extra-Kernen/Hardware dafür) auf Dauer bleibt.
(wird m.M.n. genau so laufen wie bei G-Sync mit extra Modul...)

M.f.G JVC

Berniyh
2020-07-24, 18:50:58
Die Hauptfrage wird sein, ob AMD einfach das aktuelle Preislevel, das NV über Jahre aufgebaut hat, weiter mitspielt.
Selbst die 5500 XT wird von AMD im Preis hoch gehalten, also darf man wohl kaum erwarten, dass Big Navi auch nur annähernd ein Massenprodukt wird.
Dafür dürften die Produktionskapazitäten nach wie vor zu limitiert sein, auch wenn man ja deutlich mehr bei TSMC geordert hat.

Dural
2020-07-25, 09:15:09
Können die neuen Konsolen DLSS ? Nein.
Können die neuen Konsolen was vergleichbares ? m.M.n. Ja.

Ich zweifle noch immer daran, das DLSS(mit extra-Kernen/Hardware dafür) auf Dauer bleibt.
(wird m.M.n. genau so laufen wie bei G-Sync mit extra Modul...)

M.f.G JVC

Sogar garantiert werden die zusatz einheiten bleiben, somit auch dlss über diese. Du hast nicht verstanden wie die gpus in zukunft arbeiten, auch AMD wird damit früher oder später kommen müssen.

Ich bin ja schon mal auf das hardware rt von amd gespann...

JVC
2020-07-25, 09:26:12
Du hast nicht verstanden wie die gpus in zukunft arbeiten,
Mit "schätzen", "hinbasteln" und "schummeln" ?
Hauptsache proprietär ?
auch AMD wird damit früher oder später kommen müssen.
Ich hoffe nicht ;)
Ich finde, das muss besser und vor allem einheitlicher funktionieren.

M.f.G. JVC

horn 12
2020-07-25, 15:17:25
BIG Navi 512 Bit zu 16GB
und Savage 448 Bit zu 14GB

Wuerde NV wirklich ans Bein pissen!

y33H@
2020-07-25, 15:28:13
Mit "schätzen", "hinbasteln" und "schummeln" ?
Du hast das Prinzip der Raster Grafik der vergangenen Jahrzehnte erkannt, Glückwunsch ^^

dargo
2020-07-25, 16:42:43
BIG Navi 512 Bit zu 16GB
und Savage 448 Bit zu 14GB

Wann hatte AMD das letzte Mal beim ersten Salvage unterhalb dem Top-Dog das SI beschnitten? Ich kann mich nicht mehr daran erinnern.

rentex
2020-07-25, 17:36:08
BIG Navi 512 Bit zu 16GB
und Savage 448 Bit zu 14GB

Wuerde NV wirklich ans Bein pissen!

Bei welcher Preislage?

mironicus
2020-07-25, 17:38:17
699 Dollar, wie die Radeon 7 damals. :)

Nazar
2020-07-25, 19:29:04
Sogar garantiert werden die zusatz einheiten bleiben, somit auch dlss über diese. Du hast nicht verstanden wie die gpus in zukunft arbeiten, auch AMD wird damit früher oder später kommen müssen.

Ich bin ja schon mal auf das hardware rt von amd gespann...

Du meinst also sie werden ebenso garantiert bleiben und nötig sein, wie PhysX? :freak:
Bisher sind alle Alleingänge von Nvidia in die Hose gegangen.
Dass es jetzt anders wird, halte ich für unwahrscheinlich.
Nvidia hat wirklich gute Ideen, nur leider setzen sie diese immer als Waffe gegen den Konkurrenten ein und nicht mit dem Zweck dem Spieler etwas gutes tun zu wollen. Ganz im Gegenteil, Sie machen die Spieler zu "ihren Soldaten" und wenn man sich so einige Kommentare durchliest, erkennt man deutlich, dass das super funktioniert.
Nur "Open Source" wird dem Spieler, Kunden einen Nutzen bringen.
Wer vermeintliche Verbesserungen als Alleinstellungsmerkmal in seiner Hardware verbaut kann somit gar nicht für den Kunden arbeiten, sondern immer gegen ihn.
Nvidia verhält sich seit Jahren wie ein Hardcore Dealer, der auch nicht vor schmutzigen Tricks zurückschreckt (sobald AMD GPU entdeckt wurde, funktioniert PhysX nicht mehr und mit "The way it's meant to be played" sorgte dafür das Nvidia einen "besonderen" Renderpfad für AMD in ein Spiel einbaute und Hersteller unter Druck setze, wenn sie die Unterstützung von Nvidia wollten.. stand alles in der Presse ;)).
Mit dem eigenen Wohl und die Zukunft am Spielemarkt im Auge, sollte man all das, was Nvidia derzeit macht, ablehnen. Es dient ausschließlich nur dazu dem Kunden jeden Euro oder Dollar aus der Tasche zu ziehen!
Deshalb sollte man immer auf ein Gleichgewicht zweier Konkurrenten achten. ;)

Nazar
2020-07-25, 19:57:28
Du hast das Prinzip der Raster Grafik der vergangenen Jahrzehnte erkannt, Glückwunsch ^^

Ja klar aber wurde und wird RT nicht ständig immer als "wie natürlich" "verkauft"? :freak:
Wenn das Schummeln ähnliche oder sogar bessere (natürlichere) Ergebnisse liefert für einen Bruchteil der benötigten Leistung des "natürlichen" und man selbst keinen Unterschied während des Spielens erkennen kann und selbst auf Vergleichsbildern ein "RTX on und RTX off plus rote Kreise um das Wesentliche benötigt, dann stimmt da etwas überhaupt nicht.

Ich warte immer noch auf eine ehrliche Berichterstattung zum Thema RTX, Nutzen, Kosten, Notwendigkeit?
Wann gibt es mal Tests, wo den Spielern ein Level, dass sie noch nie gespielt haben (mit voller RZ und RT Unterstützung) spielen müssen und die FPS bei nicht weniger als 60 liegen dürfen mit Ultra BQ?
Danach für 5 Sekunden Vergleichsbilder ohne einen Hinweis auf RZ oder RT.
Das wäre doch mal ein guter Test. Wird es aber wohl nie geben.... statt dessen verkauft man weiter ein Märchen.
Werr sich mit dem Thema wirklich beschäftigt weiß, dass RT erst mit PT das sein wird, als das es uns heute verkauft wird aber dafür werden wir auch in 10 Jahren nicht genügend Rechenleistung haben, um das in spielen umsetzen zu können!