Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
NV Killer...wann wurde das nochmal behauptet?
Ohne zu wissen wie Ampere ausfällt? Also ein Spruch wie "Poor Volta"...:rolleyes:
Bitte werd nicht kindisch. Raja arbeitet nu bei Intel. Unter Lisa gab es solche Aussagen nie. Und sie betont ständig, dass sie die Mitbewerber (im Gegensatz zur Lederjacke) nie unterschätzt, sei es Intel oder NV!
davidzo
2020-09-14, 18:29:09
Bitte werd nicht kindisch. Raja arbeitet nu bei Intel. Unter Lisa gab es solche Aussagen nie. Und betont ständig, dass sie die Mitbewerber (im Gegensatz zur Lederjacke) nie unterschätzt, sei es Intel oder NV!
Lederjacke unterschätzt Mitbewerber nicht, er leugnet das es sie gibt.;D
Lederjacke unterschätzt Mitbewerber nicht, er leugnet das es sie gibt.;D
:)
Armaq
2020-09-14, 18:31:29
Ja begeistert wären die sicher nicht, aber wenn das die time to market verkürzt, wieso dann nicht? Das wurde schon ein paar mal so gemacht, sowohl von nvidia als auch von AMD. Meistens durften die AIBs aber noch eigene Sticker drauf kleben und einen Karton designen damit das dann über ihre vertriebskanäle geht.
Stimmt, da war ja was. Haben wir denn überhaupt irgendwelche Leaks zu N23? Also irgendwas welches die bisherige midrange- Einordnung bestätigt?
Zu Navy Flounders hat man ja was gehört, das ist wohl eher N22 zuzuordnen, unter anderem dass man weniger VCE Einheiten als sienna cichlid hat und kein xGMI, ansonsten aber ähnlich wie sienna cichlid.
Ich bin positiv, aber skeptisch eingestellt. Daher gehe ich davon aus, dass die Partner sich schon einiges von RDNA2 erhoffen und auch mit Karten rausgehen wollen. Jeder will am Erfolg teilhaben. Ich weiss, dass einige der Partner nvidia richtig ätzend finden, einfach weil es alternativlos ist.
AMD ist nach Zen auch etwas im Grafikbereich zuzutrauen. Aber Erfolge werden schrittweise errungen, Zen hat man auch konsequent ausgebaut. Ich hab 3x Geld geingekippt (auch wenn 1x ne RMA dabei war und 1800x,2700 und 3900x gekauft). Das bekommt ja AMD auch mit, daher wäre eine Arch mit Schlagweite in 2020 und eine echtes Powerhouse in 2021/22 auch eine sehr plausible Möglichkeit.
BlacKi
2020-09-14, 18:36:29
Lederjacke unterschätzt Mitbewerber nicht, er leugnet das es sie gibt.;D
warum soll er für den konkurenten auch werbung machen. was intel da in den folien zuletzt gezeigt hat war lächerlich. die reinste amd werbung:rolleyes:
Vielleicht dreht sich auch hier das Blatt. Jetzt nur leicht vorn, mit der nächsten Generation, aka Chiplet ....?
Zudem: Ne 6700XT, 56CUs, Takt mehr als 2G, 16GB@256-Bit mit 16 GPS Samsung-RAM. Da sag ich nur eines: Gekauft! Da braucht es für mich keine 6800 und keine 6900. Wakü drauf und freu
Eines noch laut AMD-Folien: 25%IPC-Vorteil im Vergleich zu N10 und 50% p/W.
Gipsel
2020-09-14, 19:16:21
Eines noch laut AMD-Folien: 25%IPC-Vorteil im Vergleich zu N10 und 50% p/W.Auf welcher Folie stehen die +25% IPC?
Linmoum
2020-09-14, 19:16:45
Es gab keine konkrete IPC-Angabe für RDNA2 von AMD, nur, dass sie höher ausfallen wird.
reaperrr
2020-09-14, 19:24:28
Lederjacke unterschätzt Mitbewerber nicht, er leugnet das es sie gibt.;D
Nach außen.
Intern setzt sich Nvidia deutlich realistischer mit der Konkurrenzsituation auseinander, als dies Intel über lange Jahre getan hat. Das ist ein Grund, warum die Situation in den jeweiligen Segmenten ist, wie sie ist.
Auf welcher Folie stehen die +25% IPC?
Da stehen 125%
unl34shed
2020-09-14, 19:29:06
noch mal: WO?
Ravenhearth
2020-09-14, 19:29:12
Da stehen 125%
Wo ist denn "da"?
Ich bin gerade unterwegs mit dem Handy, iPhone. Aber es war ne offizielle Folie, die solltet ihr doch finden? Wenn nicht, schau ich zuhause
Gipsel
2020-09-14, 19:44:13
Ich bin gerade unterwegs mit dem Handy, iPhone. Aber es war ne offizielle Folie, die solltet ihr doch finden? Wenn nicht, schau ich zuhauseDas mußt Du dann wohl tun, denn bisher scheint keiner diese Folie zu kennen.
Edit:
Ich hoffe, Du meinst nicht die Angabe von AMD zu RDNA im Vergleich zu GCN vom 5700XT-Launch.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/chrome_2019-06-11_13-42-17-1440x810.png
Stretcher
2020-09-14, 19:48:40
Mir fehlt noch ein Vergleich mit eben dem alten RIS und DLSS 2.0 und dann mit den neuen Features wenn RDNA2 verfügbar ist um hier eine vernünftige Beurteilung durchzuführen. Viele Wege führen nach Rom.
Hier im AMD Thread darf DLSS 2.0 sowieso kein Thema sein.
Fanboys die damit in Berührung kommen, nehmen entweder DLSS 1.0, verstehen die Funktionsweise nicht, oder wollen sie nicht verstehen.
DLSS ist ein guter Gradmesser für Fanboy oder nicht.:wink:
Man darf sehr gespannt sein, ob AMD einen Konter mit Direct ML vorstellt.
mironicus
2020-09-14, 19:51:09
Tröpfchenweise kommt neues...
yxdBmB_19SM
Tarkin
2020-09-14, 19:58:35
Tröpfchenweise kommt neues...
https://youtu.be/yxdBmB_19SM
könnte man das bitte kurz zusammenfassen ? Ich kann mir diese Leaker Idioten nicht mehr antun - keine Lust und keine Zeit, danke! :rolleyes:
mboeller
2020-09-14, 20:07:57
Btw, in der Vergangenheit hat AMD die Referenzboards der top dogs immer selber gemacht und an die Boardpartner geliefert, bzw. von sehr nahen partnern wie sapphire herstellen lassen die gut dichthalten konnten. Es könnte gut sein dass die Partner vorerst nur Navi22 zum spielen bekommen haben, der chip in AMDs traditionell starkem performance segment, von dem man sich bei den AIBs auch die meisten Absatzzahlen erhofft.
bist du Bondrewd? ;) ;)
Genau das hat der auch ausgesagt. Die AIB haben angeblich bis jetzt nur N22. N21 kommt zudem, zumindest laut Bondrewd in einer ziemlich geringen Stückzahl da AMD lieber ZEN3 verkauft.
Das mußt Du dann wohl tun, denn bisher scheint keiner diese Folie zu kennen.
Edit:
Ich hoffe, Du meinst nicht die Angabe von AMD zu RDNA im Vergleich zu GCN vom 5700XT-Launch.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/chrome_2019-06-11_13-42-17-1440x810.png
Nö, das Ding war Mausgrau und definitiv RDNA2 zu 1. Zudem etwas von fortschrittlichem 7nM Prozess und halt das übliche Gelaber
mironicus
2020-09-14, 20:08:19
Hab's gerade angeschaut. Reine Zeitverschwendung.
Er bleibt dabei mit 256 Bit und 128 MB Cache und mögliche Taktraten im PS5-Bereich.
Cyberfries
2020-09-14, 20:08:59
könnte man das bitte kurz zusammenfassen
Bin ich voll bei dir, diese Videos nerven.
In dem Fall das wichtigste:
- Er bekräftigt seine Behauptung zu 256bit 16Gbps GDDR6 + 128mb Infinity Cache
Neu hier die Taktfrequenz des Speichers.
- Infinity Cache angeblich zusätzlich zu bekannter L0/L1/L2-Cache Struktur.
Ich meine zuletzt irgendwo von 45mb Speicher bei Vega gelesen zu haben.
128mb Gesamtspeicher hätten also Sinn ergeben, aber zusätzlich?
- Taktfrequenzen ähnlich zu PS5, aber harte Grenze ab der nicht weiter übertaktet werden kann,
da die Recheneinheiten in ein Limit laufen. Da gabs doch zuletzt auch was von Mark Cerny?
Noch was zum zuletzt erwähnten Avery:
"One of the Navi21's will have 22.5 TFLOPs Single Precision Perf"
Das wären bei 80CUs 2,2GHz Takt.
[MK2]Mythos
2020-09-14, 20:12:43
könnte man das bitte kurz zusammenfassen ? Ich kann mir diese Leaker Idioten nicht mehr antun - keine Lust und keine Zeit, danke! :rolleyes:
Bitte sehr:
- 128MB Cache nochmal bestätigt (profitiert von hoher GPU Clockrate)
- 256Bit SI
- laut internen AMD Tests führt das angeblich zu einer ähnlichen Performance wie ein 384Bit SI
- GPU Clock mind auf PS5 Niveau
- "Smartcache" als Begriff ist gefallen, ohne so richtig zu wissen, was das bedeuten könnte
why_me
2020-09-14, 20:13:54
könnte man das bitte kurz zusammenfassen ? Ich kann mir diese Leaker Idioten nicht mehr antun - keine Lust und keine Zeit, danke! :rolleyes:
- 128 MB infinty Cache + 256 bit GDDR6, dass soll sich ähnlich verhalten wie 384 bit :rolleyes:
- Taktraten ca von PS5
Und dann noch was von komisches von smartshift zwischen CPU und dGPU :confused:
Und immer wieder, dass das alles stimmen könnte, aber nicht stimmen muss.
Also prinzipiell, keiner kann aktuell irgendetwas genaues sagen....
E: ... zu spät
mboeller
2020-09-14, 20:15:42
Auf welcher Folie stehen die +25% IPC?
anandtech, die SeX-Maschine Hotchips Veranstaltung. ;)
09:21PM EDT - CUs have 25% better perf/clock compared to last gen
das bezieht sich aber höchstens auf die Xbox One X
Link: https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-pt
Ich poste es die Tage, aber was soll schon groß rausgekommen. Ne 6700XT, welche ne 2080Ti schlecht aussehen lässt. Mal ehrlich, hätte man so etwas aufgrund der grottigen RT-Performance auf die Konsolen losgelassen? Wohl kaum. Zudem man hat für den Moment nur ne Vermutung wie die RTSS Kompensation seitens AMD aussehen wird. Aber: Wurde nicht heute ein DX-DL Update über DX verabschiedet?
Tarkin
2020-09-14, 20:27:55
Hab's gerade angeschaut. Reine Zeitverschwendung.
Er bleibt dabei mit 256 Bit und 128 MB Cache und mögliche Taktraten im PS5-Bereich.
suprise :rolleyes::biggrin:
Tarkin
2020-09-14, 20:31:57
- 128 MB infinty Cache + 256 bit GDDR6, dass soll sich ähnlich verhalten wie 384 bit :rolleyes:
- Taktraten ca von PS5
Und dann noch was von komisches von smartshift zwischen CPU und dGPU :confused:
Und immer wieder, dass das alles stimmen könnte, aber nicht stimmen muss.
Also prinzipiell, keiner kann aktuell irgendetwas genaues sagen....
E: ... zu spät
jep... I am hearing, I believe, I understand, Sources are telling me, ...
halt dochs Maul, sorry... diese Typen gehn mir so dermaßen auf den Sack - sie nutzen die aktuellen Launches und das Interesse der Leute einfach nur aus - ohne Infos, ohne Mehrwert... saugen sich den Shice einfach aus den Finger - wahnsinn. Der Depp hat fast 80.000 Abonnenten.
Gleich wie MLID - wobei der zumindest (selten!!) auch mal ein interessantes Interview bringt.
Aber generell - RedGAYmingtech, MLID, Coretex, AdoredTV... viel heiße Luft, nichts dahinter... STUNDENLANG sinnloes Geschwafel und ins Blaue spekulieren. Toll!
Sorry für den RANT, aber das musste jetzt mal raus. Schaut (und vor allem GLAUBT) den Shicedreck einfach nicht - BITTE
w0mbat
2020-09-14, 20:34:54
MLID lag bisher immer ziemlich gut und ich höre ihm gerne zu. Bei den anderen hast du aber recht (kommt auch ohne "gay" gut rüber...).
horn 12
2020-09-14, 20:38:59
https://www.youtube.com/watch?time_continue=1356&v=BR70xbcwB6U&feature=emb_title
Zwar schon alt von heute, aber eine RX 6900 XT mit HBM als Halo Produkt wäre möglich!
Gipsel
2020-09-14, 20:41:39
anandtech, die SeX-Maschine Hotchips Veranstaltung. ;)
das bezieht sich aber höchstens auf die Xbox One X
Link: https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-ptGenau. Das sind die gleichen +25% die schon RDNA1 gegen GCN auf den Folien zugestanden bekommen hat. Da steht nirgendwo was von RDNA2 vs RDNA1.
Neurosphere
2020-09-14, 20:42:32
Vielleicht sollte man Gedi die Beweispflicht überlassen wenn er sowas in den Raum stellt.
Linmoum
2020-09-14, 20:46:44
Der Depp hat fast 80.000 Abonnenten.Der Depp hat damals im Voraus exklusive Bilder der Radeon VII gehabt. Mit dem 7/7 als Launch für Navi/Zen2 lag er auch richtig, wobei die 5GHz für Zen2 wiederum bekanntermaßen Quatsch waren.
Er scheint potentiell also durchaus Quellen zu haben, über die er an gehaltvolle Infos/Bilder/whatever kommt bzw. kommen kann.
MLID lag bisher immer ziemlich gut und ich höre ihm gerne zu. Bei den anderen hast du aber recht (kommt auch ohne "gay" gut rüber...).
MLID für mich neben Adored der größte Quatscher, spätestens nach seinem DLSS3.0-Gefasel. Genauso wie auf der anderen Seite Coreteks, dass Ampere ja definitiv einen Co-Prozessor haben wird. Naja, kann man direkt aussortieren bei sowas.
basix
2020-09-14, 20:48:45
Das mußt Du dann wohl tun, denn bisher scheint keiner diese Folie zu kennen.
Edit:
Ich hoffe, Du meinst nicht die Angabe von AMD zu RDNA im Vergleich zu GCN vom 5700XT-Launch.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/chrome_2019-06-11_13-42-17-1440x810.png
Microsoft hat anscheinend +25% IPC bei der XBSX genannt (Hot Chips). Bei Anand steht aber nur "Last Gen", was eigentlich GCN mit ~Polaris wäre.
https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-pt
Da die Präsi kostenpflichtig ist, kann ich die Aussage nicht verifizieren.
MLID für mich neben Adored der größte Quatscher, spätestens nach seinem DLSS3.0-Gefasel. Genauso wie auf der anderen Seite Coreteks, dass Ampere ja definitiv einen Co-Prozessor haben wird. Naja, kann man direkt aussortieren bei sowas.
Na da tust du dem armen Undichten aber Unrecht! Ampere hat doch einen Co-Prozessor – also einen pro FP32-ALU! :ulol:
MfG
Raff
Der_Korken
2020-09-14, 21:35:14
Bezüglich der 256bit+128MB = 384bit:
Damit diese Rechnung aufgeht müssten die 128MB von der Größenordnung her ca. 33% der Anfragen abfangen, die nicht vom L2-Cache (und allen darunterliegenden) geliefert werden können. Etwas weniger reicht vermutlich auch, weil der Infinity Cache sicherlich deutlich bessere Latenzen als der VRAM hat und somit nicht nur Bandbreite spart. Dadurch können die CUs leichter ausgelastet werden, weil sie nicht ganz so viele Reserve-Threads brauchen, um die Cache-Miss-Latenzen zu verstecken.
Bei einer CPU, die nur 8MB L3-Cache hat, würde ich einem zusätzlichen L4-Cache mit 128MB SRAM locker zutrauen 30% der L3-misses zu kompensieren, weil die Datenlokalität hier sehr hoch ist. Bei einer GPU kann ich das überhaupt nicht einschätzen. Die Tatsache, dass letztere so viel Speicherdurchsatz haben, spricht dafür, dass dort auch massenhaft große Assets in die GPU gestreamt werden, die dann einmal prozessiert und bis zum nächsten Frame wieder vergessen werden. Die 128MB sind im Vergleich zum 16GB großen VRAM viel zu klein, als dass es da viel bringen würde ein paar Texturen zu puffern. Die 30% müssen also Daten sein, die mehrfach angefragt werden, aber trotzdem nicht in die üblichen GPU-Cachegrößen reinpassen.
Badesalz
2020-09-14, 21:52:22
Es ist bei weitem mehr als Schärfe. Es fügt Details hinzu, die in der nativen Auflösung nicht da sind, es rekonstruiert.Jetzt weiß ich endlich wie sie das bei CSI:Miami machen :uup:
Unicous
2020-09-14, 23:07:44
Bin ein wenig hin und hergerissen.
Weiß nicht ob das hässlich oder schön ist.:freak:
https://pbs.twimg.com/media/Eh53l3-XsAADDTj.jpg
https://twitter.com/Radeon/status/1305612438675562505
Nvidias eigene Designs gefallen mir seit einigen Jahren jedenfalls nicht mehr.
Wenn das die Referenzkarte ist, sieht das zum ersten Mal wenigstens brauchbar aus...
[MK2]Mythos
2020-09-14, 23:09:39
Bin ein wenig hin und hergerissen.
Weiß nicht ob das hässlich oder schön ist.:freak:
https://pbs.twimg.com/media/Eh53l3-XsAADDTj.jpg
https://twitter.com/Radeon/status/1305612438675562505
Nvidias eigene Designs gefallen mir seit einigen Jahren jedenfalls nicht mehr.
"and you can study every angle yourself on our Fortnite Creative Island. 8651-9841-1639." Na toll, kann mal jemand bitte Fortnite spielen gehen und screenshotten? :biggrin:
Daredevil
2020-09-14, 23:11:49
Sieht erstmal so aus, als hätte Sapphire sie gebaut. :D
Immerhin haben sie von der VII gelernt und haben nicht den Luftauslass so krass geblockt wegen dem scheiß Logo.
Sieht aber eher so aus wie eine hohe und sehr lange Dual Slot Kühlung, wa?
PS: Juhu, AMD macht Marketing!
Linmoum
2020-09-14, 23:18:08
Immerhin haben sie von der VII gelernt und haben nicht den Luftauslass so krass geblockt wegen dem scheiß Logo.
Nicht nur das, die Lüfter sind auch nicht in die Kühlfinnen eingelassen wie bei der VII. Das war genauso Banane.
Da ich Wakü nutze hätte ich als Referenz natürlich lieber 'nen einfachen Blower statt so ein Teil, macht aber was her. Wenn es dann auch gut performt, umso besser. Erinnert mich aber irgendwie auch an Sapphire.
Armaq
2020-09-14, 23:20:15
2x8 Pin. Ich denke sie greifen die 3090 nicht an.
Linmoum
2020-09-14, 23:21:21
Warum kann man, rein theoretisch, damit die 3090 nicht angreifen? Ich meine, zwischen der 3080 und der 3090 dürften vielleicht 15-20% liegen. Das ist (fast) nichts.
Edit: Achja, bei dem Render fehlt die Slotblende. :D
[MK2]Mythos
2020-09-14, 23:24:24
Weiß jemand wie breit eine 8pin Buchse ist? Dann könnte man schon mal überschlagen wie lang die Karte ist.
r3ptil3
2020-09-14, 23:24:41
Wie auch früher geschrieben: Vergesst die 3090.
Nvidia würde niemals ein solch teure Karte veröffentlichen, damit AMD wenige Wochen später diese dann mit einem 800$ Produkt vernichten kann. Die haben genug Insider-Infos, von denen man hier in diesem Forum nur träumen kann.
Wenn auch nur annähernd etwas in Richtung 3080 gehen würde, wäre das eine Überraschung.
Dampf
2020-09-14, 23:24:47
Sieht gut aus. Deutlich eleganter als Navi 1 die aussieht, als hätte man sie fallen gelassen
Daredevil
2020-09-14, 23:29:26
Hier sind Fortnite Bilder
https://twitter.com/NateOrb/status/1305616619310395392
Nvidia skippt Virtual Link, AMD baut es ein? :D
Unicous
2020-09-14, 23:29:46
@Daredevil Hoch und lang?:confused:
Ich kann Nvidias overengineered Founder's Editions nicht ausstehen. Entweder es sind "everything needs to be brushed metal with nuts and bolts everywhere"-Monstrositäten oder sie müssen überall Ecken und Kanten einfügen.
Von AMD kamen dann als Kontrasprogramm in der Vergangenheit extrem hässliche Plastikbomber. Ich muss sagen, die Navi-Referenzdesigns mit dem kontroversen Knick fand ich ganz schick, aber das wars auch schon.
Aber generell finde ich Grafikkarten-Designs ziemlich peinlich. Man denkt immer, man wäre bei Toys'R'Us anstatt bei Dieter Rams.:rolleyes:
Hakim
2020-09-14, 23:30:57
Seit langem eine Referenz Karte vom AMD die gut aussieht, mMn. Die Blower 5700er und die älteren....Ok die VII hatte kein Blower, ich fands aber auch langweilig und laut etlichen Berichten, kein guter Kühler. Daher der hier macht was her.
Daredevil
2020-09-14, 23:34:27
sJaaaa.... naja. :D
https://twitter.com/VideoCardz/status/1305619624717844481
https://pbs.twimg.com/media/Eh592ORWkAAC6zN?format=jpg&name=medium
Sieht brauchbar aus, deutlich besser als ne VII, an ne gute TriSlot Custom kommt die Kiste aber nicht ran, so rein von der Größe her.
Dieses scheiß Logo verdeckt doch wieder was, könnte kotzen, wenn ich das sehe. :C
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fpcper.com%2Fwp-content%2Fuploads%2F2019%2F02%2F614f-radeon-vii-testbench.jpg&f=1&nofb=1
Ich finde die VII deutlich hübscher und edler, der Kühler ist halt aber scheiße.
Armaq
2020-09-14, 23:35:35
Warum kann man, rein theoretisch, damit die 3090 nicht angreifen? Ich meine, zwischen der 3080 und der 3090 dürften vielleicht 15-20% liegen. Das ist (fast) nichts.
Edit: Achja, bei dem Render fehlt die Slotblende. :D
Sie müssten den Top-Dog nicht zeigen, sie sagen ja nur 6000er Series. Aber wenn ich was andeute, dann zeig ich ja nicht die Mitteklasse.
Selbst wenn TSMC deutlich besser ist als Samsung, zuletzt war AMD bei der Energieeffizienz immer hinter Nvidia und das wird sich nicht einfach komplett drehen. Auch Zen1 war nicht gleich die Granate und es gibt einfach keinen High End Chip von AMD seit Jahren.
Die Stärken ausbauen, dass bekommen sie hin, eine gute Fertigung haben sie bestimmt und noch ein oder zwei Kniffe sind auch drin.
Edit: Das ist außerdem eine 2 Slot Lösung. Ich denke wir können uns auf 250Watt einstellen. Ich denke es wird eine gute Karte, aber nichts überragendes und eventuell auch von der Effizienz her sehr gut.
[MK2]Mythos
2020-09-14, 23:39:07
Seit langem eine Referenz Karte vom AMD die gut aussieht, mMn. Die Blower 5700er und die älteren....Ok die VII hatte kein Blower, ich fands aber auch langweilig und laut etlichen Berichten, kein guter Kühler. Daher der hier macht was her.
Luftkühler sind doch sowieso nur ein fauler Kompromiss, meine wassergekühlte VII ging diese Woche zu einem guten Kurs weg. Jetzt habe ich behelfsmäßig ne relativ leise Mittelklassekarte im Rechner und krieg ne Krise sobald ich irgendwas spiele. Nie wieder Luftkühlung.
sry4ot
Linmoum
2020-09-14, 23:46:51
Edit: Das ist außerdem eine 2 Slot Lösung.Also wie die 3080 FE. Die zieht ja auch 250W. Ok fast, wenn man nicht so pingelig ist. ;)
Armaq
2020-09-14, 23:54:17
Also wie die 3080 FE. Die zieht ja auch 250W. Ok fast, wenn man nicht so pingelig ist. ;)
300Watt sind möglich, aber das Kühlerdesign sieht nicht danach aus.
[MK2]Mythos
2020-09-14, 23:56:58
300Watt sind möglich, aber das Kühlerdesign sieht nicht danach aus.
Findest du? Wenn man den Kühler mit dem ansonsten relativ identischen 2080Ti Kühler vergleicht, dann hat er einen dritten Lüfter. Ich würde ihm also schon etwas mehr Kühlkapazität zutrauen.
Ravenhearth
2020-09-14, 23:59:05
Die Karte sieht für mich ziemlich gleich groß aus wie die Radeon VII. Also auch wieder 300W? Durch die Tweaks am Kühler aber hoffentlich leiser.
Selbst wenn TSMC deutlich besser ist als Samsung, zuletzt war AMD bei der Energieeffizienz immer hinter Nvidia und das wird sich nicht einfach komplett drehen. Auch Zen1 war nicht gleich die Granate und es gibt einfach keinen High End Chip von AMD seit Jahren.
Vielleicht schon ;) RDNA 1 war Zen 1. RDNA 2 ist Zen 2.
SKYNET
2020-09-15, 00:00:28
2x8 Pin. Ich denke sie greifen die 3090 nicht an.
max. 375W... das ist mehr als die 3090 zieht... gehen wir vom optimalfall aus, sinds nur 300W... in verbesserten 7nm prozess, der 50% effektiver sein soll als der alte, ist das ne menge holz... ich gehe davon aus, das die karte sehr schnell sein wird.
Linmoum
2020-09-15, 00:02:31
300Watt sind möglich, aber das Kühlerdesign sieht nicht danach aus.Das Kühlerdesign hieß bei AMD vorher Blower bei 300W. Möglich war auch das. ;) Von dem Fail-Konstruktion bei der VII mal ganz zu schweigen, das war noch mal gruseliger als Blower. Gewissermaßen. Das Ding wird keine Rekorde bei der Lautstärke (im positiven Sinne) brechen, aber wahrscheinlich einfach eine solide Kühllösung für all diejenigen parat haben, die es nicht ultra-leise brauchen. Also im Prinzip analog zu Turings FE.
Wird besseres geben, wird schlechteres geben. Bleibt auch was für die AiB übrig, die werden sich freuen.
Daredevil
2020-09-15, 00:08:08
Potential hat AMD. :D
https://abload.de/img/unbenanntrckcq.png
w0mbat
2020-09-15, 00:10:16
Hä? Längerer Balken = besser, oder nicht?!
Sieht man mal wieder, wie schlecht Nvidia ist...
Daredevil
2020-09-15, 00:11:02
Ja, je länger der Balken, umso mehr Potential ist vorhanden. :D
Ich hoffe mal, wir pendeln uns so bei 2000rpm ein bei 250w und irgendwas um die 3070/3080 Leistung.
BurnedOut_Student
2020-09-15, 00:12:12
Vielleicht ist das doch nicht die große Karte ?
https://uploads.disquscdn.com/images/65683c82c128950e51b0b9c68abbcb4f0e76ae556aee9e0bc5d218558fbbe009.png?w=800&h=466
Compared with Radeon VII Vega 20 (331 mm2)
Ravenhearth
2020-09-15, 00:13:28
Vega20 hatte ein großes Package durch Die+HBM auf dem Interposer.
Digidi
2020-09-15, 00:15:04
Jab Vega 20 hat HBM auf dem Interposer. Das heißt wenn da kein HBM ist wird der Chip rießig. Eher ddann die 505mm².
Auch interessant im Teaser damals wurde eine Karte mit nur 2 Lüftern gezeigt.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-will-Hypetrain-nicht-uebertreiben-Infos-bis-Oktober-1358037/
Daredevil
2020-09-15, 00:20:43
Also ich bin auch nicht unbedingt der Meinung, dass der Hersteller, also AMD jetzt einen Kracher von Kühler vorstellen muss.
Eine anständige Dual Slot Kühlung sollte da sein, die "okay" funktioniert, für alles andere sollte man die Boardpartner ran lassen, die dann wirklich geilen scheiß raushauen ( Sapphire!!! )
Nvidia hat das dieses mal nicht getan und wird sicher viel von den Boardpartnern weg kannibalisieren, weswegen es ihnen schwer fällt, das ganze zu übertrumpfen. Mieser Zug.
Nur sollte es dann auch Boardpartner geben mit eigenen Kühlungen und nicht so ne scheiße, was sie mit der VII gemacht haben.
OgrEGT
2020-09-15, 00:20:59
Bin ein wenig hin und hergerissen.
Weiß nicht ob das hässlich oder schön ist.:freak:
https://pbs.twimg.com/media/Eh53l3-XsAADDTj.jpg
https://twitter.com/Radeon/status/1305612438675562505
Nvidias eigene Designs gefallen mir seit einigen Jahren jedenfalls nicht mehr.
Ich finde auch das sieht vielversprechend aus... großer Kühler 2x8pin... ziel 3080... ich bin sehr gespannt
Ravenhearth
2020-09-15, 00:26:43
Jab Vega 20 hat HBM auf dem Interposer. Das heißt wenn da kein HBM ist wird der Chip rießig. Eher ddann die 505mm².
Nicht unbedingt. Bei Hawaii war die Fläche ähnlich groß und der hatte auch "nur" 438mm².
Je nach benchmark soll die 2080Ti Kopf an Kopf mit der 3070 oder 3080 liegen, wenn die Radeon6000/BN sich auch an der 2080Ti leicht vorbei setzen kann, wäre das bei 300W durchaus zufriedenstellend. Damit gibt es im enthusiast Bereich wieder Konkurenz.
Ich bin sehr gespannt auf erste Benchmarks der beiden.
SKYNET
2020-09-15, 00:38:09
Jab Vega 20 hat HBM auf dem Interposer. Das heißt wenn da kein HBM ist wird der Chip rießig. Eher ddann die 505mm².
Auch interessant im Teaser damals wurde eine Karte mit nur 2 Lüftern gezeigt.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-will-Hypetrain-nicht-uebertreiben-Infos-bis-Oktober-1358037/
nur als info, das package inkl. HBM war bei V20 3492mm2 gross... wenn das so hinhaut, dürfte der fette navi wohl ebenfalls HBM drauf haben... weil bei der V20 war der ja noch in 20nm gefertigt wenn ich recht erinnere... flashbolt von samsung aber inzwischen in 10nm(samsung 1y fertigung), passt dann also von der grösse mit 505 UND HBM2
Digidi
2020-09-15, 00:40:59
Nicht unbedingt. Bei Hawaii war die Fläche ähnlich groß und der hatte auch "nur" 438mm².
Sicher? Ich rede von Interposer nicht dem Die selbst. Man musste mal Vega 20 und Hawaii den interposer vergleichen
@Skynet die Möglichkeit gibt es auch noch Das HBM drauf ist. Aber das wäre seltsam mit dem DDR PCB.
zur Info Vega 20 war 7nm du meinst Vega 10 in 14nm ;)
Ravenhearth
2020-09-15, 00:44:48
Sicher? Ich rede von Interposer nicht dem Die selbst. Man musste mal Vega 20 und Hawaii den interposer vergleichen
Hawaii hat keinen Interposer ;) Ich meinte die Fläche auf der Rückseite, die da zwischen der Radeon VII und Big Navi verglichen wurde, das sah bei Hawaii ganz ähnlich aus.
SKYNET
2020-09-15, 00:47:04
Sicher? Ich rede von Interposer nicht dem Die selbst. Man musste mal Vega 20 und Hawaii den interposer vergleichen
@Skynet die Möglichkeit gibt es auch noch Das HBM drauf ist. Aber das wäre seltsam mit dem DDR PCB.
zur Info Vega 20 war 7nm du meinst Vega 10 in 14nm ;)
ja, die GPU war 7nm, aber der HBM2 war 20nm...
die neuste gen(=flashbolt) HBM2 von samsung ist aber 10nm.... ergo brauchs deutlich weniger platz... und hat auch jetzt pro stack jetzt bis zur doppelten speichermenge wenn ichs richtig gelesen habe.
also entweder hat das ding HBM2 drauf, oder der chip ist fetter als bisher angenommen... evtl. ist der interne name der AMD mitarbeiter "nvidia killer" ja nicht nur "show" :uponder: :eek:
Digidi
2020-09-15, 00:48:07
Hawaii hat keinen Interposer ;) Ich meinte die Fläche auf der Rückseite, die da zwischen der Radeon VII und Big Navi verglichen wurde, das sah bei Hawaii ganz ähnlich aus.
ja aber das täuscht schau dir mal Hawaii zu Vega 10 an beides 430mm Chips und Vega 10 hatte noch 2 HBM stacks da war das package auch größer.
Linmoum
2020-09-15, 00:57:09
Bin gespannt, wie Buildzoid das nach seinem "AMD should not be allowed to design heatsinks at all"-Rant letzte Woche findet. Wobei er damit bisher ja auch recht hatte. :freak:
Daredevil
2020-09-15, 01:00:20
Bin gespannt, wie Buildzoid das nach seinem "AMD should not be allowed to design heatsinks at all"-Rant letzte Woche findet. Wobei er damit bisher ja auch recht hatte. :freak:
Ach geil, das kannte ich gar nicht. Er hat auch direkt reagiert. ^^
6uxLy1qWRAk
Brillus
2020-09-15, 01:00:55
Sie müssten den Top-Dog nicht zeigen, sie sagen ja nur 6000er Series. Aber wenn ich was andeute, dann zeig ich ja nicht die Mitteklasse.
Selbst wenn TSMC deutlich besser ist als Samsung, zuletzt war AMD bei der Energieeffizienz immer hinter Nvidia und das wird sich nicht einfach komplett drehen. Auch Zen1 war nicht gleich die Granate und es gibt einfach keinen High End Chip von AMD seit Jahren.
Die Stärken ausbauen, dass bekommen sie hin, eine gute Fertigung haben sie bestimmt und noch ein oder zwei Kniffe sind auch drin.
Edit: Das ist außerdem eine 2 Slot Lösung. Ich denke wir können uns auf 250Watt einstellen. Ich denke es wird eine gute Karte, aber nichts überragendes und eventuell auch von der Effizienz her sehr gut.
Für 250Watt sind die Stromstecker etwas zu dick 6+8 wären schon 300W das wäre noch genug Luft, denke eher so um die 275.
SKYNET
2020-09-15, 01:05:18
Ach geil, das kannte ich gar nicht. Er hat auch direkt reagiert. ^^
https://youtu.be/6uxLy1qWRAk
omg, der tut so behindert als wenn es keinen airflow im case gäbe und die karte in nem geschlossenen schuhkarton betrieben wird... wie kann man die pfeife eigentlich ernst nehmen?
Daredevil
2020-09-15, 01:06:10
Du hast das komplette 25min Video in 5 Minuten gesehen? :V
SKYNET
2020-09-15, 01:07:34
Du hast das komplette 25min Video in 5 Minuten gesehen? :V
bin nur bis zu seinem paintshop geschribsel vorgeskippt, der rest ist eh irrelevant :freak:
Daredevil
2020-09-15, 01:10:31
Er hat quasi in dem Video vermutet, dass HBM auf der Karte sein könnte, weil um die GPU herum 8 Bohrungen sind ( üblich bei HBM und AMD ) und nicht nur 4, wie man es bei GDDR Speicher kennt.
Das ist mehr, als du hier im Thread leistest.
Linmoum
2020-09-15, 01:13:22
Ach geil, das kannte ich gar nicht. Er hat auch direkt reagiert. ^^
https://youtu.be/6uxLy1qWRAkAch, da isses ja schon. :D
Das mit den Schrauben um die GPU ist mir so bisher gar nicht bewusst gewesen. Wenn das Modell in Fortnite also akkurat ist, dann sind da seitlich um die GPU zwei (und eventuell oben und unten noch jeweils eine). Das könnte tatsächlich auf HBM hindeuten, denn wie er ja richtigerweise sagt, eigentlich sitzt da der Speicher wo die Schrauben sind. Deswegen auch nur bei den HBM-Karten, da der logischerweise wegfällt.
Edit: too late mit den Schrauben. :D
Ravenhearth
2020-09-15, 01:14:37
ja aber das täuscht schau dir mal Hawaii zu Vega 10 an beides 430mm Chips und Vega 10 hatte noch 2 HBM stacks da war das package auch größer.
Ironischerweise kaum. Das Package von Hawaii hat 45x45mm, bei Vega10 sind es trotz des größeren Die und HBM auf einem Interposer 47,5x47,5mm. Man kann also von der Package-Größe nur bedingt auf die Chipgröße schließen.
Digidi
2020-09-15, 01:19:10
Ironischerweise kaum. Das Package von Hawaii hat 45x45mm, bei Vega10 sind es trotz des größeren Die und HBM auf einem Interposer 47,5x47,5mm. Man kann also von der Package-Größe nur bedingt auf die Chipgröße schließen.
Danke für die Werte! Ja da hast du wohl recht.
BlacKi
2020-09-15, 01:24:54
Ach geil, das kannte ich gar nicht. Er hat auch direkt reagiert. ^^
https://youtu.be/6uxLy1qWRAk
wie er einfach das hbm herbeisehnt^^ ignoriert alle leaks und äusserungen, sucht aber seine eigenen fakten für hbm.
Linmoum
2020-09-15, 01:25:50
Polaris10: Keine Schrauben seitlich (GDDR5)
https://www.techpowerup.com/review/amd-rx-480/images/front.jpg
Navi10: Keine Schrauben seitlich (GDDR6)
https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/images/thermal-pad-1.jpg
Vega10: Schrauben seitlich (HBM)
https://www.techpowerup.com/review/amd-radeon-rx-vega-64/images/front.jpg
Vega20/Radeon VII: Schrauben seitlich (HBM)
https://www.techpowerup.com/review/amd-radeon-vii/images/cooler3.jpg
6000/RDNA2: Schrauben seitlich (???)
https://pbs.twimg.com/media/Eh57Q_0XYAET6iL?format=jpg&name=large
Nice try, AMD. So nicht. :cool:;D
wie er einfach das hbm herbeisehnt^^ ignoriert alle leaks und äusserungen, sucht aber seine eigenen fakten für hbm.
Naja, was heißt Fakten suchen? Siehe die Bilder oben, die Schrauben seitlich, die da bei dem kommenden Referenzdesign zu sehen sind, existieren (bisher) nur bei HBM-Karten. Das ist Fakt.
Selbst Fiji hatte die Schrauben seitlich, Hawaii und Grenada nicht. Das ist irgendwie zu viel Zufall. Und wir wissen, dass HBM auch möglich ist.
BlacKi
2020-09-15, 01:27:45
habt ihr das engeniering board vergessen? es hat genau diese schrauben und noch mehr unter der backplate.
https://twitter.com/Avery78/status/1303822358440935424
256bit gddr6 confirmed!
[MK2]Mythos
2020-09-15, 01:31:10
habt ihr das engeniering board vergessen? es hat genau diese schrauben und noch mehr unter der backplate.
https://twitter.com/Avery78/status/1303822358440935424
256bit gddr6 confirmed!
Hier ist überhaupt nichts confirmed und dann weiß auch niemand, welche Karte da überhaupt zu sehen ist. Wie kann man mit absolut NULL FAKTEN bloß so rechthaberisch sein? Das werde ich bei dir und ner handvoll anderer Foristen hier nie verstehen. Unglaublich.
Linmoum
2020-09-15, 01:31:42
habt ihr das engeniering board vergessen? es hat genau diese schrauben und noch mehr unter der backplate.
https://twitter.com/Avery78/status/1303822358440935424
256bit gddr6 confirmed!War das denn definitiv eine Radeon? Und vor allem, zu welchem Chip gehört(e) das?
SKYNET
2020-09-15, 01:31:51
habt ihr das engeniering board vergessen? es hat genau diese schrauben und noch mehr unter der backplate.
https://twitter.com/Avery78/status/1303822358440935424
256bit gddr6 confirmed!
siehst du irgendwo speichersteine? ich sehe nur "16GB samsung" und samsung produziert auch den HBM2...
BlacKi
2020-09-15, 01:33:26
Mythos;12425635']absolut NULL FAKTEN
:biggrin: möp
Unicous
2020-09-15, 01:35:47
Steht da nicht 16Gb?:confused:
Linmoum
2020-09-15, 01:36:19
:biggrin: möpDas mit den Bohrungen bei HBM und GDDR ist seit Hawaii (2013, davor nicht geguckt) und Fiji (2015) schlicht Fakt. Kann man ignorieren, muss man nicht. Stichhaltiger als vieles, was ständig umhergeistert.
BlacKi
2020-09-15, 01:40:31
habt ihr gesehen wie genau die abstände der schrauben sind und wie genau das alignment so komplett nicht in linie mit den anderen ist?
die schrauben sitzen nicht wie bei vega genau aligned mit den anderen schrauben. sie haben einen geringen offset, komischer weiße genau wie auf dem engenering sample, aber haargenau gleich offset.
BlacKi
2020-09-15, 01:44:49
vl checkt ihr es erst so:
https://abload.de/img/eh57q_0xyaet6illtj0k.jpg
https://abload.de/img/ehgbancu0aaur7s0vjru.jpg
das gabs so noch nie bei einer vega oder anderen karte auch bei nv gabs sowas nicht. das ist 100% save dieses loch layout.
w0mbat
2020-09-15, 01:49:12
4262 × 2397 pixels
Kannst du bitte aufhören so rießige Bilder zu spammen?
Ravenhearth
2020-09-15, 01:53:00
siehst du irgendwo speichersteine? ich sehe nur "16GB samsung" und samsung produziert auch den HBM2...
Da steht 16 Gb, also Gigabit, macht 2 Gigabyte pro Speicherbaustein. Das macht nur Sinn mit GDDR6.
Wobei ich nicht denke, dass das mit 256 Bit Big Navi ist (steht auch unter dem Tweet). Vielleicht haben mehrere RDNA2-Karten ein ähnliches Boardlayout bzw. eine ähnliche Platzierung der Schrauben.
BlacKi
2020-09-15, 01:57:13
Kannst du bitte aufhören so rießige Bilder zu spammen?
die sind nichtmal 1mb groß, das wird deine handy flat nicht leersaugen.
w0mbat
2020-09-15, 01:59:56
Es geht um die Bildgröße, bitte mal Hirn anschalten.
Linmoum
2020-09-15, 02:01:50
Dann beschränke die Größe doch einfach in den Einstellungen, wie es eigentlich jeder macht. :D
BlacKi
2020-09-15, 02:01:58
Es geht um die Bildgröße, bitte mal Hirn anschalten.
hä? was kann ich dafür wenn du deine 3dcenter einstellungen nicht konfigurierst.
Platos
2020-09-15, 02:05:55
Stimmt aber trotzdem. Die Schrauben bei den oben verlinkten HBM Grafikkarten sind alle in einer Linie. Das hier aber nicht.
In wahrheit bedeutet das, dass da ein CPU Kühler angeschnallt werden muss, wie auf dem anderen Bild :freak:
Edit: Wobei der Blickwinkel auf dem Fortnite-Bild nicht senkrecht von unten ist/aussieht Die linke Schraube ist ja fast in einer Linie mit den anderen, die rechte weit daneben. Das kann ja gar nicht senkrecht von unten angeschaut worden sein.
w0mbat
2020-09-15, 02:06:07
Werden die Einstellungen per cookie pro Gerät gespeichert, oder ist das global? Ich nutze das 3DC halt an unterschiedlichen Geräten, mit unterschiedlichen Auflösungen. Ein 4K Fortnite Bild muss halt echt nicht sein...
[MK2]Mythos
2020-09-15, 02:08:33
Stimmt aber trotzdem. Die Schrauben bei den oben verlinkten HBM Grafikkarten sind alle in einer Linie. Das hier aber nicht.
In wahrheit bedeutet das, dass da ein CPU Kühler angeschnallt werden muss, wie auf dem anderen Bild :freak:
Es bedeutet einfach nur, dass wir nicht wirklich schlauer als vorher sind. Mal von ein paar wenigen Usern abgesehen, die so tun als hätten sie die Weisheit mit Löffeln gefressen.
Platos
2020-09-15, 02:11:28
Wären die Schrauben wirklich in einer Linie, würde ich das schon als starkes Indiz sehen, wenns ja bei den früheren auch immer so war. Allerdings gehe ich da jetzt nicht selbst nachschauen. Abgesehen davon, dass ich schon länger kein Fortnite mehr installiert habe.
Aber ja, mit wissen hat das nichts zu tun, eher mit spekulieren/vermuten.
Edit: Aber wie gesagt, das von Blackie verlinkte Fortnite-Bild hat ne schlechte Perspektive.
horn 12
2020-09-15, 03:36:20
Nun, Daredevil
Hattest ja selbst wie ich die Radeon VII und mit UV doch halbwegs brauchbar aber da eben nur 1700+ Mhz drinn gewesen.
Ebenso ist der Lochabstand bei der 6000 Serie wie das Bild aufzeigt unterschiedlich...
Kann dies der Grund sein, dass die RDNA2 beides beherrscht und deshalb das eine Loch weiter gerückt wurde.
Neurosphere
2020-09-15, 06:30:09
Hmm, ich kann mir nicht vorstellen das AMD mit bis zu 375 Watt Stock ins Rennen geht wenn da nicht auch was bei rum kommt. Mehr hat die 3080/3090 Stock auch nicht.
Nvidia wird für die 3070 aller Vermutung nach maximal 8+6 Pin anbieten wenn sie nicht auch ihrern neuen Anschluss draufgepappt haben. Für die anderen Karten wird es wohl in den Reviews dazu kommen das der hohe Stromverbrauch bei Ampere zum Thema wird, da kann ich mir nicht vorstellen das AMD noch mehr die Brechstange ansetzt und mit schlechterer Perf./Watt starten will.
Kann natürlich auch ein Platzhalter sein, möglich ist alles. Aber bei 2*8 Pin sollte mindestens das drin sein was NV auch bietet.
Leonidas
2020-09-15, 06:44:34
2x 8pol. sagt doch nur als, das es mit OC-Reserve mehr als 300W sind. Weil 1x 6pol. + 1x 8pol. + PCIe ergeben 300W. 2x 8pol. ist dann einfach nur die nächstmögliche Größe.
Neurosphere
2020-09-15, 06:53:57
Naja, NV hat nun für Karten mit einer TDP (TGP) von 320 bzw 350 Watt auch nur eine 375 Watt Versorgung.
Heißen tut das natürlich garnichts, aber 2*8 Pin sind erstmal "positiver" was die mögliche Leistung angeht als 8+6 Pin.
Hübie
2020-09-15, 07:21:49
Hatten wir das schon?
http://www.abload.de/thumb/jljlm.jpg (http://www.abload.de/image.php?img=jljlm.jpg) http://www.abload.de/thumb/bfjyl.jpg (http://www.abload.de/image.php?img=bfjyl.jpg)
basix
2020-09-15, 07:25:29
Ähm ja, die letzten 5 Seiten oder so ;)
mironicus
2020-09-15, 07:34:45
Ah! Irgendein Kind war so gnädig und hat in Fortenite ein Video von der neuen Radeon gemacht.
AHxqNCxCkbs
Es hat definitiv einen USB-C Anschluß wie die RTX 2000-Reihe.
basix
2020-09-15, 07:38:48
Da die seitlichen Schrauben des Packages ein bisschen versetzt sind: Co-Processor confirmed! :D
Hasenpfote
2020-09-15, 07:56:32
hä? was kann ich dafür wenn du deine 3dcenter einstellungen nicht konfigurierst.Danke für den Hinweis. Die Einstellung zu finden ist aber auch.... meeeehhhh :D
sorry for OT
BoMbY
2020-09-15, 07:56:47
Ich hoffe die haben nicht wieder auf so einen Murks ohne Heatpipes gesetzt, wie bei der Radeon VII. Aber wenn die Geschichte eines gelehrt hat, dann dass AMD die Stock Cooler verkacken wird.
unl34shed
2020-09-15, 08:16:57
Was sind denn die zwei Dinger gegenüber der 8pin Anschlüsse? Sind das Buttons, die man anklicken kann?
Also das riesige Package stinkt schon förmlich nach HBM.
Edgecrusher86
2020-09-15, 08:39:25
Wo man wohl das Design her hat? ;D
https://abload.de/img/eh592orwkaac6zn9jkot.jpg
Immerhin nun ein Lüfter zusätzlich. :freak:
Na endlich kommt da mal etwas, um Nvidias zwei Schiffen (Schlacht- und Flagg-) den Wind aus den Segeln zu nehmen. Spannendster Herbst ever in 3, 2, 1 ... :D
Aber bitte postet doch nicht alles 2-3×. Es gibt immer jemanden, der schneller war, weil er nicht schläft und so. ;)
MfG
Raff
Cyberfries
2020-09-15, 08:49:21
Also das riesige Package stinkt schon förmlich nach HBM.
Deutlich kleiner als bei den Vega 64/56-Karten.
Gegen HBM spricht auch die Position des Packages, dann wäre das ganze näher an PCIe und Slotblech.
Was sind denn die zwei Dinger gegenüber der 8pin Anschlüsse? Sind das Buttons, die man anklicken kann?
Anschlüsse, die ich nicht zuordnen kann. Bei 1:08
https://www.youtube.com/watch?v=6Rr10JAoXSQ
----
Merkwürdig, die Schrauben so offen zu zeigen, normalerweise wird das doch versteckt?
Man sieht die Rückseite nur in Fortnite. Und das Material das Youtube und Videocardz liefern ist in der Hinsicht eher schlecht.
Das ist ein seeehr langes PCB.
Hübie
2020-09-15, 08:49:34
Also das riesige Package stinkt schon förmlich nach HBM.
Wo siehst du ein riesiges Package? :confused::freak:
mironicus
2020-09-15, 08:53:08
Ja, AMD kopiert von seinen Konkurrenten. Den USB-C Anschluss den NVidia gerade abgeschafft hat finde ich persönlich nützlich. Den kann man immer mal gebrauchen.
Ist das wohl eine größere Karte über 27,5 cm mit den drei Lüftern?
stinki
2020-09-15, 08:56:57
Ein Kommentar zum Thema "16Gb":
The Flashbolt is the industry’s first 3rd-generation, 16GB HBM2E offering. It delivers next-level specs, with its ability to provide superior memory bandwidth levels of up to 410 GB/s and data transfer speeds that reach 3.2 GB/s per pin being achieved with the vertical stacking of eight layers of 10nm-class 16 Gb DRAM dies.
https://www.samsung.com/semiconductor/newsroom/tech-leadership/how-samsungs-hbm2e-flashbolt-is-laying-the-foundations-for-the-tech-of-tomorrow/
Also HBM2e DRAM Chips haben auch eine Größe von 16Gb, nicht nur die GDDR6 DRAM Chips.
w0mbat
2020-09-15, 09:36:15
Ich glaube, BlacKi hat recht. Das mounting sieht doch etwas anders aus als bei Vega/Radeon VII und dort sollte Platz sein für GDDR6 Chips. Dazu kommt noch, dass das PCB unnötig lang wäre für eine HBM Karte. Und Raja ist jetzt bei Intel :ugly:
nordic_pegasus
2020-09-15, 09:36:39
Wären die Schrauben wirklich in einer Linie, würde ich das schon als starkes Indiz sehen, wenns ja bei den früheren auch immer so war.
Buildzoid macht die Anmerkung, dass die beiden Schrauben links/rechts an Stellen sind, wo entweder GDDR6 Module oder zumindest die Leiterbahnen des SI sein müssten.
Selbst wenn die Position der Schrauben nicht eindeutig hinweist, es ist ein Indiz gegen Speicher-Module an dieser Stelle.
davidzo
2020-09-15, 09:37:27
Was sind denn die zwei Dinger gegenüber der 8pin Anschlüsse? Sind das Buttons, die man anklicken kann?
Das sieht aus wie generic JST header (PH oder PHD). könnten für den Lüfter (PH ist standard) und die Beleuchtung (zweite reihe?) sein. Die sind allerdings etwas zu tief ins board gerutscht bzw. verzerrt (so ein pfusch :rolleyes:)
Nach all dem was da fehlt bzw. grob vereinfacht ist, ist das kein Modell aus dem Engineering, viel eher mal schnell fürs Marketing gebastelt. Die einzigen Sachen die detailreich abgebildet sind, sind externe Assets wie die 8pin stecker und HDMI/DP ports. Der Rest ist so grob klötzchenartig, das ist in 20min modelliert...
Edgecrusher86
2020-09-15, 09:40:20
BIG NAVI 21 XTX kommt dann ein wenig später:
https://abload.de/img/haha_2zfj2g.jpg
:D
Langlay
2020-09-15, 09:41:48
Deutlich kleiner als bei den Vega 64/56-Karten.
Gegen HBM spricht auch die Position des Packages, dann wäre das ganze näher an PCIe und Slotblech.
Bei der Radeon VII sitzt der Chip vielleicht 1-2 cm dichter an der Slotblende.
https://pbs.twimg.com/media/Eh57Q_0XYAET6iL?format=jpg&name=large
https://www.tomshw.de/wp-content/uploads/2019/02/PCB-Front-WM.jpg
Bei der VII sitzt der Chip quasi mittig über den PCI-E Anschluss bei der RDNA2 Karte leicht nach hinten versetzt, ist imo aber kein riesen Unterschied.
Dazu kommt noch, dass das PCB unnötig lang wäre für eine HBM Karte. Und Raja ist jetzt bei Intel :ugly:
Naja das PCB ist bei VII auch unnötig lang, dort hatte man sicherlich noch ein paar cm einsparen können wenn man gewollt hätte. Sieht ja selber wieviel leere Fläche dort drauf ist.
unl34shed
2020-09-15, 09:43:38
Das sieht aus wie generic JST header (PH oder PHD). könnten für den Lüfter (PH ist standard) und die Beleuchtung (zweite reihe?) sein.
Ja hast denke ich Recht, mein Gamersense hat das als Buttons erkannt. Macht definitiv mehr Sinn :D
basix
2020-09-15, 09:43:52
Wir hätten immer noch Co-Processor und Infinity Cache im Angebot :D
Ich würde mich über HBM2 freuen. Würde eine starke Karte andeuten. Um die Speicherdiskussion noch zu erweitern:
Macht es Sinn HBM2 und GDDR6 in einem Die zu kombinieren? Nicht in dem Sinne entweder/oder sondern UND. Bei Mobile Chips und Salvage nimmt man nur HBM oder GDDR und beim BigFish HBM+GDDR (geringere Kosten bei der hohen Speichermenge). Zum Beispiel 512-820 GB/s via HBM (2 Stacks) und 448-512 GB/s via 256bit GDDR6.
Hm, nach dem Bild könnte das doch mit dem Testboard-Design überein stimmen, denn die beiden Schrauben links und rechts des Packages gibt es da auch...
Für HBM bräuchte man aber kein größeres Package als V20, der wäre ja nur mit 2 statt 4 Stacks bestückt, oder?
davidzo
2020-09-15, 09:49:01
Werden die Einstellungen per cookie pro Gerät gespeichert, oder ist das global? Ich nutze das 3DC halt an unterschiedlichen Geräten, mit unterschiedlichen Auflösungen. Ein 4K Fortnite Bild muss halt echt nicht sein...
per user. Du kannst in den Einstellungen die maximale bildschirmbreite in pixeln setzen, dann werden die bilder skaliert. Ich musste das auch machen, denn OSX täuscht bei retina displays ja automatisch eine geviertelte auflösung vor, damit die skalierung stimmt. Was für die meisten webseiten optimal ist, da die eher für 720P oder FHD konzipiert sind, unter windows funktioniert das skaling nicht richtig, da muss man ständig vergrößern und hat verschobene Inhalte / artefarkte wenn man webseiten auf 3K vergrößert darstellt.
Bei 3DC hatte das OSX scaling aber dazu geführt dass mir alle Bilder stark vergrößert angezeigt wurden, praktisch wurden aus jedem 1:1 pixel gleich 4 pixel :freak: - die Einstellung im Kontrollzentrum für die maximale breite hat es dann behoben. Möglicherweise lässt sich das auch per cookie setzen?
Berniyh
2020-09-15, 09:54:07
Das mit den beiden Schrauben ist schon komisch. Dadurch bestätigt man aber im Prinzip, dass diese Dev Karte mit den 8 GDDR6 Bausteinen tatsächlich eine RDNA2 Karte war.
Ob nun Navi 21 oder 22 sei mal dahin gestellt, aber eigentlich würde man erwarten, dass AMD Big Navi zeigt.
Damit scheint sich diese 256 Bit Geschichte bei Big Navi langsam wirklich zu verfestigen. Sehr seltsam das ganze …
https://twitter.com/JayzTwoCents/status/1305764608137805824
Berniyh
2020-09-15, 09:55:11
Ein Kommentar zum Thema "16Gb":
The Flashbolt is the industry’s first 3rd-generation, 16GB HBM2E offering. It delivers next-level specs, with its ability to provide superior memory bandwidth levels of up to 410 GB/s and data transfer speeds that reach 3.2 GB/s per pin being achieved with the vertical stacking of eight layers of 10nm-class 16 Gb DRAM dies.
https://www.samsung.com/semiconductor/newsroom/tech-leadership/how-samsungs-hbm2e-flashbolt-is-laying-the-foundations-for-the-tech-of-tomorrow/
Also HBM2e DRAM Chips haben auch eine Größe von 16Gb, nicht nur die GDDR6 DRAM Chips.
Das stimmt, aber von "typical" kann man da wohl eher nicht sprechen. ;)
Langlay
2020-09-15, 09:55:57
Für HBM bräuchte man aber kein größeres Package als V20, der wäre ja nur mit 2 statt 4 Stacks bestückt, oder?
Ich würde auch davon ausgehen, das es wenn HBM dann nur 2 Stacks werden.
HBM2 Stack ist 7,75x11,87 mm also ~92mm² Vega20 sind 331mm² + 4x 92mm² = 699mm²
699mm² - 2x 92mm² = 515mm² Also würde man per Milchmädchenrechnung einen 515mm² Chip mit 2x HBM ins gleiche Package bekommen.
Berniyh
2020-09-15, 09:56:11
Ich glaube, BlacKi hat recht. Das mounting sieht doch etwas anders aus als bei Vega/Radeon VII und dort sollte Platz sein für GDDR6 Chips.
Nicht nur das, es fehlen ja im Vergleich zu den früheren HBM Karten auch noch die oberen Bohrungen.
Und eben diese Dev Karte hat auch genau diese Bohrungen und GDDR6.
Insofern …
davidzo
2020-09-15, 09:57:12
Wir hätten immer noch Co-Processor und Infinity Cache im Angebot :D
Ich würde mich über HBM2 freuen. Würde eine starke Karte andeuten. Um die Speicherdiskussion noch zu erweitern:
Macht es Sinn HBM2 und GDDR6 in einem Die zu kombinieren? Nicht in dem Sinne entweder/oder sondern UND. Bei Mobile Chips und Salvage nimmt man nur HBM oder GDDR und beim BigFish HBM+GDDR (geringere Kosten bei der hohen Speichermenge). Zum Beispiel 512-820 GB/s via HBM (2 Stacks) und 448-512 GB/s via 256bit GDDR6.
Das habe ich mich auch gefragt. Immerhin hat man bei der XBSX auch so eine merkwürdige Speichersegmentierung. Und bisher glauben wir das ist wegen der apu bzw. dem cputeil, der einfach mit weniger Bandbreite auskommt. Vielleicht ist das auch für eine reine GPU interessant?
Wenn man 1 stack HBM2e mit 256bit G6 kombiniert und parallel bzw. "dualchannel" ansteuert kommt man auf fast 1tb/s für die ersten 8gb. Der restliche Speicher läuft dann immer noch mit den 500gb/s rein im G6 weiter.
1 stack wäre auf dem package auch leicht unter zu bringen, der interposer wäre kaum größer als das Die. Sowas hat man ja sowohl für Intel als auch Apple schonmal gebaut, sogar als emib. Auch die ganze HBCC Geschichte zielte ja darauf ab unterschiedliche schnelle, segmentierte Speicherbereiche möglichst effizient zu verwalten.
Langlay
2020-09-15, 10:00:19
Wenn man 1 stack HBM2e mit 256bit G6 kombiniert und parallel bzw. "dualchannel" ansteuert kommt man auf fast 1tb/s für die ersten 8gb. Der restliche Speicher läuft dann immer noch mit den 500gb/s rein im G6 weiter.
1 stack wäre auf dem package auch leicht unter zu bringen, der interposer wäre kaum größer als das Die. Sowas hat man ja sowohl für Intel als auch Apple schonmal gebaut. Auch die ganze HBCC Geschichte zielte ja darauf ab unterschiedliche schnelle, segmentierte Speicherbereiche möglichst effizient zu verwalten.
Da es keinen Sinn macht den Interposer nicht rechteckig zu machen. kannste auch gleich einen 2. HBM Stack dazuklatschen der Platz wird ja da sein und man kann sich den ganzen GDDR6 Kram sparen. Und ob ich nun einen HBM Stack draufklatsche oder 2 wird keinen grossen Kostenunterschied mehr machen.
Cyberfries
2020-09-15, 10:00:46
Also HBM2e DRAM Chips haben auch eine Größe von 16Gb, nicht nur die GDDR6 DRAM Chips.
Da steht nur leider ein großes Fragezeichen hinter der Verfügbarkeit.
Bei der Radeon VII sitzt der Chip vielleicht 1-2 cm dichter an der Slotblende.
Bei der VII sitzt der Chip quasi mittig über den PCI-E Anschluss bei der RDNA2 Karte leicht nach hinten versetzt, ist imo aber kein riesen Unterschied.
1-2cm - also zufällig der Platzbedarf von GDDR-Speicher. Zufall?
Bei HBM-Karten wird der Chip zentral über dem PCIe-Anschluss platziert, die Schrauben des Kühlers sind dabei der limitierende Faktor.
Die Position hier ist eher wie bei Navi 10 oder dem Engineering Board.
Macht es Sinn HBM2 und GDDR6 in einem Die zu kombinieren?
Nö. Das störende bei HBM ist der Interposer, der hat wenn ich mich recht erinnere bei Vega zu ziemlichen Problemen geführt.
Außerdem ist dafür eigentlich das Package zu klein.
----
Die in Fortnite abgebildeten Schrauben verhindern 12 Speichersteine, Maximum wäre dann 10.
320bit war bisher noch gar nicht im Gespräch. Passt aber auch zu keiner spekulierten Speichermenge
Berniyh
2020-09-15, 10:02:10
Das habe ich mich auch gefragt. Immerhin hat man bei der XBSX auch so eine merkwürdige Speichersegmentierung. Und bisher glauben wir das ist wegen der apu bzw. dem cputeil, der einfach mit weniger Bandbreite auskommt. Vielleicht ist das auch für eine reine GPU interessant?
Wenn man 1 stack HBM2e mit 256bit G6 kombiniert und parallel bzw. "dualchannel" ansteuert kommt man auf fast 1tb/s für die ersten 8gb. Der restliche Speicher läuft dann immer noch mit den 500gb/s rein im G6 weiter.
1 stack wäre auf dem package auch leicht unter zu bringen, der interposer wäre kaum größer als das Die. Sowas hat man ja sowohl für Intel als auch Apple schonmal gebaut. Auch die ganze HBCC Geschichte zielte ja darauf ab unterschiedliche schnelle, segmentierte Speicherbereiche möglichst effizient zu verwalten.
Wäre das nicht reichlich sinnlos? So kombiniert man ja schließlich das "Schlechte" aus beiden Welten.
Ne, wenn man schon einen Interposer einsetzt, dann wird man wohl auch komplett auf HBM setzen. Die Menge an Stacks und die Gesamtmenge an Speicher dürften da nicht mehr die wesentlichen Kostentreiber sein.
Zusätzlich noch GDDR6 zu verbauen macht das PCB komplizierter, kostet zudem noch GDDR6 Chips und Chipfläche (für das zusätzliche Interface).
w0mbat
2020-09-15, 10:04:03
Nicht nur das, es fehlen ja im Vergleich zu den früheren HBM Karten auch noch die oberen Bohrungen.
Und eben diese Dev Karte hat auch genau diese Bohrungen und GDDR6.
Insofern …
Ich sehe auf der Karte kein GDDR6, wo sieht man den?
Berniyh
2020-09-15, 10:05:07
Ich sehe auf der Karte kein GDDR6, wo sieht man den?
Irgendwo wurden doch die Footprints gehighlighted, oder?
davidzo
2020-09-15, 10:07:39
Da es keinen Sinn macht den Interposer nicht rechteckig zu machen. kannste auch gleich einen 2. HBM Stack dazuklatschen der Platz wird ja da sein und man kann sich den ganzen GDDR6 Kram sparen. Und ob ich nun einen HBM Stack draufklatsche oder 2 wird keinen grossen Kostenunterschied mehr machen.
Nicht wenn EMIB / TSMCs LSI genutzt wird. Was AMD ja schon vor 2 Jahren mit Kabylake G gemacht hat.
Außerdem ist die größe des Interposers nur eine Sache. Viel wichtiger für die Kosten ist der yield beim Packaging. Und der skaliert ganz genau mit der größe des Interconnects bzw. der Menge an DIEs. Die einzelnen Dies können vorher ja nur rudimentär getestet werden. Wenn ich jetzt ein package mit einer GPU, 4x HBM und 1x Interposer habe, muss nur ein Interconnect fehlerhaft sein oder ein Die einen katastrophalen Fehler haben und schon kann ich das ganze Package wegschmeißen. Bei 2 nur Dies ist das eine viel geringere Wahrscheinlicheit = besserer yield = günstigerer preis.
unl34shed
2020-09-15, 10:07:58
Bei Mobile Chips und Salvage nimmt man nur HBM oder GDDR und beim BigFish HBM+GDDR (geringere Kosten bei der hohen Speichermenge). Zum Beispiel 512-820 GB/s via HBM (2 Stacks) und 448-512 GB/s via 256bit GDDR6.
Die 820GB/s müssten für 80CUs theoretisch reichen, wenn man nicht vor hat einen V7 Nachfolger für den Profi Markt zu bringen. Wenn du die 80 CUs so weit beschneidet, dass du nicht mal mehr die 512GB/s brauchst, kannst du mMn auch einfach den kleineren Chip nehmen.
Bei einer Profi karte würde ich eher 4 stacks erwarten. Das ließe sich auch mit zwei unterschiedlichen Interposern lösen.
Langlay
2020-09-15, 10:08:03
1-2cm - also zufällig der Platzbedarf von GDDR-Speicher. Zufall?
Bei HBM-Karten wird der Chip zentral über dem PCIe-Anschluss platziert, die Schrauben des Kühlers sind dabei der limitierende Faktor.
Die Position hier ist eher wie bei Navi 10 oder dem Engineering Board.
Nicht bei jeder HBM Karte ist der Chip mittig über den PCB. Bei Vega10 ist der Chip leicht Richtung Slotblende versetzt.
https://tpucdn.com/gpu-specs/images/c/2871-pcb-front.jpg
Ohne die VRM zu kennen ist kann man imo nicht genau sagen ob es nun GDDR6 oder HBM ist. Es könnte auch einfach nur sein das die die VRM etwas mehr Platz braucht als bei der VII.
Und wie man sieht hätte man bei Vega10 das PCB sicherlich 5cm kürzer machen können ohne in irgendwelche Schwierigkeiten zu laufen.
Das mit den beiden Schrauben ist schon komisch. Dadurch bestätigt man aber im Prinzip, dass diese Dev Karte mit den 8 GDDR6 Bausteinen tatsächlich eine RDNA2 Karte war.
Ob nun Navi 21 oder 22 sei mal dahin gestellt, aber eigentlich würde man erwarten, dass AMD Big Navi zeigt.
Damit scheint sich diese 256 Bit Geschichte bei Big Navi langsam wirklich zu verfestigen. Sehr seltsam das ganze …
Na ja, wenn sich das so bestätigt, dann hat AMD den heiligen Gral in der Bandbreiteneinsparung gefunden :D.
Dann wäre die kleinere nur 128Bit :freak:
davidzo
2020-09-15, 10:11:13
Ich sehe auf der Karte kein GDDR6, wo sieht man den?
Bei der devkarte mit dem CPUkühler drauf sah man die.
Aber richtig, bei dieser karte gibts keine footprints zu sehen. Aber wenn man davon ausgeht dass die devkarte ebenfalls big navi ist, dann schon (beide 2x 8pin, ungefähr dieselbe Länge und GPU Position)
btw, ist GDDR6X eigentlich ausgeschlossen für Navi?
Die Devkarte war definitiv 16gb samsung, aber vielleucht icht der der topdog. Die könnte dann ebenfalls mit g6x kommen, mit 21gbps könnte man dann schon fast die 3080 ärgern.
Wäre das nicht reichlich sinnlos? So kombiniert man ja schließlich das "Schlechte" aus beiden Welten.
Ne, wenn man schon einen Interposer einsetzt, dann wird man wohl auch komplett auf HBM setzen. Die Menge an Stacks und die Gesamtmenge an Speicher dürften da nicht mehr die wesentlichen Kostentreiber sein.
Zusätzlich noch GDDR6 zu verbauen macht das PCB komplizierter, kostet zudem noch GDDR6 Chips und Chipfläche (für das zusätzliche Interface).
Es wäre nicht das schlechte aus beiden welten. 256bit G6 macht das PCB schön kontrollierbar und hält die Größe und Kosten im rahmen gegenüber 384 oder 512bit. Und HBM erfordert keinen Interposer mehr, Kabylake G hat das auch nicht gebraucht und TSMC hat mit LSI eine ähnliche Packagingtechnologie im Angebot die zu diesem Zeitpunkt gerade in Massenproduktion gehen dürfte. Und ja, Packagingkosten skalieren sicher nicht nur pro chip und pro prozessschritt, sondern auch pro micrbump. Der Packaging Yield ja sowieso...
Complicated
2020-09-15, 10:15:19
Bezüglich der 256bit+128MB = 384bit
Leider wird völlig ignoriert, dass er dazu auch GDDR6X genannt hat, was wohl auszuschließen ist. Und damit muss man sich damit wohl nicht weiter beschäftigen im Bezug zum Gaming-Produkt. Vielleicht macht CDNA so etwas, doch ich bin derzeit eher der Meinung, dass dieser Infinity Cache Humbug ist, für Gaming.
unl34shed
2020-09-15, 10:16:58
Nicht wenn EMIB / TSMCs LSI genutzt wird. Was AMD ja schon vor 2 Jahren mit Kabylake G gemacht hat.
Vielleicht braucht es auch gar keinen Interposer mehr.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12423595#post12423595
Langlay
2020-09-15, 10:18:03
Außerdem ist die größe des Interposers nur eine Sache. Viel wichtiger für die Kosten ist der yield beim Packaging. Und der skaliert ganz genau mit der größe des Interconnects bzw. der Menge an DIEs. Die einzelnen Dies können vorher ja nur rudimentär getestet werden. Wenn ich jetzt ein package mit einer GPU, 4x HBM und 1x Interposer habe, muss nur ein Interconnect fehlerhaft sein oder ein Die einen katastrophalen Fehler haben und schon kann ich das ganze Package wegschmeißen. Bei 2 nur Dies ist das eine viel geringere Wahrscheinlicheit = besserer yield = günstigerer preis.
Wie gesagt, vor 3 Jahren konnte AMD einen 472mm² Chip (Vega56) + 2 Stacks HBM für 400€ verkaufen, wir reden hier 3 Jahre später über eine Karte die 700€+ kosten wird, das ich seh nicht wieso das Wirtschaftlich nicht drin sein solle.
Und ich bin der Meinung auch irgendwann mal gelesen zu haben das der Packaging Yield am Ende ziemlich gut war, ich finde es die News/Meldung nur nicht mehr.
Cyberfries
2020-09-15, 10:19:16
Irgendwo wurden doch die Footprints gehighlighted, oder?
Beim Engineering Board? Hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420521&postcount=10630
Bei Vega10 ist der Chip leicht Richtung Slotblende versetzt.
Danke für den Hinweis. Ist aber wirklich nur minimal
Die könnte dann ebenfalls mit g6x kommen, mit 21gbps könnte man dann schon fast die 3080 ärgern.
Mit 8GB RAM und 19,5Gbps? Mehr gibts vor 2021 nicht.
Leider wird völlig ignoriert, dass er dazu auch GDDR6X genannt hat
RGT hat explizit GDDR6 gesagt und GDDR6X verneint.
Complicated
2020-09-15, 10:21:20
RGT hat explizit GDDR6 gesagt und GDDR6X verneint.
IMHO hat er explizit GDDR6X genannt als er den IF-Cache nennt. Ich werde mir das heute Abend noch mal anhören.
why_me
2020-09-15, 10:21:42
1-2cm - also zufällig der Platzbedarf von GDDR-Speicher. Zufall?
Bei HBM-Karten wird der Chip zentral über dem PCIe-Anschluss platziert, die Schrauben des Kühlers sind dabei der limitierende Faktor.
Die Position hier ist eher wie bei Navi 10 oder dem Engineering Board.
Das würde ich bei den bisherigen Karten als Zufall abtun und nicht als Regel. Prinzipiell sollte der Chip doch leichter zu kühlen sein, wenn er weiter in der Mitte sitzt, da sich die Wärme besser in beide Richtungen auf dem Kühler ausbreiten kann.
[MK2]Mythos
2020-09-15, 10:23:10
IMHO hat er explizit GDDR6X genannt als er den IF-Cache nennt. Ich werde mir das heute Abend noch mal anhören.
Nein, explizit GDDR6
basix
2020-09-15, 10:23:16
Na ja, wenn sich das so bestätigt, dann hat AMD den heiligen Gral in der Bandbreiteneinsparung gefunden :D.
Dann wäre die kleinere nur 128Bit :freak:
AMD forscht schon lange an PIM (Processing In Memory). Wie würde so ein Infinity Cache aussehen, wenn das GPU Die in 7nm gefertigt wird und ein 12nm SRAM Cache darunter gestacked wird? Nimmt man Zen 1 L3$ als Grundlage, wäre 128MB etwa 320mm2 gross. Würde passen.
Vielleicht war die Aussage "Halo Product" nicht auf die Performance-Krone abgezielt sondern auf eine neue, bahnbrechende Technologie.
Erwarte ich zwar alles nicht, wäre aber trotzdem spannend ;)
w0mbat
2020-09-15, 10:26:07
Beim Engineering Board? Hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12420521&postcount=10630
Danke. Und ja, das ist sehr eindeutig GDDR6.
Vielleicht stimmt das mit dem 128MB cache doch :freak:
davidzo
2020-09-15, 10:31:45
Wie gesagt, vor 3 Jahren konnte AMD einen 472mm² Chip (Vega56) + 2 Stacks HBM für 400€ verkaufen, wir reden hier 3 Jahre später über eine Karte die 700€+ kosten wird, das ich seh nicht wieso das Wirtschaftlich nicht drin sein solle.
Und ich bin der Meinung auch irgendwann mal gelesen zu haben das der Packaging Yield am Ende ziemlich gut war, ich finde es die News/Meldung nur nicht mehr.
Ich bin der Meinung mal gelesen zu haben das sich AMD damit ein ziemlich blaues Auge geholt hat.
Und ja, das mit dem Packaging Yield war aus den TSMC Folien. Ich interpretiere das so: Sie mussten über den packaging yield sprechen, weil dieser ein so großes Problem war. Man muss nachfolgenden Kunden ja irgendwie vermitteln dass das problem jetzt gelöst ist. Allerdings ist es nicht schwer mit ein bisschen kreativität am ende des produktionsruns einen guten yield zu messen.
Für ein neues produkt, neue Dies, hbm2e, möglicherweise neue packagingtechnologie, fängts imo wieder von vorne an.
Mit 8GB RAM und 19,5Gbps? Mehr gibts vor 2021 nicht.
Wieso werden denn auf den 3090 Karten schon 21gbps verbaut?
stinki
2020-09-15, 10:38:12
GA104 hat ja auch ein 256bit Interface bei 48*128 (=6144) FP32 Recheneinheiten.
Und GA104 hat auch nur ein 256bit GDDR6 Interface.
Aber viel mehr als GA104 Leistung erwarte ich dann auch nicht.
AMD forscht schon lange an PIM (Processing In Memory). Wie würde so ein Infinity Cache aussehen, wenn das GPU Die in 7nm gefertigt wird und ein 12nm SRAM Cache darunter gestacked wird? Nimmt man Zen 1 L3$ als Grundlage, wäre 128MB etwa 320mm2 gross. Würde passen.
Vielleicht war die Aussage "Halo Product" nicht auf die Performance-Krone abgezielt sondern auf eine neue, bahnbrechende Technologie.
Erwarte ich zwar alles nicht, wäre aber trotzdem spannend ;)
Dann wäre der Cache ja gar nicht auf der GPU selber, was den Chip nicht unnötig verteuern würde. Wenn man den Gedanken weiterspinnt, könnten die GDDR6-Controller und das restliche I/O ebenfalls auf dem 12nm-Chip sein. Aber das wäre mMn was für N31, das jetzige Produkt wird wohl einfach den Cache integrieren.
stinki
das ergibt bei 50% mehr Perf/W und offiziell 25% höherer IPC bei 80CUs einfach keinen Sinn. Es fehlt ne Info, wie die das gemacht haben.
Armaq
2020-09-15, 10:41:06
https://twitter.com/JayzTwoCents/status/1305764608137805824
Das ist interessant. Er sagt auch die ganze Zeit, dass die Leute noch nichts kaufen sollen. Vll. bekommt er ja bisschen Futter von AMD.
[MK2]Mythos
2020-09-15, 10:44:37
"A breaktrough gaming Architecture" verspricht ja der kurze RDNA2 Marketing Teaser. Vielleicht spielt der tatsächlich eben auf ein neues Design inkl mega Cache an.
Langlay
2020-09-15, 10:44:52
Für ein neues produkt, neue Dies, hbm2e, möglicherweise neue packagingtechnologie, fängts imo wieder von vorne an.
Naja man fängt nicht bei 0, du fängst tiefer an als vorher ja, aber wenn das Verfahren gleich bleibt, sollte man schon auf einem recht hohen Niveau wieder anfangen. Wenn ich einen State of the Art Prozess jahrelang nutze und den dann etwas anpasse ist. Die Technik/Verfahrensweise ja nicht mehr State of the Art sondern ein etablierter Prozess den man relativ gut versteht. Also sollten die Anlaufschwierigkeiten deutlich kleiner ausfallen.
X-Box 320Bit für 52CUs
PS 5 256Bit für 36CUs
Und jetzt sollen auf einmal 256Bit für 80CUs reichen ?
Da glaube ich eher noch an HBM2e :freak:
M.f.G. JVC
Cyberfries
2020-09-15, 10:48:30
Wieso werden denn auf den 3090 Karten schon 21gbps verbaut?
Das wäre mir neu, alle mir bekannten Partnerkarten setzen wie die Referenz auf 19,5Gpbs.
Wenn jemand den Speicher schon auf 21 übertaktet hat - Respekt.
Was zählt ist aber die Referenz, denn dort wird eingesetzt was es vom Lieferanten direkt gibt.
Polaris ging auch nie über 4000mhz.
davidzo
2020-09-15, 10:48:40
GA104 hat ja auch ein 256bit Interface bei 48*128 (=6144) FP32 Recheneinheiten.
Und GA104 hat auch nur ein 256bit GDDR6 Interface.
Aber viel mehr als GA104 Leistung erwarte ich dann auch nicht.
5120sp bei RDNA sind definitiv mehr als 6144 Ampere-Cuda-Cores. In der Realität kann man bei Ampere eher mit 3072 + 25%, also 3840 rechnen, zur vergleichbarkeit clock for clock mit turing und rdna1.
Es sind keine zusätzlichen Einheiten, die bisherigen Int32 Einheiten von turing können nur jetzt umschalten zu FP32, es sind also "entweder oder" einheiten. Nach allem was wir bisher wissen bringen die nur ca. 25% Mehrleistung, da die nebenbei noch immer wieder mal als Int32 arbeiten müssen und die chiporganisation pro Alu nicht mehr so effizient ist wie bei turing. Der Rest kommt durch mehr SMs, GPC (in der jeweiligen Klasse) und etwas Takt.
Ausgehend davon das RDNA1 schon ungefähr dieselbe IPC hat wie Turing, ist eine Verdopplung der CUs auf 80 (+100%) wesentlich höher anzusiedeln als das Update von 2070 super auf 3070, nämlich 40CU auf 46 CU (+15%) und die neuen FP32 Alus (+25% Leistung). Und da ist der vorraussichtlich hohe Taktratenzugewinn von RDNA2 noch gar nicht eingerechnet.
JVC
Na ja, die Konsolen haben diesen Cache ja dann nicht.
Cyberfries
AFAIK ist das 21GT Speicher, nur NVs Controller packen das offenbar nicht. Die Übertaktung klappt wohl öfter bis 21GT, aber eben nicht immer stabil. Das war jedenfalls die Gerüchtelage aus China.
w0mbat
2020-09-15, 10:52:08
Stimmt, wenn der cache Teil von RDNA2 wären, hätten wir davon schon gehört-
GA104 hat nen 256-bit SI und GDDR6, dann wird Big Navi wohl in einer ähnlichen Liga spielen.
@HOT
OK, wenn man mit 256Bit tatsächlich auskommt
und dabei nicht mal auf teuren GDDR6X setzen muss..
Dann muss die Karte ja verdammt gut vom P/L her werden ....
(16Gb, etwas über 2080Ti, für 399.- ? Das wäre ein "Killer". 8Gb GDDR6 gibt es ja schon ab ~180.- Karten)
M.f.G. JVC
mironicus
2020-09-15, 10:54:11
Mythos;12425997']"A breaktrough gaming Architecture" verspricht ja der kurze RDNA2 Marketing Teaser. Vielleicht spielt der tatsächlich eben auf ein neues Design inkl mega Cache an.
Diesen Mega Cache sehe ich bei den Konsolen-APUs nicht. Aber für die Desktopvariante kann AMD natürlich auch andere Dinge einbauen.
Ich sehe AMD eher als gut darin, sehr effiziente und kleine Chips bauen zu wollen. Also lieber weniger Cache und dafür eine besser skalierbare Architektur mit hohen Taktraten.
davidzo
2020-09-15, 10:54:49
Naja man fängt nicht bei 0, du fängst tiefer an als vorher ja, aber wenn das Verfahren gleich bleibt, sollte man schon auf einem recht hohen Niveau wieder anfangen. Wenn ich einen State of the Art Prozess jahrelang nutze und den dann etwas anpasse ist. Die Technik/Verfahrensweise ja nicht mehr State of the Art sondern ein etablierter Prozess den man relativ gut versteht. Also sollten die Anlaufschwierigkeiten deutlich kleiner ausfallen.
Hier nochmal die Präsentation die du meintest:
https://fuse.wikichip.org/news/2567/tsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging/2/
Interessanterweise spricht TSMC da bei COWOs von einer "5 year old and proven"-Technologie. Und preist in der nächsten Folie InFO_oS an, mit "better scalability, better yield" und wikichip beschreibt das als "performance-cost sensitive alternative to CoWos". Ramp 2018 (CoWos war 2014), das passt also gut ins Zeitfenster.
Mit InFO_oS ist HBM2E + Chip wesentlich günstiger möglich, zudem scheint man sich dabei auf 2-chip Verbindungen im package zu konzentrieren, multichip wird da nicht dargestellt.
InFO_oS braucht gar kein Interposer und auch kein EMIB, sondern wird direkt über das Package connected. Einziger Nachteil ist die limitierte Größe und Chipanzahl. Es ist maximal 1x reticle = 65x65mm bzw. 830mm2 erlaubt, was hier aber Dicke reichen würde, selbst für 2 stacks.
@HOT
OK, wenn man mit 256Bit tatsächlich auskommt
und dabei nicht mal auf teuren GDDR6X setzen muss..
Dann muss die Karte ja verdammt gut vom P/L her werden ....
M.f.G. JVC
Nicht wirklich, weil es ja den Chip um 100-120mm² vergrößern wird. Da hast du auch den Grund, warum die Konsolen das nicht machen. Ich wette, dass der Mega-Cache der schlechtere Deal von den Kosten her ist, aber der erheblich bessere in Sachen TDP und Performance. Vielleicht hat ja der unified-Cache aus Zen3 ebenfalls diese bahnbrechende Technologie mit an Board, also Infinity-Cache bei Zen3 und RDNA2.
In 5nm könnte man den Cache dann wirklich auf ein separates Die machen und das mit den I/O-Dies stacken -> IA3? Zudem kann der RDNA3-I/O-Die ebenfalls gestackt werden und noch größere Caches beinhalten. Die Möglichkeiten sind gewaltig und alles in 12LP+ bei GloFo :D.
Ravenhearth
2020-09-15, 11:13:04
Nicht wirklich, weil es ja den Chip um 100-120mm² vergrößern wird. Da hast du auch den Grund, warum die Konsolen das nicht machen. Ich wette, dass der Mega-Cache der schlechtere Deal von den Kosten her ist, aber der erheblich bessere in Sachen TDP und Performance. Ich würde mal darauf wetten, die 25% mehr IPC sind nicht zuletzt diesem Cache zu verdanken (und der Optimierung der restlichen Cache-Struktur). Vielleicht hat ja der unified-Cache aus Zen3 ebenfalls diese bahnbrechende Technologie mit an Board, also Infinity-Cache bei Zen3 und RDNA2.
Wie kommst du auf 25% mehr IPC?
Mein Fehler, war ne RDNA1-Folie :D.
Mein Fehler, war ne RDNA1-Folie :D.
@Gipsel
Finde die Folie leider nicht mehr. Gehe daher davon aus, dass es sich um RDNA1 gehandelt hat - sorry
Complicated
2020-09-15, 12:11:07
Danke. Und ja, das ist sehr eindeutig GDDR6.
Mythos;12425965']Nein, explizit GDDR6
RGT hat explizit GDDR6 gesagt und GDDR6X verneint.
Danke euch für die Korrektur - ich hatte das falsch abgespeichert, da er Nvidias Konfig beschrieben hatte zum Vergleich :)
basix
2020-09-15, 12:38:50
Mit InFO_oS ist HBM2E + Chip wesentlich günstiger möglich, zudem scheint man sich dabei auf 2-chip Verbindungen im package zu konzentrieren, multichip wird da nicht dargestellt.
InFO_oS braucht gar kein Interposer und auch kein EMIB, sondern wird direkt über das Package connected. Einziger Nachteil ist die limitierte Größe und Chipanzahl. Es ist maximal 1x reticle = 65x65mm bzw. 830mm2 erlaubt, was hier aber Dicke reichen würde, selbst für 2 stacks.
Ist nicht InFO_MS geeigneter für HBM? HBM wird explizit erwähnt.
For AI applications and similar workloads, TSMC has InFO with memory on substrate designed to integrate with HBM. This technology currently features RDL L/S of 2 μm /2 μm and is limited to a single reticle. In many ways TSMC is billing InFO_MS a performance-cost sensitive alternative to CoWoS.
Daredevil
2020-09-15, 12:40:00
habt ihr das engeniering board vergessen? es hat genau diese schrauben und noch mehr unter der backplate.
https://twitter.com/Avery78/status/1303822358440935424
256bit gddr6 confirmed!
Hm ja gut.... dann magst du wohl recht haben.
ABER DIE TITAN V HAT DA AUCH LÖCHER!!!11111
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fxdevs.com%2Fdoc%2F_PC_HW%2FNPG500%2Ftop.jpg&f=1&nofb=1
Und die 3080 hat GDDR6X, dort kannste aber kein Loch rein machen. :(
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg
Aber gut.... wenn es 12GB sein sollen und jeweilt 3x2GB oben und unten sind, nun.
Dino-Fossil
2020-09-15, 12:44:17
Letztlich kann man doch davon ausgehen, dass AMD ganz gut abschätzen kann, wieviel Bandbreite sie für die angepeilte Leistung benötigen.
Also entweder 256bit GDDR6 (plus Cache?) genügen, oder BN bekommt mehr, ich bin da jetzt eher gelassen...
Diesen Mega Cache sehe ich bei den Konsolen-APUs nicht. Aber für die Desktopvariante kann AMD natürlich auch andere Dinge einbauen.
Ich sehe AMD eher als gut darin, sehr effiziente und kleine Chips bauen zu wollen. Also lieber weniger Cache und dafür eine besser skalierbare Architektur mit hohen Taktraten.
Hm, vielleicht sind die Konsolen SoCs aber auch einfach zu alt. Man hat ja auch den Unified-Cache von Zen3 nicht verbaut. Es kann sein, dass man diese Technologien erst fertiggestellt hat, nachdem man mit den SoCs fertig war. Die SoCs müssen ja auch schon Anfang 19 ins Silizium überführt worden sein, also sicherlich in N7 HPC.
N2x hatte erst im November Tape Out und Zen3 erst im Sommer 19. Daher erwarte ich bei den neueren Chips auch deutlich höhere Packdichten, Renoir schafft ja 63mio/mm², worauf mich der gute davidzo hinwies. Das dürfte allgemein bei N7e machbar sein, vielleicht schlägt das auch auf RDNA2 und Zen3 durch? Damit könnte man ~30mia Transistoren bei 505mm² schaffen.
mboeller
2020-09-15, 12:54:24
Stimmt, wenn der cache Teil von RDNA2 wären, hätten wir davon schon gehört-
GA104 hat nen 256-bit SI und GDDR6, dann wird Big Navi wohl in einer ähnlichen Liga spielen.
die XBox Series X soll doch auch 76MB Cache haben; auch wenn man ihn auf dem Die-Shot nicht sieht.
80/52 x 76 = 117MB .... passt also fast.
Die 128MB sind vielleicht nur die Summe der ganzen Caches bei BigNavi und kein zusätzlicher Cache. Bei der ganzen Gerüchte-Suppe könnte das irgendwie falsch interpretiert worden sein.
Berniyh
2020-09-15, 12:59:05
Wenn man den Gedanken weiterspinnt, könnten die GDDR6-Controller und das restliche I/O ebenfalls auf dem 12nm-Chip sein. Aber das wäre mMn was für N31, das jetzige Produkt wird wohl einfach den Cache integrieren.
Das stimmt, irgendwie würde so ein Cache viel mehr zu RDNA3 passen (wenn sich das Chiplet-Design dort bewahrheiten sollte).
(Wobei dort evtl. dann ggf. aufgeteilt auf Rechenchiplets (sollten es mehr als 1 pro GPU sein) und IO Die.
Diesen Mega Cache sehe ich bei den Konsolen-APUs nicht. Aber für die Desktopvariante kann AMD natürlich auch andere Dinge einbauen.
Stimmt, aber wenn man damit effektiv Bandbreite sparen kann und mit weniger RAM Bausteinen auskommt, dann würde man doch erwarten, dass man das auch für die Konsolen umsetzt, oder?
Ist aber halt die Frage was da wirklich Kosten verursacht bzw. spart.
Evtl. war es bei den Konsolen halt günstiger das ohne Cache zu bauen, beim Desktop ist es aber günstiger mit Cache zu arbeiten.
Ich stehe dem aber ehrlich gesagt immer noch sehr skeptisch gegenüber, also diese 256 Bit + Cache glaube ich erst, wenn es offiziell angekündigt wurde.
Berniyh
2020-09-15, 13:00:59
die XBox Series X soll doch auch 76MB Cache haben; auch wenn man ihn auf dem Die-Shot nicht sieht.
80/52 x 76 = 117MB .... passt also fast.
Die 128MB sind vielleicht nur die Summe der ganzen Caches bei BigNavi und kein zusätzlicher Cache. Bei der ganzen Gerüchte-Suppe könnte das irgendwie falsch interpretiert worden sein.
Dann wäre aber das Speicherinterface der XBox deutlich überdimensoniert, im Vergleich zu den mutmaßlich 256 Bit von Big Navi.
die XBox Series X soll doch auch 76MB Cache haben; auch wenn man ihn auf dem Die-Shot nicht sieht.
80/52 x 76 = 117MB .... passt also fast.
Die 128MB sind vielleicht nur die Summe der ganzen Caches bei BigNavi und kein zusätzlicher Cache. Bei der ganzen Gerüchte-Suppe könnte das irgendwie falsch interpretiert worden sein.Caches waren AMD schon bei Zen ein billiges Mittel zur Leistungssteigering, wäre bei BN doch auch gut. Je mehr Unterschiedliche Einheiten GPUs haben, desto mehr Aufwand sie in jeder Konstelation voll auszulasten, Caches können da oft helfen, esseiden die Einheiten kämpfen um den.
BlacKi
2020-09-15, 13:43:32
wie groß, also in mm² wären denn 128mb cache? könnte es die größe der rückseite des chips erklären? wäre das wieder so ein feature wie hbcc das schlecht umgesetzt werden kann?
Na ja, wenn sich das so bestätigt, dann hat AMD den heiligen Gral in der Bandbreiteneinsparung gefunden :D.
Dann wäre die kleinere nur 128Bit :freak:
das hab ich mir auch gedacht, aber da ist noch zuviel unklar das ich das ernst nehme.
@HOT
OK, wenn man mit 256Bit tatsächlich auskommt
und dabei nicht mal auf teuren GDDR6X setzen muss..
Dann muss die Karte ja verdammt gut vom P/L her werden ....
(16Gb, etwas über 2080Ti, für 399.- ? Das wäre ein "Killer". 8Gb GDDR6 gibt es ja schon ab ~180.- Karten)
was kostet alleine 16gb gddr6? 150-200$? ausserdem gehen wir doch mittlerweile davon aus das amd die preise von nv mitgeht. eine 16gb radeon mit 3070/2080ti leistung wird definitiv mehr kosten als eine 3070. hat ja auch doppelt soviel vram.
Hm ja gut.... dann magst du wohl recht haben.
ABER DIE TITAN V HAT DA AUCH LÖCHER!!!11111
Und die 3080 hat GDDR6X, dort kannste aber kein Loch rein machen. :(
Aber gut.... wenn es 12GB sein sollen und jeweilt 3x2GB oben und unten sind, nun.
dort sind die löcher zwischen den 4 äusseren kühler montage löchern aber auf einer linie, bei dem testboard und der rx6000 aus fortnite sind die zusätzlichen löcher offset.
Cyberfries
2020-09-15, 13:50:52
Die 128MB sind vielleicht nur die Summe der ganzen Caches bei BigNavi und kein zusätzlicher Cache.
Nein.
- Infinity Cache angeblich zusätzlich zu bekannter L0/L1/L2-Cache Struktur.
-----
An ein 256bit-Interface glaube ich immer noch nicht, Grund dafür ist der Speicher zwischen PCIe und Chip.
Unten auch anhand einer 5700XT visualisiert, Speicher grün, Schrauben orange.
Grundsätzlich erinnert das Eng.Board an N10 um 90° gedreht. Die rot markierten PCIe-Links müssten
zwischen Slotblende und Chip raus und dann um den Speicher herum geführt werden. Das ist Irrsinn.
Speicher würde immer zuerst links, oben und rechts angeordnet werden, bevor irgendetwas nach unten wandert.
Dank der Schrauben ist dort aber nur Platz für 7 Speichersteine und das Eng.Board zeigt 3 Speicher unten.
Die einzige logische Schlussfolgerung ist also, dass das Interface nicht 256bit groß ist.
Außer: Zwischen Slotblende und Chip wird der Platz für "Special Sauce" benötigt.
edit: Nach etwas mehr Recherche ist mir aufgefallen, dass das in jüngerer Vergangenheit schon vorgekommen ist.
Die PCIe-Leitungen werden bei dieser MSI 2080Ti wie beschrieben um den Speicher herum verlegt.
https://ftp.nluug.nl/pub/games/PC/guru3d/img-cache/msi-geforce-rtx-2080-ti-lightning-front.jpg
Gipsel
2020-09-15, 14:01:04
die XBox Series X soll doch auch 76MB Cache haben; auch wenn man ihn auf dem Die-Shot nicht sieht.Kein Cache, sondern SRAM. Und davon sieht man auf dem Die-Shot eine ganze Menge. Pro CU hat man ja schon knapp 400kB SRAM oder so. Da zählen die wirklich Alles, nicht nur Cache.
Complicated
2020-09-15, 14:20:22
Ich glaube fast AMD hat den HBCC umbenannt und der IF-Cache dient als Cache zu SSDs ohne HBM. Dies wird hier vielleicht fälschlicherweise der falschen Bandbreite zugeordnet (VRAM). Das könnte ein SSD-Beschleunigung dienen über die ja auch bei den Konsolen gesprochen wird. Möglicherweise eben mit atomic write/read wie beim HBCC.
basix
2020-09-15, 14:22:56
Ich glaube fast AMD hat den HBCC umbenannt und der IF-Cache dient als Cache zu SSDs ohne HBM. Dies wird hier vielleicht fälschlicherweise der falschen Bandbreite zugeordnet (VRAM). Das könnte ein SSD-Beschleunigung dienen über die ja auch bei den Konsolen gesprochen wird. Möglicherweise eben mit atomic write/read wie beim HBCC.
Guter Gedanke. Zumindest käme das dem "Infinity" relativ nahe, wenn man extrem viel Speicher via SSD verwenden kann.
Ich glaube fast AMD hat den HBCC umbenannt und der IF-Cache dient als Cache zu SSDs ....
Cache für "Direkt-Storage", das könnte es sein...
An sonnst, Das.
Letztlich kann man doch davon ausgehen, dass AMD ganz gut abschätzen kann, wieviel Bandbreite sie für die angepeilte Leistung benötigen.
... ich bin da jetzt eher gelassen...
M.f.G. JVC
r3ptil3
2020-09-15, 14:24:36
Das ist interessant. Er sagt auch die ganze Zeit, dass die Leute noch nichts kaufen sollen. Vll. bekommt er ja bisschen Futter von AMD.
Wenn das durch AMD initiiert wurde, dann durchaus möglich, da er Millionen Leute anspricht.
Wenn da aber am "don't buy" etwas dran sein sollte, dann hätten wir schon Leaks von anderer Quelle mit irgendwelchen Benchmark-Werten.
Für mich ist jedenfalls klar, dass da ein sehr gutes Produkt kommt mit endlich genug Speicher (16Gb), aber leistungsmässig weit über einer 2080 Ti ist illusorisch.
Daredevil
2020-09-15, 14:26:04
Das ist interessant. Er sagt auch die ganze Zeit, dass die Leute noch nichts kaufen sollen. Vll. bekommt er ja bisschen Futter von AMD.
Das sagt er quasi jedes Jahr, das ist zumindest nicht ganz neu.
https://abload.de/img/unbenanntqhkf1.png
Berniyh
2020-09-15, 14:32:57
Also quasi "Mr. Don't!" :freak:
BlacKi
2020-09-15, 14:39:33
Guter Gedanke. Zumindest käme das dem "Infinity" relativ nahe, wenn man extrem viel Speicher via SSD verwenden kann.
das ändert aber nichts an der mangelnden bandbreite direct storage behebt einen vram mange, den ich mit 16gb nicht sehe, aber der bandbreiten mangel bleibt bestehen.
@jvc da hat dino recht, aber das lässt aber auch tief blicken wenn man sich das dev board anschaut. da kannst du fast die performance ablesen.
Lehdro
2020-09-15, 14:52:28
Redgamingtech gehörte damals auch zu der 5GHz-Zen2-Fraktion. Wahrscheinlich mit immer noch denselben Quellen. ;D
Und er war einer der ganz wenigen der die Radeon VII perfekt geleakt (https://www.youtube.com/watch?v=6pBGczTg97Y) hat, als noch alle anderen "UNSINN!!!111" (https://www.3dcenter.org/news/amd-stellt-vega-20-als-erste-7nm-gpu-vor) geschrien haben.
Darf man dich dazu zitieren?
Erstens passt der Link nicht zu dem Rest deines Beitrages, zweitens wird es keine Consumer-V20 geben. Mein Gott, realisiert das doch endlich mal.
Wenn hier in jedem zweiten Beitrag irgendjemand um die Ecke kommt, der mit 'nem Consumer-Vega in 7nm rechnet/einen erwartet, nimmt das langsam einfach abstruse Züge an. Realitätsverweigerung. Von irgendwelchen >=2080-Performanceträumern mal ganz zu schweigen.
Es ist nicht einmal sinnvoll, wie man überhaupt auf diese Idee(n) kommt. Es ergibt einfach vorne und hinten nicht einmal annähernd Sinn und trotzdem fängt man jedes mal von vorne an. Immer und immer wieder.
usw
Wir sollten auf deine Posts gar nichts mehr geben, denn du lagst schon einmal falsch! /s
Nimm das bitte nicht persönlich, aber ich finde dieses von vorneherein kategorische Ausschließen von Leakern und Quellen per se unangebracht, nur weil sie einmal falsch lagen. Wir hatten in letzter Zeit schon mehrere Fälle, in denen die unwahrscheinlichste Lösung, die quasi jeder kategorisch ausgeschlossen hatte, sich doch bewahrheitet hat. Beste Beispiele: Ampere FP32 Verdoppelung und Consumer Vega 20. Davon gibt es aber noch viele weitere, man muss nur mal Richtung Mobile schielen, was Renoir so aus den Prognosen gemacht hat...
tl;dr: Glaubt nicht Jedem oder jeden Quatsch bei Leaks. Aber haut nicht jeden Leaker immer gleich in die Tonne nur weil mal etwas nicht stimmt. Jeder Leaker hat schon einmal daneben gegriffen - Falschinformationen können auch bewusst gestreut werden, von wem auch immer. NV und AMD sind heutzutage deutlich zugeknöpfter was Leaks angeht, also weichen der Leaker und Leakenden auch auf andere Kanäle und Quellen aus, war aber mit mehr Risiko für unsere Leaker verbunden ist, Falschinformationen aufzusitzen.
BlacKi
2020-09-15, 15:04:47
da nun 16gbps an 256 ja nun feststehen:wink: wollte ich mal wissen, was wäre wenn amd 30% effizienter als n10 mit der bandbreite umgehen könnte und man das auf die gesammtpeformance umrechnen würde.
ich komme da auf +43% ggü. 5700xt. das würde nichtmal für die 2080ti reichen. also ich kann mir da keinen reim drauf machen, zumindest aktuell nicht.
unl34shed
2020-09-15, 15:13:47
Und das bei 100% mehr CUs... Ich hoffe du siehst dass da was nicht zusammen passen kann.
BlacKi
2020-09-15, 15:22:57
eben
Die Bandbreite würd ich erst mal komplett außen vor lassen. Wenn man das so gestaltet, dann hat man Technologien, mit denen das funktioniert. Ich würd da erst mal einfach die 50% mehr Perf/W, die 80CUs, mehr IPC (nicht 25% :freak:) und 2,2GHz Takt sehen. Die Bandbreite ergibt sich dann durch Technologie.
Screemer
2020-09-15, 15:38:53
da nun 16gbps an 256 ja nun feststehen:wink: wollte ich mal wissen, was wäre wenn amd 30% effizienter als n10 mit der bandbreite umgehen könnte und man das auf die gesammtpeformance umrechnen würde.
ich komme da auf +43% ggü. 5700xt. das würde nichtmal für die 2080ti reichen. also ich kann mir da keinen reim drauf machen, zumindest aktuell nicht.
wäre doch für ne 300-350€ karte gar nicht so schlecht. so als nachfolger der 580/480.
BlacKi
2020-09-15, 15:49:09
der punkt ist aber, das die rückansicht der beiden letzten besprochenen bildern eine rießige gpu (im verhältnis zu n10)vermuten lassen. zusammen mit 16gb kann das nicht billig werden. ich würde sagen wir sehen hier hardware für 500-600€ mindestens.
Ravenhearth
2020-09-15, 15:49:25
wäre doch für ne 300-350€ karte gar nicht so schlecht. so als nachfolger der 580/480.
Ein 480/580-Nachfolger müsste allerdings im Bereich 200-300€ liegen. Da bekommt man diese Generation wohl erstmal was mit max. 40 CUs, als Konkurrenz zu GA106 mit max. 30 SMs. Eine Karte die 43% oder mehr auf die 5700XT drauflegt, kommt in die Nähe der 2080 Ti und ist eher was für den Bereich 400-500€ (vs. GA104).
der punkt ist aber, das die rückansicht der beiden letzten besprochenen bildern eine rießige gpu vermuten lassen. zusammen mit 16gb kann das nicht billig werden. ich würde sagen wir sehen hier hardware für 500-600€ mindestens.
Ja, falls es die Karte mit der 3080 aufnehmen kann, wird man es sich nicht nehmen lassen, dafür 699€ zu verlangen. Das Zweitmodell dann etwas darunter.
why_me
2020-09-15, 15:56:26
Vielleicht sehen wir ja das folgende:
"Extreme-bandwidth scalable performance-per-watt GPU architecture" (https://www.freepatentsonline.com/10509596.pdf), darin fallen auch Worte wie "cache fabric".
Hab aber gerade nicht die Zeit, es zu lesen, verstehen ist dann noch einmal etwas anderes. Vielleicht ist ja jemandem Langweilig und er braucht etwas Ablenkung.
BoMbY
2020-09-15, 16:17:10
Vielleicht sehen wir ja das folgende:
"Extreme-bandwidth scalable performance-per-watt GPU architecture" (https://www.freepatentsonline.com/10509596.pdf), darin fallen auch Worte wie "cache fabric".
Das bezieht sich explizit auf 3D Stacked SRAM Speicher auf dem GPU-Die, wenn ich das richtig sehe? Könnte aber auf jeden Fall passen.
Complicated
2020-09-15, 16:25:35
Allerdings wird in der Einleitung spezifisch "Exascale-Memory" genannt. Würde eher zu CDNA passen als RDNA
why_me
2020-09-15, 16:25:44
Auf den zweiten blick könnte es natürlich auch falsch sein, je nachdem wie man den Titel liest (zu was zählt das scalable?).
Für mich haben die Stichworte, bandbreite, perf/W und cache fabric im ersten Moment zu den aktuellen Gerüchten gepasst.
Hakim
2020-09-15, 16:34:34
Kann es sein das die in Fortnite gezeigte Karte einfach eine Radeon Pro Version darstellt? Die Kühler scheinen Tick kleiner als auf dem anderen Bild und der typische Blaue Ton bei den Pros
BoMbY
2020-09-15, 16:37:48
Die Arbeit für das Patent wurde auch vom Lawrence Livermore National Lab. (LLNL) bezahlt, die welche El Capitan bestellt haben (https://www.llnl.gov/news/llnl-and-hpe-partner-amd-el-capitan-projected-worlds-fastest-supercomputer).
Das heißt aber nicht dass man es nicht auch für andere Dinge verwenden könnte.
der punkt ist aber, das die rückansicht der beiden letzten besprochenen bildern eine rießige gpu (im verhältnis zu n10)vermuten lassen. zusammen mit 16gb kann das nicht billig werden. ich würde sagen wir sehen hier hardware für 500-600€ mindestens.
Meinst du damit die Kosten auf Herstellerseite oder Verkaufspreis. Ersteres fände ich sau teuer, mit Steuern vermutlich 1200 im Verkauf. Zweiteres fände ich recht billig, angesichts zu vielleicht 3070Ti bis 3080 Ti Leistung. (Mit Ti meine ich nur die verdoppelte Speicherausstattung).
BlacKi
2020-09-15, 17:04:25
Meinst du damit die Kosten auf Herstellerseite oder Verkaufspreis. Ersteres fände ich sau teuer, mit Steuern vermutlich 1200 im Verkauf. Zweiteres fände ich recht billig, angesichts zu vielleicht 3070Ti bis 3080 Ti Leistung. (Mit Ti meine ich nur die verdoppelte Speicherausstattung).
ganz einfach, das ist das minimum meine einschätzung nach, um hardware und entwicklung zu bezahlen. wenn die karte +- 3080 performance bringt, dann wird die karte auch teurer werden, aber zum aktuellen stand anhand eines 16gbps 256bit systems ist nichtmal die 2080ti drin.
wissen tun wir garnichts und die kombination von dem gesehenen chip+speicher lässt uns rätzeln.
eigentlich muss da noch was kommen, wie zb. der 128mb chache oder sram. ist aber auch gewagt.
Langlay
2020-09-15, 17:09:03
Naja wer glaubt das BigNavi mit 80CUs ein 256Bit GDDR6 Interface hat, sollte einfach mal weniger Shit rauchen.
Wenn RDNA2 so Bandbreitensparend ist, wieso hat die neue X-Box dann nicht auch nur ein 256Bit Speicherinterface sind ja nur 52CU + 8 Zen2 Kerne.
Ich glaube halt die RDNA2 Entwicklerkarte nicht nicht BigNavi sondern Navi22 oder sowas.
ganz einfach, das ist das minimum meine einschätzung nach, um hardware und entwicklung zu bezahlen. wenn die karte +- 3080 performance bringt, dann wird die karte auch teurer werden, aber zum aktuellen stand anhand eines 16gbps 256bit systems ist nichtmal die 2080ti drin. danke, das sollte auch kein Angriff gegen dich sein. Mir war nicht klar welches der beiden Enden du meintest, weil mir beides recht am Limit aussah.
robbitop
2020-09-15, 17:23:41
Unabhängig davon, ob das mit dem Cache wahr ist oder nicht:
IMO würde das schon deutlich helfen. Crystalwell zeigte das in der Iris iGPU ja schon einige Iterationen.
Wie groß dieser sein müsste, um mit 2/3 der Bandbreite klar zu kommen, ist die Frage.
IMO gehört sowas auch nicht explizit zu einer uArch. Genau wie auch der Speichertyp und anderer I/O Kram. Den hängst du an die Fabric. Natürlich muss der Prefetcher Mechanismus darauf eingestellt sein.
Ob das auch in der Situation eines 80 CU Chips sinnvoll wäre, ist die Frage. Kann aber schon sein. Pro GB GDDR6 habe ich mal gehört, dass man mit 10€ rechnen muss. 24->16 GB spart man potenziell 80€. Plus PCB Kostenredumtion. Durch die hohe Datenlokaltität sinkt auch entsprechend der normierte Verbrauch. Kosten für VRM und Kühler sinken auch. Kommt man auf vielleicht schon 90-100€. Ob die kolportierten 120 mm2 teurer sind als diese Ersparnis?
In 505 mm2 (die nicht bestätigt sind), würde schon ein 80 CU RDNA2 Chip plus 120 mm2 passen, wenn man die Größen aus der XSX GPU extrapoliert.
Ggf unwahrscheinlich. Aber machbar wäre es. Ob es unterm Strich besser wäre? Keine Ahnung. Aber ggf muss man es nicht 10l% kategorisch ausschließen.
Die Karte sieht ja schon nach viel Leistung aus (2x 8 Pin) - wir bekommen also etwas high endiges. Die 80 CUs sind nun auch schon sehr oft gefallen. Wenn doe 256 bit sich verfestigen, kann das schon eine mögliche Lösungsvariante sein.
da nun 16gbps an 256 ja nun feststehen:wink: wollte ich mal wissen, was wäre wenn amd 30% effizienter als n10 mit der bandbreite umgehen könnte und man das auf die gesammtpeformance umrechnen würde.
ich komme da auf +43% ggü. 5700xt. das würde nichtmal für die 2080ti reichen. also ich kann mir da keinen reim drauf machen, zumindest aktuell nicht.
256-Bit für den Dicken? Ich lache mich tot. Da stirbt das Ding bevor du es einbaust bereits an Bandbreite. Unfassbar
Das Ding auf dem Testboard ist ein N23! Und wenn es ein N21 sein sollte, dann wurden halt lediglich 8x1GB verbaut, die Rückseite ist ja frei
Berniyh
2020-09-15, 17:33:41
Unabhängig davon, ob das mit dem Cache wahr ist oder nicht:
IMO würde das schon deutlich helfen. Crystalwell zeigte das in der Iris iGPU ja schon einige Iterationen.
Wie groß dieser sein müsste, um mit 2/3 der Bandbreite klar zu kommen, ist die Frage.
IMO gehört sowas auch nicht explizit zu einer uArch. Genau wie auch der Speichertyp und anderer I/O Kram. Den hängst du an die Fabric. Natürlich muss der Prefetcher Mechanismus darauf eingestellt sein.
Ob das auch in der Situation eines 80 CU Chips sinnvoll wäre, ist die Frage. Kann aber schon sein. Pro GB GDDR6 habe ich mal gehört, dass man mit 10€ rechnen muss. 24->16 GB spart man potenziell 80€. Plus PCB Kostenredumtion. Durch die hohe Datenlokaltität sinkt auch entsprechend der normierte Verbrauch. Kosten für VRM und Kühler sinken auch. Kommt man auf vielleicht schon 90-100€. Ob die kolportierten 120 mm2 teurer sind als diese Ersparnis?
In 505 mm2 (die nicht bestätigt sind), würde schon ein 80 CU RDNA2 Chip plus 120 mm2 passen, wenn man die Größen aus der XSX GPU extrapoliert.
Ggf unwahrscheinlich. Aber machbar wäre es. Ob es unterm Strich besser wäre? Keine Ahnung. Aber ggf muss man es nicht 10l% kategorisch ausschließen.
Die Karte sieht ja schon nach viel Leistung aus (2x 8 Pin) - wir bekommen also etwas high endiges. Die 80 CUs sind nun auch schon sehr oft gefallen. Wenn doe 256 bit sich verfestigen, kann das schon eine mögliche Lösungsvariante sein.
Keine Ahnung ob es möglich wäre, aber es wäre ein ziemlich heikles Spiel das AMD da spielen würde.
Denn wenn die Karte in Benchmarks auch nur ansatzweise an ein Bandbreitenlimit gebracht werden kann, dann haben sie eigentlich schon verloren.
Denn dann wird nur noch dagegen gewettert, das kann ich mir jetzt schon vorstellen.
So nach dem Motto: "Nett gedacht, aber: FAIL!"
Oder so ähnlich.
Man kennt die Gamer-Gemeinde ja, da gibt es keine Farben, keine Grautöne, nur Schwarz und Weiß …
robbitop
2020-09-15, 17:44:56
Naja sowas würde man vorher natürlich während der Entwicklung simulativ herausfinden/tunen.
Wie gesagt: Crystalwell zeigt, dass das funktioniert.
unl34shed
2020-09-15, 17:47:39
Und dann gibt es ein neues Gimpworks Feature, das extrem auf Bandbreite setzt, genauso wie die sinnlosen Tessellation level.
robbitop
2020-09-15, 18:11:53
Ich stelle mir das wie ein scratchpad für den Framebuffer vor. Da ist der Zugriff stark frequentiert und dazu auch noch fragmentiert. Das würde entsprechend immer helfen und transparent zur Anwendung laufen.
Dieses Prinzip hat den TBDRs ja sehr lange enorm Bandbreite gespart (allerdings ein wenig anders). Nannte sich dort tile cache. Moderne IMRs haben ja auch kleine Tile Caches - aber mangels Vorsortierung nicht so effektiv.
Es gibt natürlich noch ein Szenario: Bei AMD gibts für die nächsten x Jahre nur noch x700XT und XL GPUs und NV zahlt 50% des Verkaufpreises hinzu. Somit haben beide ihr Gesicht gewahrt. Nur wie will ich diesen Scheiß meinen Aktionären erklären?
Linmoum
2020-09-15, 18:13:12
Wie robbitop schon sagt, inwieweit der Cache weniger Bandbreite kompensieren kann, wird man während der Entwicklung evaluiert haben. Wenn das Engineering Board tatsächlich N21 ist, dann ist das mit dem massiven Cache jedenfalls nicht mehr so extrem abwegig.
BlacKi
2020-09-15, 18:19:15
ich könnte mir auch gut vorstellen das es daten im vram gibt die nicht groß sind aber unheimlich viel bandbreite klauen. wenn man die auslagern kann auf sram oder im monster cache behalten kann, dann spart das bandbreite und 256bit könnten genug sein. texturen zb. brauchen bekanntlich weniger viel bandbreite. ich bin gespannt ob das so kommt.
Wie robbitop schon sagt, inwieweit der Cache weniger Bandbreite kompensieren kann, wird man während der Entwicklung evaluiert haben. Wenn das Engineering Board tatsächlich N21 ist, dann ist das mit dem massiven Cache jedenfalls nicht mehr so extrem abwegig.
Ach bitte, die kolportierten 128mb bei ner Grafikkarte sollen helfen ein Bandbreitenlimit aufzuheben? Könnte witzig sein bei ner CPU, aber in dem Kontext absolut hirnrissig.
Linmoum
2020-09-15, 18:22:14
Ach bitte, die kolportierten 128mb bei ner Grafikkarte sollen helfen ein Bandbreitenlimit aufzuheben? Könnte witzig sein bei ner CPU, aber in dem Kontext absolut hirnrissig.Hast du denn belastbare Daten dafür, dass das kompletter Humbug ist und nicht funktioniert?
robbitop
2020-09-15, 18:23:33
Texturen sind gut vorhersehbar. Die hitrate im Texturecache ist idR sehr gut. Color-, Z-, G-Buffer etc hingegen würden sich da schon lohnen. Da es ein IMR ist, müsste da der Cache schon etwas größer sein als die tile caches in den tbdrs.128 mb entspricht der Größe von Crystalwell. Wobei Intel damals iirc gesagt hatte, dass man diesen bewusst überdimensioniert hatte.
Ich tippe darauf, dass Crystalwell ähnlich genutzt wurde.
Hast du denn belastbare Daten dafür, dass das kompletter Humbug ist und nicht funktioniert?
Der Cache sollte unterstützend der Architektur arbeiten. Das war das was ich mal gelernt habe. Von Ausgleichung eines Defizits war da nie die Rede
robbitop
2020-09-15, 18:28:16
Das is ja alles relativ und grundsätzlich rein eine Auslegungsfrage.
Ein SRAM Cache/scratchpad ist ja nur ein mögliches Werkzeug von vielen.
Zergra
2020-09-15, 18:30:01
N21 kann auch mit 256bit 64CUs antanzen, damit könnte man die 3080 knapp erreichen, ggf 5-10% drunter.
Imho dürfte das am besten passen. Das ganze für 599-649$
robbitop
2020-09-15, 18:32:23
Möglich. Die Frage ist, ob das für die 3080 reichen würde. Ich meine, das wäre etwas zu wenig.
N21 kann auch mit 256bit 64CUs antanzen, damit könnte man die 3080 knapp erreichen, ggf 5-10% drunter.
Imho dürfte das am besten passen. Das ganze für 599-649$
Ihr könnt mich ja prügeln, aber imo kommen min. 16GB@512-Bit 80CUs bei 350W mit 3090-Performance für 999$. Wahrscheinlich sind es derer eher 32 GB! Customs stellen Heavy OC mit 3x8Pin zur Verfügung und vielleicht ne LCE auch.
Linmoum
2020-09-15, 18:38:43
Prügeln wäre dafür noch zu lasch. ;)
Prügeln wäre dafür noch zu lasch. ;)
Erschießen? Auja, da habe ich als suizidgefährdeter alles erreicht
BTW. geht AMD nicht von ner IPC-Steigerung von 25%, sondern von 6-8% aus. Wahrscheinlicher sind allerdings 10%.
Zergra
2020-09-15, 18:52:19
Möglich. Die Frage ist, ob das für die 3080 reichen würde. Ich meine, das wäre etwas zu wenig.
Bei 80CU wäre 3080 Leistung aber etwas zu wenig.
also +50% CUs, dazu noch 10% mehr Takt und 15% mehr IPC ?
Dürfte dann wohl bei 10% unter der 3080 rauskommen.
Die 3090 wir niemals geschlagen, dafür hat NV die Karte viel zu weit Abseits angeboten.
Linmoum
2020-09-15, 18:55:01
Warum sollte AMD die Karte auf 64CU kastrieren, wenn 80CU vorhanden sind? Das ergibt wenig Sinn. Wenn man eine Sache nicht mehr anzweifeln muss, dann sind es gerade die 80CU für den Top Dog.
robbitop
2020-09-15, 18:57:53
Bei 80CU wäre 3080 Leistung aber etwas zu wenig.
also +50% CUs, dazu noch 10% mehr Takt und 15% mehr IPC ?
Dürfte dann wohl bei 10% unter der 3080 rauskommen.
Die 3090 wir niemals geschlagen, dafür hat NV die Karte viel zu weit Abseits angeboten.
Naja die IPC Steigerung wird schnell von der Skalierung aufgefressen. Takt muss man mal sehen. Gerade top dogs sind häufig an der tdp Leine (da thermisch limitiert).
Ganz grob 2x N10 Leistung kann man IMO ansetzen. Ggf ein bisschen mehr.
why_me
2020-09-15, 18:58:41
BTW. geht AMD nicht von ner IPC-Steigerung von 25%, sondern von 6-8% aus. Wahrscheinlicher sind allerdings 10%.
Kannst du zu solchen Aussagen bitte zukünftig einen Link hinzufügen? Oder zumindest schreiben, wo du das in etwa gelesen/gehört hast?
robbitop
2020-09-15, 18:59:24
Aprospros: waren die 80 CUs nicht auch schon durch Treiberei träge verifiziert? Oder habe ich das falsch im Hinterkopf?
Wenn das so ist: AMD wird schon entsprechend es so dimensionieren, dass die GPU nicht verhungern wird.
robbitop
2020-09-15, 19:01:57
AMD hat bis dato IIRC nichts zur IPC von RDNA2 ggü RDNA1 gesagt.
Bei 80CU wäre 3080 Leistung aber etwas zu wenig.
also +50% CUs, dazu noch 10% mehr Takt und 15% mehr IPC ?
Dürfte dann wohl bei 10% unter der 3080 rauskommen.
Die 3090 wir niemals geschlagen, dafür hat NV die Karte viel zu weit Abseits angeboten.
Die 3090 ist solange der Vram nicht limitiert 20% über ner 3080! Das Ding hat 84? SM, habe aber eine Karte die mittlerweile so effizient arbeitet, dass meine 80CUs aufgrund massiv aufgebohrter ALUs dies leicht kompensieren kann. Es würde mich ehrlich wundern ...
basix
2020-09-15, 19:05:25
Die 3090 ist solange der Vram nicht limitiert 20% über ner 3080!
VRAM? Du meinst wohl Power Limit. Die 30W Unterschied gehen alleine für den Speicher drauf.
Ne übertaktete 3080 bietet bei 375W gnadenlose 3% mehr an Performance und hat dann ziemlich exakt das Level meiner 2080Ti Matrix bei 42 Grad und 360W! Und an das Performancelevel einer ?-GPU als eGPU im VR-Benchmark kam ich da bei Weitem nicht ran.
Linmoum
2020-09-15, 19:14:10
AMD hat bis dato IIRC nichts zur IPC von RDNA2 ggü RDNA1 gesagt.Das einzig offizielle bisher zur IPC ist lediglich auf dieser Folie vom FAD 2020 zu finden. Sie wird höher ausfallen, wie viel höher ist unklar.
https://www.techpowerup.com/img/GXq7FPL3F5LiHNK3.jpg
Bubba2k3
2020-09-15, 19:42:13
So Leute, jetzt reißt euch mal wieder zusammen und diskutiert vernünftig und ohne persönlich zu werden !!!
mboeller
2020-09-15, 20:03:31
mal mein Beitrag zum Cache:
Schaut euch die XBox One an, hat da der 32MB Cache geholfen die geringe externe Bandbreite zu kompensieren? Eher nicht.
32MB => FHD
128MB => 4K
die Situation ist also ähnlich. Der Cache wäre bestimmt auch bei BigNavi so 2-3x schneller als das RAM, wie eben auch bei der XBox One.
mal mein Beitrag zum Cache:
Schaut euch die XBox One an, hat da der 32MB Cache geholfen die geringe externe Bandbreite zu kompensieren? Eher nicht.
32MB => FHD
128MB => 4K
die Situation ist also ähnlich. Der Cache wäre bestimmt auch bei BigNavi so 2-3x schneller als das RAM, wie eben auch bei der XBox One.
Mag ja sein, dass es etwas was bringt, aber warum sollte dann BN auf 256-Bit setzen, wenn die XBOX bereits auf 320-Bit setzt?
robbitop
2020-09-15, 20:19:23
mal mein Beitrag zum Cache:
Schaut euch die XBox One an, hat da der 32MB Cache geholfen die geringe externe Bandbreite zu kompensieren? Eher nicht.
32MB => FHD
128MB => 4K
die Situation ist also ähnlich. Der Cache wäre bestimmt auch bei BigNavi so 2-3x schneller als das RAM, wie eben auch bei der XBox One.
Das war 1. kein Cache sondern explizit für den Framebuffer und 2. hat es geholfen. Die Xbox war nicht bandbreitenlimitiert und konnte dennoch weniger Bandbreite haben. (ddr3 statt gddr5)
Die Xbox hatte halt einfach weniger CUs als die PS4.
robbitop
2020-09-15, 20:20:54
Mag ja sein, dass es etwas was bringt, aber warum sollte dann BN auf 256-Bit setzen, wenn die XBOX bereits auf 320-Bit setzt?
Unterschiedliche Randbedingungen führen zur Wahl unterschiedlicher Optionen.
Unterschiedliche Randbedingungen führen zur Wahl unterschiedlicher Optionen.
Hm? Ich verstehe deinen Post nicht. Es sollen doch primär Spieleengines beschleunigt werden, wie man hört bis zu 8k?
Linmoum
2020-09-15, 20:44:26
Navi2x/VCN3.0 mit AV1-Support.
https://lists.freedesktop.org/archives/amd-gfx/2020-September/053779.html
PCI-IDs für Sienna Cichlid:
/* Sienna_Cichlid */
+ {0x1002, 0x73A0, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
+ {0x1002, 0x73A2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
+ {0x1002, 0x73A3, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
+ {0x1002, 0x73AB, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
+ {0x1002, 0x73AE, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
+ {0x1002, 0x73BF, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_SIENNA_CICHLID},
https://lists.freedesktop.org/archives/amd-gfx/2020-September/053781.html
Der_Korken
2020-09-15, 20:50:14
Wenn ich nochmal so drüber nachdenke, wäre ein 128MB großer SRAM-Cache eigentlich zu unwirtschaftlich für den Fall dass 7nm-Waferkapazitäten ein limitierender Faktor für AMD sind.
Anhand von Matisse kann man ja mal eine optimistische Schätzung abgeben, wie viel Diespace der Cache bräuchte und kommt entsprechend auf ca. 120mm². Was spart man ein? Naja, zwei GDDR6 PHYs, den entsprechenden Memory Controller und vielleicht noch 8GB VRAM wenn man von 24GB auf 16GB downgraden kann. Ersteres kostet maximal 50mm² Diespace, zweiteres irgendwas in der Größenordnung von 80$ (hab hier im Thread 10$/GB aufgeschnappt). In den 70mm² Differenz bekommt man fast ein CPU-Chiplet unter, welches (abzüglich der Kosten für den IO-Die und das Package) im Schnitt mindestens 200$ abwirft (als R5 3600/4600 sicherlich weniger, bei allem darüber aber entsprechend mehr). Man könnte jetzt sagen, die Karte verbraucht mit dem Cache aber auch weniger und könnte höher takten. Dann sage ich: Für 200$ könnten die auch auf HBM umsatteln, dann ist es immer noch billiger als der Cache und genauso sparsam.
TL; DR: Cache spart externe Bandbreite (=teuer), aber auf Kosten einer anderen knappen Ressource, nämlich 7nm-Waferspace.
robbitop
2020-09-15, 20:59:36
Das Thema Opportunität kann man aber dann um sämtliche Radeon Produkte erweitern. Mit Epyc und selbst mit Ryzem verdient man mehr. Also dann keine Radeons mehr bauen?
Die Anzahl der großen Top Dog dice sind sowieso relativ gering im Vergleich zu midrange GPUs, APUs und CPUs. Die Dinger bringt man primär, weil es Einfluss auf den gesamten Produktstack hat. Der Gesamteinfluss auf die Waferkapazität ist also gering.
Dazu kommt, dass AMD deutlich mehr Waferkapazität hat als noch vor einem Jahr. Der Prozess ist reifer und man hat von amderen Kunden mehr Kapazitäten übernommen (uA von Apple).
Wenn man Opportunität mal ausklammert, sind die 120 mm2 sicherlich nicht mehr eindeutig teurer.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.