PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

BoMbY
2019-11-19, 19:24:17
Macht einfach alles keinen Sinn.

Berniyh
2019-11-19, 19:27:42
dagegen spricht wohl v.a. Zeit bis RDNA2
Das hängt ja vor allem davon ab mit was Navi2x startet und wie groß der Abstand Navi10 vs. Navi12 wird.

Berniyh
2019-11-19, 19:34:52
https://twitter.com/0x22h/status/1196692774059302913

PS:
Was davon zu halten ?
Halte ich für unwahrscheinlich. Warum sollte man dann den Linux Treiber anpassen, wenn das nur für Apple ist?

Zudem bräuchte es dafür keinen neuen Chip, auch an den Navi10 könnte man HBM2 dran klatschen.

Ne, ich glaube da hat einer nur bissle rumspekuliert.

Zudem gibt/gab es ja durchaus die Code Teile im Linux Treiber in denen sich Navi12 von Navi10 unterschied.

Edit: die W5700 ist nicht mal der Navi10 vollausbau, sondern äquivalent zu einer RX5700 (ohne XT), aber eben mit 16GB Speicher.

Rabiata
2019-11-19, 19:35:21
Anstatt Low-End GPUs zu designen auf immer teureren Prozess-Nodes ersetzen das APUs mit ca. 1 Jahr Rückstand in der Technologie in diesem Markt - Die CPUs müsste man sowieso liefern. AMD produziert kein Lowend, weil Sie strategisch vor Jahren investiert haben um das nicht zu müssen und der wachsende Notebook Sektor wird diskrete mobile GPUs immer weniger brauchen, wie aktuelle Designs zeigen.
Könnte auch schlicht ein Ansatz sein um vorhandene Fertigungsanlagen bis zum Schluß auszunutzen. Das macht AMD an anderer Stelle auch. Der Ryzen 5 1600 ist auch noch im Handel (aber IMHO uninteressant geworden).

LasterCluster
2019-11-19, 19:37:14
Also N12=N10+HBM ist die Behauptung. Angeblicher AMD Mitaerbeiter meinte:

"Remember something called Navi12? The specs are the same as Navi 10, at least for the WG count. As for differences, it's not hard to guess, Apple is not short of money, GDDR6 isn't good enough for them."

"No need to doubt 64C TR ("cr" should be typo), it definitely exists."

Was ist der WG count?

BoMbY
2019-11-19, 20:00:51
Ja, der arbeitet vermutlich bei AMD als Hausmeister.

Iscaran
2019-11-19, 20:12:46
Also Radeon Pro W5700 = Navi 12 mit 36 CUs wie die bisherigen als 5700 releaseten Karten ? Confirmed ?

Locuza
2019-11-19, 20:23:33
Halte ich für unwahrscheinlich. Warum sollte man dann den Linux Treiber anpassen, wenn das nur für Apple ist?

Zudem bräuchte es dafür keinen neuen Chip, auch an den Navi10 könnte man HBM2 dran klatschen.

Ne, ich glaube da hat einer nur bissle rumspekuliert.

Zudem gibt/gab es ja durchaus die Code Teile im Linux Treiber in denen sich Navi12 von Navi10 unterschied.

Edit: die W5700 ist nicht mal der Navi10 vollausbau, sondern äquivalent zu einer RX5700 (ohne XT), aber eben mit 16GB Speicher.
Ich denke auch nicht, dass die Aussage stimmt, aber es bräuchte einen neuen Chip.
Navi10 hat kein HBM-Interface on Board, entsprechend kann man auch nicht einfach HBM2 dran klatschen.

[...]
Was ist der WG count?
Work-Group.
Bei Navi heißen die Recheneinheiten jetzt DCU = Dual Compute Unit oder WGP = Work Group Processor.
Navi 10 hat 40 Stück davon bzw. pro DCU/WGP sind es 64 "Cores"/Shader/what ever, also insgesamt 2560 Recheneinheiten.
Eine Work Group ist wie der Name impliziert eine Arbeitsgruppe, welche von einer DCU bzw. einem WGP bearbeitet wird.
Navi kann auch klassisch im Compute Unit-Mode arbeiten, wo eine Arbeitsgruppe nur von einer Compute Unit abgearbeitet wird und nicht von zwei.

Berniyh
2019-11-19, 20:24:25
Also Radeon Pro W5700 = Navi 12 mit 36 CUs wie die bisherigen als 5700 releaseten Karten ? Confirmed ?
Navi 10, aber ansonsten: ja

Berniyh
2019-11-19, 20:25:45
Ich denke auch nicht, dass die Aussage stimmt, aber es bräuchte einen neuen Chip.
Navi10 hat kein HBM-Interface on Board, entsprechend kann man auch nicht einfach HBM2 dran klatschen.
Genau das ist die Funktion der SDP Interfaces (über die wir hier schon mal diskutiert hatten), das zu abstrahieren.
Insofern: nein, ich denke nicht, dass man dafür einen neuen Chip bräuchte.

AffenJack
2019-11-19, 20:37:56
Genau das ist die Funktion der SDP Interfaces (über die wir hier schon mal diskutiert hatten), das zu abstrahieren.
Insofern: nein, ich denke nicht, dass man dafür einen neuen Chip bräuchte.

Die Speicherinterfaces von GDDR und HBM entscheiden sich doch total, das sieht man alleine auf Dieshots, du brauchst da definitiv nen neuen Chip.

Locuza
2019-11-19, 20:50:35
Genau das ist die Funktion der SDP Interfaces (über die wir hier schon mal diskutiert hatten), das zu abstrahieren.
Insofern: nein, ich denke nicht, dass man dafür einen neuen Chip bräuchte.
Die Ports bzw. der SDP-Layer abstrahiert nur den Datentransport zwischen den IPs, er enthält nicht selber alle möglichen IPs und PHYs.
Für HBM braucht man ein völlig anderes Speicherinterface, da sich der Verbindungsaufbau grundlegend von GDDR/DDR unterscheidet.
Es ist möglich ein Hybrid-Interface zu entwickeln, welches GDDR5 und GDDR6 gleichzeitig unterstützen kann oder gar normalen DDR4-Speicher, aber HBM bewegt sich zu sehr außerhalb davon.

Auf den Chipfotos sieht man relativ eindeutig, dass dies nicht einfach hinhaut:
http://xtreview.com/images/AMD-Fiji-Tonga-Die-shots.jpg

Das PHYs ist völlig anders und man kann nicht einfach den einen oder anderen Speicher daran anschließen.
Wäre es übrigens möglich, dann hätte AMD das sicherlich auch bei Vega10 ausgenutzt.

Berniyh
2019-11-19, 20:58:08
Die Ports bzw. der SDP-Layer abstrahiert nur den Datentransport zwischen den IPs, er enthält nicht selber alle möglichen IPs und PHYs.
Für HBM braucht man ein völlig anderes Speicherinterface, da sich der Verbindungsaufbau grundlegend von GDDR/DDR unterscheidet.
Es ist möglich ein Hybrid-Interface zu entwickeln, welches GDDR5 und GDDR6 gleichzeitig unterstützen kann oder gar normalen DDR4-Speicher, aber HBM bewegt sich zu sehr außerhalb davon.

Das PHYs ist völlig anders und man kann nicht einfach den einen oder anderen Speicher daran anschließen.
Damit magst du recht haben, wobei Fiji/Tonga ein schlechtes Beispiel ist, denn die SDP Interfaces gibt es iirc erst seit Vega.

Allerdings zieht das Argument
Wäre es übrigens möglich, dann hätte AMD das sicherlich auch bei Vega10 ausgenutzt.
schon eher. Wobei ich auch da nicht so sicher wäre, Vega profitiert ja auch stark vom schnellen Speicher und größtenteils wurden AMD ja diese Chips auch mit HBM aus den Händen gerissen (wenn auch nicht für Gaming).

Locuza
2019-11-19, 21:19:31
Das Bild mit Fiji und Tonga hat sich einfach perfekt angeboten, da die Bilder zueinander skaliert worden sind und man dort die Memory-PHYs markiert hat.
Infinity Fabric (SDP) ändert eben nichts an dem Physical Layer, der direkt für die Speicherverbindung verwendet wird.
Wo Vega10 in der Tat die erste GPU mit Infinity Fabric ist, aber die PHYs zum Speicher sind eben nach wie vor völlig unterschiedlich, was auch weiterhin eindeutig sichtbar ist:

https://live.staticflickr.com/4711/38671735620_38829f11d0_b.jpg

Da kann man kein GDDR5/6 anschließen.
Was sich z.B. für Vega56 oder etwas darunter angeboten hätte, da die Vega56 "nur" 410GB/s bietet und ein gutes Stück weniger Strom konsumiert, als die Vega64.
Ein günstigeres Modell mit GDDR5 wäre eine attraktive Option gewesen.

BoMbY
2019-11-21, 15:40:55
Grafikkarte mit AMD Radeon RX 5500 im ersten Test (https://www.heise.de/newsticker/meldung/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test-4593652.html)

Im 3DMark Fire Strike erzielt die RX 5500 12.111 Punkte, die werksübertaktete Sapphire RX 580 Nitro+ hingegen 12.744 Punkte. Dazwischen liegt die ebenfalls mit Werksturbo laufende Gigabyte GeForce GTX 1660 OC von Nvidia mit 12.525 Punkten.

Den eingebauten Benchmark des Action-Adventures Shadow of the Tomb Raider bewältigt die RX 5500 in Full HD mit Ultra-Detailstufe, SMAA und 16-facher anisotroper Filterung mit durchschnittlich 59 fps (Bilder pro Sekunde), die RX 580 liegt mit 65 fps knapp davor, die GTX 1660 führt mit 69 fps.

Ähnlich sehen die Abstände in Far Cry 5 aus, wo es 72 fps (RX 5500) zu 75 fps (RX 580 Nitro+) zu 85 fps (GTX 1660 OC) ausgeht.


...

Die neue "kleine" Navi-Karte nimmt mit 3D-Last zwischen 120 (3DMark) und 133 Watt (FurMark) auf, im Leerlauf mit einem angeschlossenen Monitor sine es nur noch etwa 7 Watt.

y33H@
2019-11-21, 16:26:41
Also etwa zwischen GTX 1650 Super und GTX 1660 bei Performance und Strom, ergo muss sie rund 200 Euro kosten als Retail.

Raff
2019-11-21, 16:28:48
Ziemlich stark, hatte ich bei der abgespeckten Variante etwas schwächer erwartet. Aber 3DMark ist kein Spiele-Index. Schauen wir mal.

MfG
Raff

Unicous
2019-11-21, 16:34:34
Um relevant zu sein, sollte sie deutlich unter 200 Euro kosten. Ich würde sagen 180 wäre wohl eine gute Zahl. 150 wäre ein Preisbrecher, aber ich denke, soweit wird AMD nicht gehen.

Ghost1nTh3GPU
2019-11-21, 16:51:12
120W bei einem 150mm2 Chip sind schon ziemlich heftig.

Berniyh
2019-11-21, 18:30:05
Dafür sind 7W im Leerlauf ziemlich gut, finde ich. :)
Und das ist ehrlich gesagt der wert der mich eher interessiert bei der Karte.

robbitop
2019-11-21, 18:33:36
Die 120 W sind ggf ein Resultat eines leicht ungünstigen Betriebspunktes.

Unicous
2019-11-21, 18:55:22
7W idle ist nichts besonderes, einige 5700 XT schaffen das auch, und diese Zahl ist mir persönlich im Desktop ziemlich egal. Wenn jedoch die GPU/VRAM bei Medienwiedergabe unnötig hohe Spannungen fährt oder sobald man einen zweiten Monitor hat sich die Leistungsaufnahme vervielfacht wird mir immer etwas anders. Bei ersterem hat sich AMD deutlich verbessert, Multimonitor bekommen sie immer noch nicht hin.:rolleyes: (edit: Wurde das mit der Spannung zumindest mittlerweile behoben?)

(Anscheinend nicht:rolleyes:) https://tpucdn.com/review/xfx-radeon-rx-5700-xt-thicc-iii-ultra/images/power-multi-monitor.png
https://www.techpowerup.com/review/xfx-radeon-rx-5700-xt-thicc-iii-ultra/32.html


Dass der Chip sicherlich wieder so getaktet ist, dass die Effizienz flöten geht dürfte klar sein. AMD will eine gute Performance-Alternative zu den Nvidia-Pendants darstellen, da interessiert erst einmal nicht, dass die Konkurrenz effizienter ist. Und zumindest in den USA ist das auch nicht so relevant wie hier.:freak:

robbitop
2019-11-21, 20:29:49
Naja und 120W kann man auch noch entspannt leise kühlen. Also an sich kein Problem. Für die mobile GPUs kann man dann bessere Betriebspunkte wählen - oder aber zusätzlich ein MaxQ Äquivalent anbieten.

Dino-Fossil
2019-11-22, 00:53:35
Hm, persönlich hat mich Navi bisher nicht ganz überzeugt und die 5500 dürfte daran nichts ändern.
Wobei ich die RDNA-Architektur an sich für relativ gelungen halte - nur leider gibt es bisher keine Navi-Karte, die meinen Vorstellungen entspricht: <150W, <300€, Spürbares Leistungsplus zu meiner alten RX 480.

Mal sehen ob noch eine 5600 kommt und wo die dann insgesammt liegt.
Ansonsten werde ich wohl eher die nächste Iteration von RDNA abwarten.

Badesalz
2019-11-22, 02:02:45
Ziemlich stark, hatte ich bei der abgespeckten Variante etwas schwächer erwartet. Aber 3DMark ist kein Spiele-Index. Schauen wir mal.Selbst nur für HD, niemals mehr 128bit zum Speicher hin :ugly2:

robbitop
2019-11-22, 03:50:02
Hm, persönlich hat mich Navi bisher nicht ganz überzeugt und die 5500 dürfte daran nichts ändern.
Wobei ich die RDNA-Architektur an sich für relativ gelungen halte - nur leider gibt es bisher keine Navi-Karte, die meinen Vorstellungen entspricht: <150W, <300€, Spürbares Leistungsplus zu meiner alten RX 480.

Mal sehen ob noch eine 5600 kommt und wo die dann insgesammt liegt.
Ansonsten werde ich wohl eher die nächste Iteration von RDNA abwarten.
Du kannst auch eine 5700 nehmen. Die ist nah an 300€ und mittels Undervolting/TDP Reduktion kann man die Leistungsaufnahme sicherlich leicht auf 150W senken. Wobei ich mich immer frage warum man so versessen auf eine bestimmte Zahl ist.
Energiekosten können es außerhalb vom Mining kaum sein. Bleibt noch Lautstärke und Formfaktor. Zumindest Lautstärke gibt es von low end bis top end immer auch Karten die da sehr gut sind.

Pirx
2019-11-22, 07:04:28
HBCC ist tot, oder wie? Warum eigentlich?

dildo4u
2019-11-22, 07:11:24
Das war nie am Leben,die Bandbreite reicht vielleicht für IGP nicht GDDR6 Karten.

Der_Korken
2019-11-22, 09:13:32
Warum sollte HBCC tot sein und was hat das mit der Bandbreite zu tun? Es ist eine Technik, die in Hardware eine effizientere Ausnutzung des VRAMs regelt.

Dino-Fossil
2019-11-22, 10:10:55
Du kannst auch eine 5700 nehmen.

Das wäre auch in der Tat am ehesten die Karte, die mich reizen würde.
Irgendwelche Grenzen muss man sich halt setzen, meine sehen eben so aus wie beschrieben. Wenn die Karten mal mehr oder weniger deutlich unter 300 fallen und der Upgradedruck wächst, wäre die 5700 (mit bisschen UV) durchaus eine Option.
Muss man halt abwarten, wie nahe dann RDNA2 ist.

iuno
2019-11-22, 11:11:54
Grafikkarte mit AMD Radeon RX 5500 im ersten Test (https://www.heise.de/newsticker/meldung/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test-4593652.html)


Man will eine 5500 getestet haben, ist sich dabei aber wohl selbst nicht so sicher. Kann ja sein, dass die 5300 nur fuer OEMs ist und man sie deshalb nicht offiziell vorgestellt hat. Da man keine Infos zu einer 5300 hat, deklariert man das ganze einfach zu einer 5500 um. Ich wuerde eigentlich davon ausgehen, dass die Herstellerangaben (des OEMs) stimmen und es eine 5300 mit GDDR5 ist. Das koennte IMHO schon zu den Leistungswerten passen. 22 RDNA CUs mit GDDR5 waeren damit etwas unter einer Custom RX580.

Was meint ihr?

E: ach, das sind ja nur 128 Bit. Dann ist es wohl doch eher GDDR6.

Dino-Fossil
2019-11-22, 11:40:34
Zumal die Leistungsaufnahme dann wieder seltsam wäre. Wenn die 5300 schon gut 120W zieht, läge die 5500 wohl wirklich bei ca 150W.
Damit kann man aber auch eine angepasste 5700 betreiben und hätte deutlich mehr Leistung.

Loeschzwerg
2019-11-22, 11:43:55
Ja, ich bin sicher, dass es eine Radeon RX 5500 ist. Das bestätigen die technischen Daten und die Performance.
https://www.heise.de/forum/heise-online/News-Kommentare/Grafikkarte-mit-AMD-Radeon-RX-5500-im-ersten-Test/Re-Sicher-keine-Radeon-RX-5300-XT/posting-35647287/show/

HOT
2019-11-22, 12:48:50
Na klar ist das ne 5500, ne 5300XT hätte sicherlich nur 16 CUs oder sowas aktiv. So ein Quatsch wieder.
Die 5500 hat 120W TBP, auch das ist sonnenklar.
Das ist aber wie befürchtet nur OEM-Ware. Ich würd eher davon ausgehen, dass AMD zur CES die 6000er-Generation vorstellt und die Desktop-Karten dann 6300XT und 6500(XT) werden (zusammen mit der 6600, 6700 und 6700XT).

Der_Korken
2019-11-22, 13:49:47
Knapp RX580-Leistung für 120W Verbrauch im optimistischen Fall finde ich schon ziemlich meh. Die RX580 war nur 5-8% vor der RX480, die im Referenzdesign 165W gezogen hat. Wenn also RX5500 und RX480 gleichschnell sind und es 120W zu 165W steht, entspräche das einem Effizienzvorteil von knapp 40%. Bei 135W für die 5500 wären es sogar nur knapp 25%. Ja ich weiß, Sweetspot und so, wenn man ne 580er Custom nimmt, die für 3% mehr Leistung dann 230W zieht, dann sieht die Effizienz der 5500 wieder gut aus, aber so ein richtig großer Wurf ist das imho nicht. Ein geshrinkter P10 mit GDDR6 hätte das auch locker geschafft.

Ich will RDNA als Architektur nicht schlecht reden, denn die Leistung pro CU ist richtig gut. Eine 2070S kann die gesamten 2560SPs nur für FP nutzen und den INT-Kram nebenher auf die dafür dedizierten ALUs auslagern, während die 5700XT das alles durch ihre kombinierten ALUs durchziehen muss. Auch muss man sehen, wie gut größere RDNA-Chips skalieren, das könnte deutlich besser aussehen als bei GCN und somit schnellere Chips überhaupt erst ermöglichen. Aus Effizienzsicht ist es für mich aber kein Fortschritt gegenüber Polaris. Dass RDNA2 effizienter sein soll, ist deswegen ein absolutes Muss. Es gab doch mal irgendwann Gerüchte, dass AMD angeblich das originale Navi gecancelt hat, weil zu hoher Verbrauch und man erst 2020 mit einer entsprechende Architektur kommen will. Überraschenderweise kam dann doch RDNA schon 2019. Das könnte man auch so deuten, dass RDNA1 das unfertige RDNA2 wäre, welches aber trotzdem gut genug war, um zu releasen. So wie Zen 1 ;).

Dino-Fossil
2019-11-22, 14:08:22
Sehe ich ähnlich. Überzeugt hat mich bei Navi vor allem, dass die Perf/CU sich ggü GCN-alt verbessert hat. Immerhin schafft die 5500 offenbar mit 22CU (und mehr MHz, zugegeben) so viel, wie vorher die 480 bei 36.
Es wirkt aber ein wenig, als hätte sich AMD auch dazu entschlossen, die Chips lieber etwas kleiner anzulegen und über dem Sweet Spot zu betreiben (hat ja inzwischen Tradition und mag auch dem Prozess geschuldet sein).

Hakim
2019-11-22, 16:08:27
Hat AMD immer noch nicht am Multi Moni Power gearbeitet? Dachte das wäre seit den Vegas vom Tisch, das ist doch bei verdammt vielen quasi das Idle Desktop weil fast jeder inzwischen 2 Monis dran hat.

reaperrr
2019-11-22, 16:28:04
Man muss es leider auch mal so sehen:
Hätte AMD Polaris10/20/30 auf 7nm geshrinkt und das 256bit G5 SI durch ein 128bit G6 SI ersetzt, und vielleicht noch den L2$ verdoppelt, wäre das Resultat nicht größer - vmtl. sogar kleiner - als N14 ausgefallen, aber bei vergleichbarer Perf/W und sogar höherer maximal möglicher Performance (da höhere Leistung pro Takt, und Taktraten oberhalb der RX590 wären dann sicher möglich gewesen).
Auch ein hypothetischer halber V10 in 7nm mit 128bit G6 SI (4 CUs weniger, dafür höhere Taktraten pro W als ein P30-Shrink) wäre höchstwahrscheinlich schneller und wahrscheinlich sogar effizienter als N14 gewesen, und hätte im Gegensatz zu einem P30-Shrink auch DX12.1-Support mitgebracht.
Anders ausgedrückt, eine Navi-CU hat zwar ca. ~25% mehr IPC als eine Vega- und vllt. ~30% mehr als eine Polaris-CU, aber was bringt das, wenn sie dafür pro Takt (normalisiert auf den gleichen Prozess) auch 30-40% mehr verbraucht und ~33% (ggü. Vega) bzw. ~50% (ggü. Polaris) mehr Transistoren/Fläche verbrät? Ich meine, N14 hat mit 2/3 der CUs und halb so breitem SI 12% mehr Transistoren als P10...

Da passt es im Grunde ganz gut ins Bild, dass es von RDNA1 in 7nmDUV wohl nur die zwei Mainstream-Chips und eine Apple-exklusive HBM-Variante von N10 (N12) geben wird.
Will sagen, AMD wusste vorab, dass RDNA1, normalisiert auf den gleichen Prozess, nur "ganz ok" ist, aber kein großer Wurf und hat deshalb nur Mainstream-Ableger entwickelt, um diese Mittelmäßigkeit durch relativ hohe Taktraten über dem Sweetspot, relativ hohe Yields und konkurrenzfähige Preise kompensieren zu können.

Könnte mir vorstellen, dass sich alle Navi2x über N1x ansiedeln werden.
N21 = N10-Specs + 16 zusätzliche CUs (also 56), schnellerer Speicher (18Gbps?), ~2080Ti/3080 Perf @225W
N23 = ~80-88 CUs, verteilt auf 6-8 SEs, 16GB HBM2E, Perf N21 +40% @ ~300W
N22 = Apple-exklusive HBM2E-Variante von N21

Dazu dann noch N7P-Refreshes von N10 und evtl. N14, mit höheren Chip- und Speichertaktraten, und wir haben wahrscheinlich das 6000er Line-Up für 2020.

robbitop
2019-11-22, 16:43:34
Irgendwelche Grenzen muss man sich halt setzen, meine sehen eben so aus wie beschrieben.
Warum muss man sich Grenzen setzen? Finde ich unlogisch. Müssen muss man gar nichts - außer sterben. ;) Klar beim Preis kann man das verstehen. Aber bei Leistungsaufnahme?
Kriterien wie Preis, Lautstärke, Performance, Bauraum etc sind sicherlich Optimierungskriterien. Aber welche konkrete Leistungsaufnahme gerade läuft ist keine direkt spürbare Kenngröße.

———————-

IMO ist es schwierig, die Energieeffizienz einer uArch zu bewerten. Der Betriebspunkt macht so extrem viel aus. Spannung geht quadratisch in die Leistungsaufnahme und Takt linear. Außerdem steigt der Spannungsbedarf mit dem Takt ab einem Punkt überproportional. Der Effekt ist um Größenordnungen größer als der Einfluss einer uArch Iteration.

Dazu kommt, dass AMD ihre GPUs leider idR mit deutlich höherer Spannungsreserve betreibt als NV. NV scheint im Fertigungsprozess eine automatisierte Anpassung zu haben, die deutlich besser ist als die von AMD.

Wenn man uArchs (ohne diese Einflüsse) vergleichen wollte, müsste man wohl 2x vergleichbare GPUs wählen mit ähnlicher Rechenleistung und Bandbreite und ihnen ein fixes Performancetarget geben. Idealerweise 70-85% ihrer Nennleistung. Beide GPUs werden entsprechend geundervoltet und leicht untertaktet und dann wird Performance und Leistungsaufnahme gemessen.
Damit die Streuung der Güte der Dies (die einen nicht unwesentlichen Anteil am Ergebnis hat) ausgeklammert wird, müsste man eine entsprechende Stichprobengröße haben (>10 Exemplare pro GPU).

Unterm Strich macht NV einfach einen wesentlich besseren Job, die GPUs näher am Sweetspot zu betreiben und dabei möglichst wenig Spannungsreserve zu geben. Das ist sicherlich der größere Einfluss.

SKYNET
2019-11-22, 17:06:16
Um relevant zu sein, sollte sie deutlich unter 200 Euro kosten. Ich würde sagen 180 wäre wohl eine gute Zahl. 150 wäre ein Preisbrecher, aber ich denke, soweit wird AMD nicht gehen.

für 170€ kauft man ne RX590 und dreht das powerlimit nach unten, ist dann gleich schnell, dürfte kaum mehr saufen und wenn gewollt kannst die wieder auf 1700/4500 aufdrehen und leistung abrufen...

die 8GB version darf max. 150€*kosten, sonst verrottet die im laden.

Berniyh
2019-11-22, 17:34:44
N22 = Apple-exklusive HBM2E-Variante von N21
Da glaube ich nicht so richtig dran.
Das Geschäft im Low- bis Mid-Range Bereich ist für AMD sehr wichtig. Da wird man endlich mal alles GCN-basierte ablösen wollen.
N14 ist da ein wichtiger Baustein, aber ich denke schon, dass da auch aus der 2x Serie was kommen wird und tippe darauf, dass Navi22 dieser Chip ist.

Den Apple-Teil kann man ggf. über N23 lösen mit teildeaktivierten Chips um dort den Yield zu erhöhen?
Je nachdem wie groß N23 nun wirklich sein wird.

bzgl. RDNA: man darf hier nicht vergessen, dass RDNA1 der erste Durchlauf mit der neuen Architektur ist. Damit wurden erst mal die Weichen für die zukünftige Entwicklung gestellt.
Wie bei Zen1 kommen ggf. echte Optimierungen erst noch später.
RDNA2 (oder 3) könnte sich wieder ganz anders verhalten, je nachdem was da noch alles kommt.

Unicous
2019-11-22, 18:14:16
@SKYNET

Du redest wirres Zeug und dein Vergleich hinkt gewaltig. Die 5500 verhungert offensichtlich am VRAM und dein ich halbiere das power limit einer 590 und hab die gleiche Performance ist ja wohl ein schlechter Witz.:freak:

Und ich rede natürlich von der 8GB Version. Die 4GB Version würde ich bei unter 150 Euro platzieren, schon allein wenn man sieht, dass die 1650 Super wohl momentan ab 170 Euro kostet (laut geizhals Listungen).

BoMbY
2019-11-22, 21:32:22
Volles TPU Review einer RX 5500: https://www.techpowerup.com/review/amd-radeon-rx-5500/

Daredevil
2019-11-22, 22:23:49
Ja lol. Es ist eine gtx1060 mit 4gb :D
Für AMD ein großer Schritt, für den Markt Stagnation.

Der Preis muss regeln.

robbitop
2019-11-22, 22:43:55
Es ist halt unteres Midrangesegment. Polaris und Pascal sind EOL und werden abverkauft. Zum EOL sind Produkteoft besonders günstig. War sicherlich mit der GTX970/R290/390 zum 1060/480 release auch so.

EL_Mariachi
2019-11-22, 22:57:02
ich will ne Vega 256 .. oder so ;)

.

Pirx
2019-11-23, 09:22:10
Warum sollte HBCC tot sein und was hat das mit der Bandbreite zu tun? Es ist eine Technik, die in Hardware eine effizientere Ausnutzung des VRAMs regelt.
Gibts doch bei Navi nicht mehr, oder? Gerade bei ner 4 GB-Karte wäre es interessant.

MadPenguin
2019-11-23, 11:00:44
Ja lol. Es ist eine gtx1060 mit 4gb :D
Für AMD ein großer Schritt, für den Markt Stagnation.

Der Preis muss regeln.

Deswegen kommt ja die 5700m :)

davidzo
2019-11-24, 22:10:55
Ja lol. Es ist eine gtx1060 mit 4gb :D
Für AMD ein großer Schritt, für den Markt Stagnation.

Der Preis muss regeln.

Naja, es gibt zu jeder Midrange und Performance Generation Karten aus der vorherigen Generation die eine ähnliche Leistung bringen. Das ist zwischen turing und pascal auch nicht anders, zumal die kleinen turings sogar das gleiche featurelevel wie pascal haben.

Im Vergleich zur 1660 und zur rx580 verliert man sicher den einen oder anderen stich wegen der geringen VRAM Menge. Die 1650 super ist ein kastrierter TU116, da ist das was anderes, wenn man die nicht auf 4gb beschränkt würde das die 1660 kannibalisieren. Im Retail aber wird die 5500 aber in der 8Gb Variante dominieren, nicht die 4gb version aus dem OEM-Geschäft.

Zudem wurden bei der 1650 super ja werksübertaktete Karten gegen ein OEM modell getestet bei dem eine völlig overengineerte Spannungsversorgung der 5500xt auf der Platine sitzt. Die Partnermodelle legen da sicher nochmal 5% obendrauf und könnten dabei sogar noch sparsamer sein. Die 8gb tun dann auch noch den einen oder anderen bench für sich entscheiden, so dass die 5500 nicht nur mit der 1650 super, sondern aus kundensicht auch mit der vanilla 1660 6gb konkurrieren kann. Mission accomplished.

Unicous
2019-11-25, 04:05:53
Wie gesagt, ich checke nicht, was "der Kunde" will. 3 Monitorausgänge? Dann gibt es genug passiv gekühlte GPUs unter 50 Euro. Braucht der Kunde Performance? Dann gibt es eine passiv gekühlte 1050 Ti für 150 Euro (oder eine 1030 ab 70 Euro). Oder eben aktiv gekühlte GPUs. Und es gibt immer die Möglichkeit einen fetten Kühler draufzupacken und die GPU passiv zu betreiben. Displayport bietet die Möglichkeit über MST mehrere Displays anzuschließen.

Das ist eben mit Kosten verbunden, die Frage ist doch eh warum auf Biegen und Brechen eine passive Karte haben will wenn es Lüfter gibt die kaum hörbar sind, speziell wenn noch mehr Lüfter im Gehäuse vorhanden sind.

Bei den ersten beiden Links fehlen Klammern und der letzte Link zeigt die teuersten Karten (edit: bzw. was auch immer der "Bestpreis absteigend" ist) zuerst. ;)

Die günstigste Karte mit drei (m)DP-Anschlüssen ist eine Quadro für 126 Euro (also theoretisch 1050 Niveau). ;)

Denniss
2019-11-25, 14:38:03
das ist wohl zu sehr Nische, zu teuer in 7nm, 7nm Kapazität zu begrenzt.
Als AMD fürde ich die RX550 halbieren und in 12nm bei GF fertigen lassen. Mit DDR4 statt GDDR5 sollten da passive Karten drin sein.

Screemer
2019-11-26, 09:06:06
Evtl. solltest du dich noch einmal mit der Begrifflichkeit Splitter im Zusammenhang mit dp auseinander setzen. Stichwort sst/mst Hub.

robbitop
2019-11-26, 09:30:31
Zum Thema zurück bitte. Das ist kein Kaufberatungsthread.

dildo4u
2019-12-05, 12:22:38
RX 5500 8GB Timespy 4600 Punkte.

https://twitter.com/tum_apisak/status/1202385013297184768

RX590 4850 GPU Score.

https://www.guru3d.com/articles-pages/gigabyte-gtx-1660-super-gaming-oc-review,23.html

gedi
2019-12-06, 00:43:29
Praktisch ein Patt. TS als Vergleich finde allerdings ein wenig fragwürdig. Es würde mich eher der 3dk13-Wert interessieren. Naja, mehr als 180€ sollte das Ding trotzdem nicht kosten. Sicher braucht ne 5500 deutlich weniger Saft als ne 590, ist trotzdem@default aber marginal langsamer unterwegs. Time will tell ...

BoMbY
2019-12-10, 20:27:57
Gibt jetzt eine 16GB Navi10 als "AMD Radeon Pro W5700X" bei Apple:

AMD Radeon™ Professional GPUs Offer Breakthrough Graphics Performance for Apple Mac Pro (http://ir.amd.com/news-releases/news-release-details/amd-radeontm-professional-gpus-offer-breakthrough-graphics)

Vermutlich dürften dort dann wie früher erwähnt einfach Speichermodule mit 2GB (https://www.samsung.com/semiconductor/dram/gddr6/K4ZAF325BM-HC14/) Verwendung finden.

nordic_pegasus
2019-12-11, 06:26:35
kann man eigentlich eine Ankündigung von Big Navi auf der CES 2020 im Januar erwarten analog der Radeon VII Ankündigung im vergangenen Jahr?

dildo4u
2019-12-11, 08:18:42
Es gab doch 2018 schon die Instinct 7nm Karte wo der Ausschuss zur Vega 7 wurde,bis jetzt gibt es noch nix Handfestes zu Big Navi.
Auf der CES sollte AMD endlich Zen 2 Mobile zeigen.

AffenJack
2019-12-11, 09:01:17
kann man eigentlich eine Ankündigung von Big Navi auf der CES 2020 im Januar erwarten analog der Radeon VII Ankündigung im vergangenen Jahr?

Nein, frühestens zur Computex könnte da was kommen. Was aber möglich ist, ist eine Architekturpreview von RDNA2.

BoMbY
2019-12-18, 17:20:31
Sieht so aus als wäre PCIe 4.0 doch nicht ganz nutzlos für GPUs: PCI-E 3.0 vs. PCI-E 4.0: Was bringt PCI-Express 4.0 mit einer RX 5500 XT wirklich? (https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/)

Daredevil
2019-12-18, 17:30:28
Aber Aber Aber
Wie gesagt, ist egal bei der Karte.

.......

Früher hat man doch auch vollen Speicher kompensiert, indem man die PCIe Bandbreite hochgejagt hat, solang das noch ging.
Warum sollte es heute auch anders sein?

In dem Fall ist es leider sehr traurig, wenn die Karte an einem PCIe 3.0 System angebunden ist. :(

Loeschzwerg
2019-12-18, 17:44:07
In dem Fall ist es leider sehr traurig, wenn die Karte an einem PCIe 3.0 System angebunden ist. :(

Hätte alles nicht sein müssen wenn man ein volles x16 Interface spendiert hätte ;( So passt die Karte dann aktuell noch schlechter in das bestehende AMD Portfolio, denn für dieses Preissegment fehlen die günstigen PCIe4.0 Platinen (sollen ja zum Glück ca. Februar eintrudeln, laut Gerüchten).

Daredevil
2019-12-18, 17:56:57
Ja das stimmt.
Aber 8x PCIe 4.0 zu verbauen ist halt auch ( deutlich? ) billiger als 16x PCIe 3.0 denke ich mal, oder?

Von daher ist das schon in Ordnung, irgendwann muss AMD ja damit anfangen und 4.0 pushen bzw. dem eine Daseinsberechtigung geben.
Als MacBook Pro Nutzer würde ich mich aber ab sofort nicht "vollkommen" fühlen mit der Intel CPU und 3.0. :D

Loeschzwerg
2019-12-18, 18:15:13
DIE-size Unterschied x16 3.0 vs x8 4.0 weiß ich ehrlich gesagt nicht. Hat da jemand Infos?

AMD darf gerne pushen, aber dann sollte es auch halbwegs passen. Also entweder x8 4.0 auf B450/X470 zulassen (da gab es ja einige Boards die keine vollen x16 hätten bieten können) oder entsprechend schneller für B550 Boards (also CPU seitiger PCIe 4.0 Unterstützung) ums Eck kommen. So ist das halt alles wieder etwas unglücklich (aber auch kein Weltuntergang, da muss man die Kirche schon im Dorf lassen).
Möglicherweise ist das auch ein weiterer Punkt weshalb Navi14 etwas länger gebraucht hat? Um näher am Release von günstigen PCIe 4.0 Mainboards zu sein?

mczak
2019-12-18, 23:57:40
DIE-size Unterschied x16 3.0 vs x8 4.0 weiß ich ehrlich gesagt nicht. Hat da jemand Infos?

Also bei Polaris 10 braucht der pcie 3.0x16 PHY so circa 6.5mm^2 Fläche (ist physikalisch als 4 4x Blöcke organisiert, auf den Die-Shots gut zu sehen). Auch da hat ja AMD bei den Polaris 11/12 die paar (also etwas mehr als 3) Quadratmillimeter gespart, das waren dann so um die 3% Chipfläche (etwas mehr bei Polaris 12).
Keine Ahnung wie das bei 7nm und pcie 4.0 aussieht, von Navi habe ich noch keine Dieshots gesehen - i/o shrinkt ja schlecht aber die schnelleren Uebertragungsraten brauchen wohl auch nicht allzu viel Fläche, also vielleicht am Ende ähnlich gross? Selbst wenn es etwas mehr ist dürften es in Prozent der Chipfläche bei Navi 14 nicht mehr sein weil der Chip ja grösser ist als Polaris 11.
Sieht man sich die Resultate so an dann scheint mir diese Ersparnis rechnet sich nicht wirklich (wenn man davon ausgeht dass die Karten überwiegend mit pcie 3.0 betrieben werden, und vor allem auch so getestet werden). Auf keinen Fall bei den 4GB Versionen und auch nicht wirklich bei den 8GB Varianten... Andererseits, betreibt man die Dinger an einer Raven Ridge APU wie das AMD wohl gerne sehen würde im lower-end Bereich hat man eh bloss pcie 8x :-).

Loeschzwerg
2019-12-19, 11:41:17
Danke für die Info :)

Sieht man sich die Resultate so an dann scheint mir diese Ersparnis rechnet sich nicht wirklich

Ja, genau darauf wollte ich hinaus. Gut, vermutlich ist Navi14 auch sehr mit Fokus auf Mobile entworfen worden, da wäre die Entscheidung für x8 Interface zumindest halbwegs nachvollziehbar (rächt sich halt auf anderer Seite auf dem Desktop).

unl34shed
2019-12-19, 12:25:16
Als ob x8 wirklich einen nennenswerten Performance Nachteil haben wird. Das Interface war doch schon zu PCIe2.0 Zeiten schnell genug.

Bei der 5700xt sind es im Schnitt 2% gegenüber PCIe 4 x16, ja ich weiß, für einige sind das Welten :rolleyes:
https://www.techpowerup.com/review/pci-express-4-0-performance-scaling-radeon-rx-5700-xt/24.html

Gut könnte mit nur 4GB und dadurch mehr Streaming ggf ein größeren Einfluss haben. Aber wer kauft schon 4GB Karten in fast 2020, abgesehen von Office, wo die FPS egal sind :freak:.

BoMbY
2019-12-19, 13:21:03
Letzte Seite nicht gelesen? Offenbar sind PCIe 3.0 x8 nicht mehr genug (https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/) ...

][immy
2019-12-19, 14:59:59
Letzte Seite nicht gelesen? Offenbar sind PCIe 3.0 x8 nicht mehr genug (https://www.pcgameshardware.de/Radeon-RX-5500-XT-Grafikkarte-275529/Specials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/) ...
hier würd ich eher auf einen Treiberbug oder so tippen, denn die Unterschiede zwischen den Tests dürften nicht so extrem sein.
Besonders Wolfenstein, welches in 1080p nicht mal bei Average ~21 fps landet, sollte an dem Test zweifeln lassen. Selbst 39fps bei PCIe 4 sind da etwas wenig. Da ist definitiv was beim Testen schief gegangen.

nur mal als Vergleich (erstes google ergebnis) https://www.overclock3d.net/reviews/software/wolfenstein_youngblood_pc_performance_review/8
Mit einer RX580 116 Average FPS.
Also 3 stellig sollte das Ergebnis bei dem RX580 Ersatz eigentlich schon sein (zumindest Average). Aber ja, Karten mit 4GB kommen bei Yougblood recht schlecht weg.

Dino-Fossil
2019-12-19, 15:06:11
Passend zur Weihnachtszeit, ein wenig Spekulatius von Igor zur 5600XT:

https://www.igorslab.de/amds-radeon-rx-5600-xt-schon-im-januar-2020-als-navi10-ableger-mit-6-gb-ram-und-3-4-ausbau-nachgefragt/ (https://www.igorslab.de/amds-radeon-rx-5600-xt-schon-im-januar-2020-als-navi10-ableger-mit-6-gb-ram-und-3-4-ausbau-nachgefragt/)

Am Ende wirklich eine 6GB-Karte über der 8GB 5500XT? Wieder mal der Marketingpraktikant am Werk? Oder kommt doch noch alles ganz anders?

dildo4u
2019-12-19, 15:38:09
Wie sollen sie sonst mit Nvidia konkurieren?1660 Super ist bei 230€,5500XT 8GB liegt schon über 200€ irgendwo müssen sie ansetzen.

dargo
2019-12-19, 15:45:25
Am Ende wirklich eine 6GB-Karte über der 8GB 5500XT? Wieder mal der Marketingpraktikant am Werk?
Was willst du bei einem 192Bit SI sonst haben? 12GB? :freak:

Dino-Fossil
2019-12-19, 16:29:29
12 werden es sicherlich nicht. Die Alternative wäre natürlich ein 256bit SI - falls man nicht einfach den ganzen CU-Block deaktiviert.

Complicated
2019-12-19, 17:23:57
Hätte alles nicht sein müssen wenn man ein volles x16 Interface spendiert hätte ;( So passt die Karte dann aktuell noch schlechter in das bestehende AMD Portfolio, denn für dieses Preissegment fehlen die günstigen PCIe4.0 Platinen (sollen ja zum Glück ca. Februar eintrudeln, laut Gerüchten).
Es sein denn AMD möchte PCIe 4.0 einfach auch tiefer in den günstigen Plattform-Bereich pushen. Die Mainboardhersteller (und AMD ebenso) wird es freuen, wenn eine B550 (PCIe4) Plattform die alten X370/X470 Plattformen mit einer RX 5500 bei den FPS übertrifft.

So werden die Redaktionen ja faktisch gezwungen sowohl eine AMD als auch eine Intel Plattform zu testen. Das ganze wird PR-technisch für Intel wohl zu mehr Problemen führen als bisher, spätestens wenn Nvidia ebenfalls PCIe 4.0 Produkte hat.

Die B550-Plattform könnte deutlich günstiger ausfallen als bisher gedacht, womöglich wird es x16 PCIe nur für die X-Plattform geben am GPU-Slot.
Die Segmentierung, welche Intel zuvor mit den CPUs durchgeführt hat erfolgt bei AMD dann über diese Chipsatz-Plattform.
AM4 mit X16 (X570) und mit X8 (B550 und darunter)
TRX4 mit zusätzlichen PCIe-lanes über den Chipsatz (mit 8x PCIe4 angebunden)

Die derzeitige Aufmerksamkeit für die Ryzen-Plattform wird es schwierig machen dem Mediamarktkunden zu vermitteln, dass der Midrange PC für 600-800 Euro mit PCIe3 x16 und einer PCIe3-Nvidia GPU genau so schnell ist wie eine B550+PCIe4 x8-GPU ist.
- 4 ist neuer als 3,
- x8 PCIe4 hat die selbe Bandbreite wie 16x PCIe3
- PCIe4 gibt es nur bei AMD Plattform

Und schon hat der Mediamarktverkäufer seinen Job getan.
OEMs verkaufen neue Mainboards und Komplettsysteme, was plötzlich PCIe4 zum Verkaufsargument macht anstatt zum Checklisten-Feature. Nicht für die GPU, aber sehr wohl für die nächste CPU-Plattform und es entsteht erster Upgradedruck im Mainstream, noch lange bevor Intel da etwas liefern kann.

Ausserdem: Diese B550 Boards werden die AM4-APU-Plattform für Renoir im Desktop sein. Wenn da Nvidia-GPUs nur mit 8x PCIe angesprochen werden wird es schwierig werden in dem Segment für Nvidia ohne PCIe4 auf APU-Systemen - vor allem in Benchmarks wenn die neuen Renoir APUs mit GPU gegen getestet werden wie das ja üblich ist. Intel wir keine neuen Desktop CPUs haben die PCIe4 können. Und es wird keinen Sinn ergeben mit einer Nvidia ohne PCIe4 gegen die IGP zu testen.

mczak
2019-12-19, 19:28:13
Die B550-Plattform könnte deutlich günstiger ausfallen als bisher gedacht, womöglich wird es x16 PCIe nur für die X-Plattform geben am GPU-Slot.
Das kann ich mir nur schwer vorstellen dass AMD da künstlich auf pcie 8x limitiert. Ich sehe eigentlich auch keinen Grund wieso am Ende die B550 Plattform merklich teurer sein soll als B450, so nach den Gerüchten kann der Chipsatz ja auch kaum mehr als der alte (ausser dem längst fälligen pcie 3.0 Support auf den eigenen Lanes).

Berniyh
2019-12-20, 23:07:54
Komachi verweißt auf neue Patches von AMD zu Navi12, welche Frequenzen enthalten.
https://lists.freedesktop.org/archives/amd-gfx/2019-December/044227.html

Daraus:
#define NAVI12_UMD_PSTATE_PEAK_GFXCLK (1100)

Zum Vergleich hier Navi10
#define NAVI10_PEAK_SCLK_XTX»···»···(1830)
#define NAVI10_PEAK_SCLK_XT »··»···(1755)
#define NAVI10_PEAK_SCLK_XL »··»···(1625)
(XTX ist hier die 25th Ann. Editiion)
und Navi14:
#define NAVI14_UMD_PSTATE_PEAK_XT_GFXCLK (1670)
#define NAVI14_UMD_PSTATE_PEAK_XTM_GFXCLK (1448)
#define NAVI14_UMD_PSTATE_PEAK_XLM_GFXCLK (1181)
#define NAVI14_UMD_PSTATE_PEAK_XTX_GFXCLK (1717)
#define NAVI14_UMD_PSTATE_PEAK_XL_GFXCLK (1448)

Mit einem High-End Chip passen die 1100 MHz irgendwie nicht zusammen. Die Frequenzen sind niedriger als bei Navi14, aber wir wissen ja immer noch, dass der Chip mehr SDP Interfaces hat, d.h. ein größeres Speicherinterface.

Letztendlich wird das dann wohl irgendein Chip für eine Spezialanwendung sein und wohl kaum noch für den Desktop erscheinen?
Nächster Desktop Chip dürfte dann Navi21 oder Navi23 sein.

BoMbY
2019-12-21, 10:58:37
Ja, wenn ich das richtig verstehe vermutet Komachi auf Twitter dass es eine speziell für Mobile gedachte GPU sein könnte.

Vielleicht ähnlich wie Vega12, welche ja quasi nie wirklich verfügbar war? Könnte eventuell dann zusammen mit den neuen Mobile APUs auf der CES vorgestellt werden.

Das würde dann zumindest Sinn ergeben dass es eigentlich niergendwo dazwischen passt, und dann auch nicht größer als Navi10 ist.

Berniyh
2019-12-21, 11:32:24
Ja, wenn ich das richtig verstehe vermutet Komachi auf Twitter dass es eine speziell für Mobile gedachte GPU sein könnte.

Dachte ich auch erst, aber Navi14 ist ja gerade erst als dedizierte Grafikkarte für Mobile vorgestellt worden. Da noch eine zusätzlich macht nicht so viel Sinn, zumal mit den Taktraten. Und falls noch kleiner als Navi14 macht das mit den SDP Interfaces einfach keinen Sinn.
Vielleicht ähnlich wie Vega12, welche ja quasi nie wirklich verfügbar war? Könnte eventuell dann zusammen mit den neuen Mobile APUs auf der CES vorgestellt werden.

Das würde dann zumindest Sinn ergeben dass es eigentlich niergendwo dazwischen passt, und dann auch nicht größer als Navi10 ist.
Schon möglich, prinzipiell hätte ich eher irgendeine APU vermutet, allerdings kommen die APUs – soweit uns bekannt – entweder noch mit Vega (Renoir, Dali) oder gleich mit RDNA2 (Van Gogh/Cézanne).
Lediglich bei Rembrandt ist das noch nicht klar, aber über Rembrandt weiß man so wenig, dass es extrem unwahrscheinlich scheint, dass das ein Navi12 Chip ist.

Am Ehesten könnte ich mir noch vorstellen, dass es sich um eine auf Effizienz getrimmte GPU für Computing Anwendungen handelt.
Aber selbst das wirkt irgendwie seltsam, denn eigentlich dachte ich dafür wäre Arcturus geplant.

mboeller
2019-12-21, 12:08:48
Ja, wenn ich das richtig verstehe vermutet Komachi auf Twitter dass es eine speziell für Mobile gedachte GPU sein könnte.


Renoir? Obwohl ja viel Gerüchte und Quellen von einer Vega GPU für Renoir ausgehen.

basix
2019-12-21, 12:10:16
Zwischen den APUs und einer 5500M ist noch massig Platz.

Ich habe da so eine wilde Theorie (wenn N12 nicht Renior ist):
N12 kommt als Compute Chiplet ohne SI, PCIe und Display Controller. Das Chiplet wäre über IF angebunden und mit 1024 CUs wäre man bei ca. 70-80mm2.
Die Renoir Standalone APU hätte mit der Vega iGPU genug Leistung für Feld/Wald/Wiese und der APU Die bleibt relativ klein. Will man aber mehr Leistung, packt man N12 dazu. Ergäbe ca. 1.5-2x Boost und füllt die Lücke. Eigentlich vom Geschäftsmodell her ähnlich wie bei Intel mit ihrer Iris Graphics. Ausserdem ein Dry Run für zukünftige APUs.

Brillus
2019-12-21, 12:30:46
Zwischen den APUs und einer 5500M ist noch massig Platz.

Ich habe da so eine wilde Theorie (wenn N12 nicht Renior ist):
N12 kommt als Compute Chiplet ohne SI, PCIe und Display Controller. Das Chiplet wäre über IF angebunden und mit 1024 CUs wäre man bei ca. 70-80mm2.
Die Renoir Standalone APU hätte mit der Vega iGPU genug Leistung für Feld/Wald/Wiese und der APU Die bleibt relativ klein. Will man aber mehr Leistung, packt man N12 dazu. Ergäbe ca. 1.5-2x Boost und füllt die Lücke. Eigentlich vom Geschäftsmodell her ähnlich wie bei Intel mit ihrer Iris Graphics. Ausserdem ein Dry Run für zukünftige APUs.

Problem dabei ist Speicherbandbreite. Ohne ein eigenes verhungert so ein chip.

Ghost1nTh3GPU
2019-12-21, 12:40:31
Ein 4GB HBM2 Chip würde wohl auch noch auf das Package passen und wenig Die-Fläche für den IMC benötigen.

Complicated
2019-12-21, 13:08:08
APUs werden in der 15W TDP Klasse kein Chiplet-Design aufbieten können. Da Renoir diese ebenfalls abdeckt, wird IF zu viel Strom verbrauchen in diesen Geräten.

Allerdings ist der Gedanke, dass Navi12 tatsächlich ein Chiplet ist mit diesen Werten doch interessant. Nur wird es vielleicht eher in Ryzen/TRX/EPYC-Plattformen auftauchen, wo mehr Kerne effizienter den I/O-Verbrauch abfedern können in der zur Verfügung stehenden TDP, als das mobile Chips können.

reaperrr
2019-12-21, 13:10:21
Dachte ich auch erst, aber Navi14 ist ja gerade erst als dedizierte Grafikkarte für Mobile vorgestellt worden. Da noch eine zusätzlich macht nicht so viel Sinn, zumal mit den Taktraten. Und falls noch kleiner als Navi14 macht das mit den SDP Interfaces einfach keinen Sinn.

Ich glaube nach wie vor, dass die Gerüchte stimmen und N12 einfach N10 + HBM exklusiv für Apple ist.
Da macht auch der niedrige Takt Sinn, denn mit sehr niedriger Spannung sowie HBM erreicht man sicher auch eine verdammt gute Perf/W, was für Apple's MacBooks wichtig wäre.

Complicated
2019-12-21, 13:49:07
Das würde nach aktueller Gerüchtelage bedeuten Apple hätte 2 Semi-Custom-Produkte in Auftrag gegeben. Die "Van Gogh"-APU wird auch Apple zugeschrieben mit Navi23 RDNA2 iGPU, das erscheint mir geeigneter für MacBooks:
AMD Prepares “Van Gogh” Custom APU With Navi 21/23 RDNA2 Architecture iGPU (https://ownsnap.com/amd-prepares-van-gogh-custom-apu-with-navi-21-23-rdna2-architecture-igpu/)

Berniyh
2019-12-21, 14:05:07
Ich glaube nach wie vor, dass die Gerüchte stimmen und N12 einfach N10 + HBM exklusiv für Apple ist.
Da macht auch der niedrige Takt Sinn, denn mit sehr niedriger Spannung sowie HBM erreicht man sicher auch eine verdammt gute Perf/W, was für Apple's MacBooks wichtig wäre.
hm naja, dafür ist der Takt irgendwie doch zu niedrig, findest du nicht?

reaperrr
2019-12-21, 14:35:52
hm naja, dafür ist der Takt irgendwie doch zu niedrig, findest du nicht?
Kommt auf die angepeilte TDP an.

Die normale 5500M braucht ja schon 80W, wenn Apple eine höhere Performance in deutlich weniger TDP (~50W) wollte, ginge das nur über ein breiteres Design mit (deutlich) weniger Takt/Spannung.

Das würde nach aktueller Gerüchtelage bedeuten Apple hätte 2 Semi-Custom-Produkte in Auftrag gegeben.
Was ich erstmal nicht pauschal ausschließen würde, wenn die Gerüchte denn stimmen.

Die "Van Gogh"-APU wird auch Apple zugeschrieben mit Navi23 RDNA2 iGPU, das erscheint mir geeigneter für MacBooks:
AMD Prepares “Van Gogh” Custom APU With Navi 21/23 RDNA2 Architecture iGPU (https://ownsnap.com/amd-prepares-van-gogh-custom-apu-with-navi-21-23-rdna2-architecture-igpu/)
Ich denke eher, dass VG einfach der Renoir-Nachfolger ist.
Außerdem wissen wir doch gar nicht, in welcher Leistungsklasse die iGPU von VG landet. Wenn Apple wirklich eine APU von AMD verwendet, ersetzen sie damit eher die Intel-Modelle ohne diskrete GPU.

BoMbY
2019-12-21, 14:53:16
Gut, theoretisch wäre es denkbar dass AMD mit den APUs zweigleisig fährt - eine kompakte für wenig TDP und eine Chiplet-APU für etwas mehr Power.

Berniyh
2019-12-21, 16:20:19
Kommt auf die angepeilte TDP an.

Die normale 5500M braucht ja schon 80W, wenn Apple eine höhere Performance in deutlich weniger TDP (~50W) wollte, ginge das nur über ein breiteres Design mit (deutlich) weniger Takt/Spannung.
Klar, aber so einem Teil spendiere ich doch dann kein so großes Speicherinterface.
Das wäre hoffnungslos überdimensioniert.

basix
2019-12-21, 17:01:56
Problem dabei ist Speicherbandbreite. Ohne ein eigenes verhungert so ein chip.

Ja Bandbreite ist ein Problem. Aber Navi ist schon deutlich effizienter als Vega. Das gibt gut +50% Boost. Und kombiniert man das mit LPDDR4 mit 3733 MHz, hat man nahe an 2x zu heute ;)

Und ausserdem wird der Chip in diesen TDP Bereichen eh nicht hoch takten, Breite ist da sogar von Vorteil. Und evtl. gibt es auch 35-45W SKUs, dann ist der Off-Chip Link auch nicht mehr so ausschlaggebend was Energieverbrauch anbelangt. Man muss die GPU wie eine dGPU betrachten. Für Akkulaufzeit läuft die Vega iGPU, beim Gaming mit angeschlossenem Netzteil das Navi Chiplet. Dadurch erschliesst man einfach noch ein paar Märkte. Und wie gesagt, wäre ein Dry Run, wie das Konzept bei Systemintegratoren und Kunden ankommt.

Vorteil: 1x Speicher anstatt 2 (CPU und GPU getrennt); viel geringerer Footprint als bei dGPU à la 5300M

BoMbY
2019-12-22, 15:00:01
Okay, also ich revidiere meine bisherige Spekulation zu Navi12.

Mit den neuen und alten Informationen, plus die Gerüchte dass AMD irgendwas bei Samsung kocht, und mit der Information dass es nicht Navi14 (https://www.tomshardware.com/news/gpu-inside-radeon-rx-5500-xt-allegedly-comes-from-samsung-not-tsmc) ist, und auch wegen dieses Patents (http://www.freepatentsonline.com/20190332561.pdf).

Wie gesagt reine Spekulation, aber ich denke jetzt Navi12 ist ein GPU-Chiplet mit Stacked-DRAM (vielleicht 1024 Bit, 4 GB, 4-Hi nach HBM2-Schema) als High Bandwidth Cache, komplett gefertigt bei Samsung, mit so vielen CUs wie man halt auf ungefähr die Fläche von einem Matisse CPU-Chiplet bekommt.

Ein Teil der 16 SDP wird für die Kommunikation mit dem Stacked-RAM (vermutlich 8) benötigt, ein Teil für Kommunikation mit dem normalen RAM, dem IO-Chiplet, für Cache Cohernce, und dem HBCC-Controller, oder was auch immer.

Eingesetzt wird das ganze neben einem Matisse CPU-Chiplet, eventuell mit anderem IO-Chiplet, und vermutlich dann nur auf größeren APUs ab 45W.

Edit: Die Größe ist vermutlich dann 7.75 mm × 11.87 mm = 91.99 mm², entsprechend HBM2, unwesentlich größer als ein Matisse CPU-Chiplet (7,67 mm × 10.53 mm = 80.77 mm²) .

Edit2: "On-Die 3D Stacked Memory in Development":

https://i.imgur.com/mwrrXKJh.jpg

https://static.sched.com/hosted_files/2019riceoilgasconference/58/Forrest%20Rice%20Oil_Gas_HPC%20Keynote%20%E2%80%93%20030419%20FINAL2.pdf

Berniyh
2019-12-22, 15:39:56
Für die Kommunikation zwischen Chips gibt es ein SDF, welches auf IF aufbaut.
Ich glaube nicht, dass dafür SDP Interfaces drauf gehen.
Zudem weiß ich nicht, ob man bei einem einzigen Stack auf der GPU drauf so ohne weiteres 8 Kanäle hinbekommt.

Letztendlich ist es wahrscheinlich, dass irgendwann sowas kommt, ob aber schon mit Navi12 ist eine andere Frage.

Die Spekulationen gehen aktuell eher in die Richtung, dass Navi12 der Chip der RX5600 ist, allerdings macht das in meinen Augen wenig Sinn, denn zum Einen wäre die Taktfrequenz zu niedrig (soweit der Wert in dem Patch für den Linux Kernel Treiber stimmt), zum Anderen kann man die Anforderungen ja bereits recht gut mit defekten/teildeaktivierten Navi10 Chips abfangen.

BoMbY
2019-12-22, 16:24:07
SDP und das SDF existieren parallel:

SDPs sind quasi die Netzwerkadapter zum Infinity Fabric:

https://i.imgur.com/c5VNP2Nh.jpg

basix
2019-12-22, 16:46:51
Okay, also ich revidiere meine bisherige Spekulation zu Navi12.

Mit den neuen und alten Informationen, plus die Gerüchte dass AMD irgendwas bei Samsung kocht, und mit der Information dass es nicht Navi14 (https://www.tomshardware.com/news/gpu-inside-radeon-rx-5500-xt-allegedly-comes-from-samsung-not-tsmc) ist, und auch wegen dieses Patents (http://www.freepatentsonline.com/20190332561.pdf).

Wie gesagt reine Spekulation, aber ich denke jetzt Navi12 ist ein GPU-Chiplet mit Stacked-DRAM (vielleicht 1024 Bit, 4 GB, 4-Hi nach HBM2-Schema) als High Bandwidth Cache, komplett gefertigt bei Samsung, mit so vielen CUs wie man halt auf ungefähr die Fläche von einem Matisse CPU-Chiplet bekommt.

Ein Teil der 16 SDP wird für die Kommunikation mit dem Stacked-RAM (vermutlich 8) benötigt, ein Teil für Kommunikation mit dem normalen RAM, dem IO-Chiplet, für Cache Cohernce, und dem HBCC-Controller, oder was auch immer.

Eingesetzt wird das ganze neben einem Matisse CPU-Chiplet, eventuell mit anderem IO-Chiplet, und vermutlich dann nur auf größeren APUs ab 45W.

Edit: Die Größe ist vermutlich dann 7.75 mm × 11.87 mm = 91.99 mm², entsprechend HBM2, unwesentlich größer als ein Matisse CPU-Chiplet (7,67 mm × 10.53 mm = 80.77 mm²) .

Das geht Hand in Hand mit meiner Speku, einfach mit noch HBM dazugemischt. Die 92mm2 Hören sich logisch an. Die paar mm2 Fläche gehen für die Interfaces drauf. Ich würde immer noch auf 1024 Shader-Units spekulieren und auf Energieverbrauch optimiertes Layout. Was ich aber als Problem sehe: Der Matisse I/O Die hat keinen Display Controller usw., ergo müsste man ein neues I/O Die haben oder das Zeug aufs Chiplet verlegen. Beides nicht optimal. Ausserdem hat Matisse mit GPU gegenüber Renoir nicht wirklich Vorteile ausser evtl. mehr PCIe Lanes. Ergo: Matisse mit GPU-Chiplet lohnt sich nicht. Renoir schon, bei Mobile wie auch Desktop. Auf dem Desktop könnte man bei Renoir + GPU-Chiplet sogar die Vega CUs sogar komplett deaktivieren (steigert Yield).

BoMbY
2019-12-22, 17:22:43
Da sind ein paar mögliche RX 5600 3DMark Werte aufgetaucht:

https://www.reddit.com/r/Amd/comments/ee5rrr/oem_rx_56005600_xt_1624mhz_boost_6gb_gddr6_12gbps/

Bis auf die Treiberversion deutet aber nichts auf AMD hin.

robbitop
2019-12-22, 18:47:53
Hatte AMD die Kombination von Zen 2 Chiplets mit GPU Chiplets nicht vor Monaten verneint?

Frage wäre auch für welchen Markt das gut sein soll.

BoMbY
2019-12-22, 19:21:24
AMD stated that, at this time, there will be no version of the current Matisse chiplet layout where one of those chiplets will be graphics. We were told that there will be Zen 2 processors with integrated graphics, presumably coming out much later after the desktop processors, but built in a different design.


https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000

Da ist es wieder wichtig den genauen Wortlaut zu kennen um das interpretieren zu können. "At this time" heißt nicht niemals. Und "there will be Zen 2 processors with integrated graphics" schließt das auch nicht aus, vor allem nicht wenn es beides gibt.

Berniyh
2019-12-22, 19:28:50
Hatte AMD die Kombination von Zen 2 Chiplets mit GPU Chiplets nicht vor Monaten verneint?
Jein. Es war die Aussage, dass das mit Matisse nicht passieren wird, d.h. Zen 2 CCD + IO Die.
Das schließt aber nicht zwangsläufig aus, dass das Zen 2 CCD mit einem anderen IO Die (evtl. inkl. GPU und HBM2) kommt.

Halte es dennoch für unwahrscheinlich, eigentlich gilt es doch als ziemlich gesichert, dass Renoir ein monolithischer Chip ist.
Wie das dann bei Rembrandt, Van Gogh etc. aussehen wird wissen wir natürlich nicht.

robbitop
2019-12-22, 19:35:48
Wie gesagt: für welchen Markt soll das interessant sein. Für mobile sind Chiplets unnötig durstig. Für Desktop sind low Endkarten tot und darüber gibt es dGPUs.

basix
2019-12-22, 22:10:33
Wie gesagt: für welchen Markt soll das interessant sein. Für mobile sind Chiplets unnötig durstig. Für Desktop sind low Endkarten tot und darüber gibt es dGPUs.

High End Notebooks und Mobile Workstations. Sind sehr verbreitet. Fast keine Firma schafft sich noch Desktops an. Diese Geräte noch leichter und stromsparender zu machen, würde sich lohnen. Mein aktueller Arbeitsplatzrechner hat einen 9850H und eine T2000 verbaut. PCIe, dedizierte Stromversorgung usw. ist definitiv nicht stromsparender als etwas IF und zudem teurer. Andere Dinge wie bei einer Radeon SSG würden so auch automatisch möglich werden. Für grössere CAD Modelle etc. wäre das nicht schlecht.

Und noch weiter in die Zukunft gedacht: Man könnte die GPU auch mit einem AI-Beschleuniger ersetzen oder ergänzen. Gibt immer mehr Anwendungsfälle, wo das etwas bringt.

Im oben genannten Markt geht es um harte Kohle (günstigere Geräte, effizientere Arbeitsweisen, Leute können kleinere Geräte mitschleppen und machen das somit lieber, usw.). Wenn AMD den Firmen dadurch einen Vorteil verschafft, wird das in Nullkommanichts gekauft.

Ausserdem spart man sich so im Endeffekt Chipfläche (und somit Geld), da weniger PCIe Lanes benötigt werden und zudem 1x Display Controller, VCE und was dazugehört eingespart werden kann.

sulak
2019-12-22, 22:25:57
Seltsame Reihenfolge, in der die Navi Chips kommen.
RX5700 = 251mm² = zuerst
RX5500 = 158mm² = ChrysmasEdition
RX5600 = unklar ob eigener Chip? = 3. Woche 2020
?RX5800 = 350-450mm² = 1H/2020 = Konsolen GPU

Fehlt noch der Krümel mit ~100mm²

€: https://wccftech.com/amd-radeon-rx-5600-xt-gpu-benchmarks-leak-faster-than-gtx-1660-ti/
192Bit Speicherinterface, könnte ein gut abgespeckter Navi10 oder eigenständiger Chip sein. Tritt gegen die 1660/1660S/1660Ti an xD
Dann sind 7nm Kapazitäten also nicht so knapp, oder AMD hat gut gebucht, und teuer kanns ja auch nicht sein, wenn man gleich 3 Chips (wenn auch relativ klein) raushaut in 6 Monaten.

€€: Von Twitter VideoCardz.com
RX 5600 XT:
�� 6GB 192-bit 12 Gbps = [wäre damit die RAM Konfig der 1660TI]
�� new GPU, NOT Navi14
�� Might be: N10LE, N21, Ariel (no idea, just guessing).
�� Was told the GPU will also be used by sth else. Prob not a console as it lacks hw RT.
�� Was also told ASIC size will tell us a lot.

Spekulatius an: 2x diese neue GPU = Interessanter Chip ^.^ hätte auch ein 384-Bit SI

Nehmen wir noch den Faktor 2,5, dann hat die RX5600XT ROPs/TMUs: 48/120 - fertig
Der "Dicke" (2x die RX5600-GPU) dann entsprechend 96/240 - liegt über der vollen TU104

Denniss
2019-12-22, 22:32:33
AMD musste sich mit einem Paukenschlag zurückmelden um Nvidia in der ertragsstärksten Leistungsregion anzugreifen (2060-2070).
Was größeres (TI-Killer) wird mit RDNA1 und 7nm wohl nicht drin sein, und mit den recht kleinen Chips startet man normalerweise nicht.
Mal schauen was RDNA2 und 7nm+ bringen

Linmoum
2019-12-22, 23:08:18
AMD musste sich mit einem Paukenschlag zurückmelden um Nvidia in der ertragsstärksten Leistungsregion anzugreifen (2060-2070).
Brauchen sie nicht mehr, dort haben sie Nvidia bereits erfolgreich mit der 5700(XT) angegriffen.

Was fehlt, ist eine Karte zwischen 5500XT und 5700. Dort ist die Lücke zu groß.

reaperrr
2019-12-22, 23:44:11
Brauchen sie nicht mehr, dort haben sie Nvidia bereits erfolgreich mit der 5700(XT) angegriffen.

Was fehlt, ist eine Karte zwischen 5500XT und 5700. Dort ist die Lücke zu groß.
Naja, die Lücke zwischen 460/560 und 470/570 ist leistungstechnisch ähnlich groß und die haben sie auch nie geschlossen.

Allerdings ist diesmal auch die preisliche Lücke deutlich größer, und die V56 so gut wie vom Markt, in die Lücke muss natürlich noch was rein.

Berniyh
2019-12-23, 10:46:43
Seltsame Reihenfolge, in der die Navi Chips kommen.
RX5700 = 251mm² = zuerst
Die RX5700 musste zuerst kommen, da es für AMD wichtig war die Vega Karten abzusetzen.
Bei Polaris war der Drang deutlich geringer.
?RX5800 = 350-450mm² = 1H/2020 = Konsolen GPU
Eine RX5800 wird es wohl nicht mehr geben.
Dafür ist der zeitliche Abstand zu Navi2x inzwischen einfach zu gering, welche ja angeblich einen High-End Chip mitbringt.
Schätzungsweise wird Navi2x dann auch als RX6000 Serie eingeführt.
192Bit Speicherinterface, könnte ein gut abgespeckter Navi10 oder eigenständiger Chip sein.
Eigenständiger Chip macht da wenig Sinn.
Der einzige Chip der in Frage käme wäre Navi12, aber bei einem reduzierten Speicherinterface (gegenüber Navi10) würde man auch erwarten, dass die SDP Interfaces reduziert sind und das ist nach unserem bisherigen Wissen nicht der Fall.
Zudem sind eben die Taktfrequenzen arg niedrig.
Bei den Angaben (192Bit, 6GB RAM) passt ein teildeaktivierter Navi10 Chip wie die Faust aufs Auge, also warum soll es was anderes sein?
Oder ist etwa gemeint, dass man nur nen anderen Sticker drauf macht und es geringfügig anders benennt?
Wird trotzdem aus der gleichen Fertigung kommen.
Spekulatius an: 2x diese neue GPU = Interessanter Chip ^.^ hätte auch ein 384-Bit SI

Nehmen wir noch den Faktor 2,5, dann hat die RX5600XT ROPs/TMUs: 48/120 - fertig
Der "Dicke" (2x die RX5600-GPU) dann entsprechend 96/240 - liegt über der vollen TU104
Wie gesagt, im Sommer/Herbst kommt ein neuer High-End Chip.
Da jetzt noch irgendwelchen Firlefanz mit Navi1x anzufangen macht echt wenig Sinn.

Mal schauen was RDNA2 und 7nm+ bringen
Ich persönlich hoffe vor allem auf ein Update beim UVD.
AV1 Support für Encoding/Decoding wäre sehr nice, da der Codec im Netz inzwischen doch schon häufiger zum Einsatz kommt.

BoMbY
2019-12-27, 21:07:03
Wie gesagt: für welchen Markt soll das interessant sein. Für mobile sind Chiplets unnötig durstig. Für Desktop sind low Endkarten tot und darüber gibt es dGPUs.

Für Apple vielleicht. Möglicher Codename der APU: "Van Gogh".

Was ja schon in deren Metal-Treibern aufgetaucht war: https://www.reddit.com/r/Amd/comments/dzbr6t/apple_add_support_for_raven_ridge_raven2_picasso/

Und die K19.5 APU scheint ja "CZN"/"Cezanne" zu sein.

Linmoum
2019-12-29, 13:12:17
5600XT mit ebenfalls 36 CU wie auch die 5700.

https://i.gyazo.com/1aedd85d7f791b8e5bb2b67373b4729a.png

https://www.asrock.com/Graphics-Card/AMD/Radeon%20RX%205600%20XT%20Challenger%20D%206G%20OC/#Specification

Ghost1nTh3GPU
2019-12-29, 14:54:23
Da könnte das Übertaktungspotential sehr hoch ausfallen.

aufkrawall
2019-12-29, 14:55:36
Wahrscheinlich hat man deshalb auch den VRAM verkrüppelt. :mad:

dildo4u
2019-12-29, 14:57:20
Perfekte OEM Karte sollte extrem efficient sein erlaubt billige Kühler und billige Stromversorgung.

Raff
2019-12-29, 15:23:12
*Seufz*

Sie tun es wohl wirklich. Dann muss die Chip-Ausbeute relativ gut sein. Dennoch Mist. 2020 sollte man mit 8 GiByte einsteigen und im Laufe Richtung 16 GiByte gehen. Nun ja, die RX 5700 bleibt ja am Markt und ist nun schon ab 300 Flocken zu haben.

MfG
Raff

Linmoum
2019-12-29, 15:28:11
Irgendwo muss man die Karte von der 5700 abgrenzen, wenn beide mit 36 CU aufwarten.

Als FullHD-Karte ok, einzig die Positionierung einer solchen Karte oberhalb einer mit 8GB ist marketingtechnisch... nicht das cleverste.

JVC
2019-12-29, 15:55:12
Bin mal gespannt ob und wann sie das Angebot nach oben ausbauen,
(5800 mit N21 , 5900 mit N23. Das dachte ich ursprünglich)
oder wie wird das Zeug dann nächstes Jahr heißen?

M.f.G. JVC

Gipsel
2019-12-29, 16:14:32
Irgendwo muss man die Karte von der 5700 abgrenzen, wenn beide mit 36 CU aufwarten.

Als FullHD-Karte ok, einzig die Positionierung einer solchen Karte oberhalb einer mit 8GB ist marketingtechnisch... nicht das cleverste.Bin gespannt, ob irgendwann mal die ja spezifizierten 12 GBit-GDDR6-Chips zum Einsatz kommen. Dann hätte man 9 GB am 192 bittigen Interface (oder man könnte 12GB-Karten mit 256 Bit Interface bauen). Aber bisher ist von denen nicht viel zu sehen.

Daredevil
2019-12-29, 16:48:30
*Seufz*

Sie tun es wohl wirklich. Dann muss die Chip-Ausbeute relativ gut sein. Dennoch Mist. 2020 sollte man mit 8 GiByte einsteigen und im Laufe Richtung 16 GiByte gehen. Nun ja, die RX 5700 bleibt ja am Markt und ist nun schon ab 300 Flocken zu haben.

MfG
Raff
Aber wenn es ne PCIe 4.0 Karte wird und der kleine RAM "irgendwie" durch die Bandbreite relativiert werden kann?
Ist sicherlich eher ein langfristiges Ziel und bringt dem Gamer heute nichts, aber wenn man so Kosten spart, whyyyy not.
Ressourcen sparen kann nie falsch sein, solange man es mit moderner Technik ausgleichen kann.

Lieber habe ich ne 500gb Platte mit ner 500Mbit Leitung als ne 8TB Platte mit 16Mbit. :D

Grendizer
2019-12-29, 16:52:35
Aber wenn es ne PCIe 4.0 Karte wird und der kleine RAM "irgendwie" durch die Bandbreite relativiert werden kann?
Ist sicherlich eher ein langfristiges Ziel und bringt dem Gamer heute nichts, aber wenn man so Kosten spart, whyyyy not.
Ressourcen sparen kann nie falsch sein, solange man es mit moderner Technik ausgleichen kann.

Lieber habe ich ne 500gb Platte mit ner 500Mbit Leitung als ne 8TB Platte mit 16Mbit. :D

ne nicht wirklich. Die ist ja nach 3 Stunden download voll. Dann bringt mir die 60 Mb/sec auch nix.

Leonidas
2019-12-29, 16:56:14
Ich glaub noch nicht an 36C. Vergleichsweise niedrige Taktraten kann man auch mit 32C realisieren. Soooo niedrige Taktraten wären dann etwas arg. Und das Interface mag klein sein, aber der GDDR6 läuft nur mit 3000 MHz, da ist massig OC-Potential. Naja, eine 5700 wird es dennoch nicht erreichen. Eventuell will AMD ja mal eine schöne OC-Karte liefern.

Wäre aber auch nicht überrascht, wenn diese Daten nicht stimmen - zuletzt gab es ganz andere Taktraten-Angaben zur 5600XT:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2526-dezember-2019

Berniyh
2019-12-29, 19:37:00
Bin mal gespannt ob und wann sie das Angebot nach oben ausbauen,
(5800 mit N21 , 5900 mit N23. Das dachte ich ursprünglich)
oder wie wird das Zeug dann nächstes Jahr heißen?
Abgesehen von der 5600 dürfte für die 5000er Serie wohl nicht mehr viel kommen.
Navi21/22/23 sind dann wohl schon die 6000er Serie.

davidzo
2019-12-29, 19:55:02
5600XT mit ebenfalls 36 CU wie auch die 5700.

https://www.asrock.com/Graphics-Card/AMD/Radeon%20RX%205600%20XT%20Challenger%20D%206G%20OC/#Specification

Geilo, endlich reizt AMD mal einen Desktopchip nicht voll aus, sondern lässt sie mit Sweetspot-Takt fahren!
Da könnte man bei der Energieefizienz konkurrenzfähig oder sogar besser herauskommen als TU116 und TU106 :D

Ich finde das ist ein smarter move. Wenn der Yield gut genug ist, wieso dann Einheiten deaktivieren die wunderbar funktionieren, bloß zur Produktdifferenzierung? Na klar ist das eine Vorlage für Übertakter, aber der 5700 gefährlich werden kann man schon wegen den 6GB VRAM und der Bandbreite nicht. Also imo perfekt gelöst, sparsamer als ein Hochtaktmodell, nutzt den yield aus, gut übertaktbar aber ohne dass die teureren Modelle gefährdet sind.

Wenn Nvidia mit einer Super-Version kontern möchte gibts nur die Taktschraube für TU116 oder einen weiter gekürzten TU106 der für die Klasse unnötige Features hat und mit weiteren Kürzungen auch nicht unbedingt mehr schnell genug wäre. Die Taktschraube würde auch Effizienztechnisch total in die falsche Richtung gehen, man sieht ja schon bei den Super-Varianten dass sich die Energieeffizienz von Turing in der zweiten Runde nicht verbessert hat...


*Seufz*

Sie tun es wohl wirklich. Dann muss die Chip-Ausbeute relativ gut sein. Dennoch Mist. 2020 sollte man mit 8 GiByte einsteigen und im Laufe Richtung 16 GiByte gehen. Nun ja, die RX 5700 bleibt ja am Markt und ist nun schon ab 300 Flocken zu haben.

MfG
Raff

Wieso mist, die Karte ist halt nichts für Enthusiasten. Für den Durchschnittsgamer ist ein Rohleistungsüberschuss aber viel besser als ein Speicher- oder Bandbreitenüberschuss. Wenn die Karte zu langsam wird, muss man nur die Auflösung, AA, Filterung oder Texturqualität herunter stellen, was meistens verschmerzbar ist wenn es nur darum geht den neusten triple-A Titel zum laufen zu bringen. Die Polygonleistung und Rechenpower für neue Spiele wird so aber sehr lange ausreichen wenn man bereit ist mit niedrigeren Filter-Settings zu leben. PCIe4.0 x16 hat außerdem noch ordentlich Bandbreite um Texturen notfalls zu streamen.
Andererseits schafft AMD so keine weitere R9 390 die mit 8gb beim speicher einfach überdimensioniert waren und praktisch ewig gehalten haben und damit auf Dauer die Neuverkäufe belasteten.

basix
2019-12-29, 20:42:22
Ich könnte mir auch vorstellen, dass das die richtig schlechten Chips sind und deswegen viel Spannung draufgegeben werden muss.

Wenn es nicht so ist, wird es wirklich eine effiziente Karte mit viel Übertaktungspotential zu einigermassen günstigen Preisen. Das wäre marketingtechnisch ein starkes Stück für AMD.

reaperrr
2019-12-29, 22:31:38
*Seufz*

Sie tun es wohl wirklich. Dann muss die Chip-Ausbeute relativ gut sein. Dennoch Mist. 2020 sollte man mit 8 GiByte einsteigen und im Laufe Richtung 16 GiByte gehen. Nun ja, die RX 5700 bleibt ja am Markt und ist nun schon ab 300 Flocken zu haben.

MfG
Raff
AMD geht offensichtlich (genau wie ich) davon aus, dass auch der 1660-Nachfolger noch ein 192bit SI und demnach nur 6GB haben wird, außerdem sollen die GDDR-Preise wieder steigen.
Die 5600XT dürfte wegen N10 eh schon etwas teurer zu produzieren sein als die 1660 (zwar etwas weniger Fläche, aber sicher viel höhere Kosten je mm²), irgendwo müssen sie halt sparen, um auf gute Marge zu kommen.
Last but not least, mit vollen 8GB/256bit hätten sie die CUs deutlich stärker beschneiden müssen, um die 5700 nicht zu kannibalisieren, und dann hätten sie zusätzlich noch deutlich mehr Takt u. Spannung anlegen müssen, womit wieder die Effizienz relativ schlecht ausgefallen wäre.

dildo4u
2019-12-30, 09:27:02
Das Ding ist einfach dafür vorbereitet für 200€ verkauft zu werden,du wirst das Ding schwer los wenn selbst die Konsolen Raytracing haben.
Ich hoffe drauf das im Herbst alles ab 300€,DXR Support hat.

dargo
2019-12-30, 11:28:59
*Seufz*

Sie tun es wohl wirklich. Dann muss die Chip-Ausbeute relativ gut sein. Dennoch Mist. 2020 sollte man mit 8 GiByte einsteigen und im Laufe Richtung 16 GiByte gehen.

Tjo... AMD passt sich Nvidia an. ;)

Aber die Ausbeute in 7nm muss wirklich sehr gut sein. Ich hätte mit weniger CUs gerechnet. Kennt man schon die TDP? 110-120W GPU?

Das Ding ist einfach dafür vorbereitet für 200€ verkauft zu werden,du wirst das Ding schwer los wenn selbst die Konsolen Raytracing haben.
Ich hoffe drauf das im Herbst alles ab 300€,DXR Support hat.
Ich frage mich welche Wunder du beim RT der neuen Konsolen erwartest im zu erwartenden Budget. :freak: Die RT-Performance im 300+€ Sektor am Desktop, also aktuell RTX2060 ist eh für die Mülltonne.

Raff
2019-12-30, 11:37:37
Wieso mist, die Karte ist halt nichts für Enthusiasten. Für den Durchschnittsgamer ist ein Rohleistungsüberschuss aber viel besser als ein Speicher- oder Bandbreitenüberschuss. Wenn die Karte zu langsam wird, muss man nur die Auflösung, AA, Filterung oder Texturqualität herunter stellen, was meistens verschmerzbar ist wenn es nur darum geht den neusten triple-A Titel zum laufen zu bringen. Die Polygonleistung und Rechenpower für neue Spiele wird so aber sehr lange ausreichen wenn man bereit ist mit niedrigeren Filter-Settings zu leben. PCIe4.0 x16 hat außerdem noch ordentlich Bandbreite um Texturen notfalls zu streamen.
Andererseits schafft AMD so keine weitere R9 390 die mit 8gb beim speicher einfach überdimensioniert waren und praktisch ewig gehalten haben und damit auf Dauer die Neuverkäufe belasteten.

Es ist Mist. Das stinkt – wie bei jeder GTX 1660 – ganz gemein nach geplanter Obsoleszenz. Warum sollte man Anfang 2020 eine Grafikkarte mit 6 GiByte kaufen? Das wird sich (du nennst es ja) der R9-390-Käufer auch fragen - und garantiert nicht bei diesem Modell zugreifen. Das mag fast immer reichen, ist aber ganz schön teuer für ein auf Kante genähtes Produkt. Niemand weiß, welchen Schmerz die neue Spielegeneration gegen Ende des Jahres bestehender Hardware zufügen wird, aber harmlos wird das gewiss nicht. Man weiß auch nicht, ob 8 GiByte ausreichen - man weiß aber aus reiner Logik, dass 8 eher reichen wird als 6.

-> Rohr-Crap-Pierer, der Kunden finden wird (die dann aber doof aus der Wäsche schauen, wenn sie die falschen Tests lesen)

MfG
Raff

dargo
2019-12-30, 11:42:29
Die Chinesen (oder wer auch immer die 1050(Tis) laut Steam kauft) wird auch eine 6GB 1660 zufrieden stellen. ;)

reaperrr
2019-12-30, 12:19:05
Die Chinesen (oder wer auch immer die 1050(Tis) laut Steam kauft) wird auch eine 6GB 1660 zufrieden stellen. ;)
Jup. Der Mainstream wird auch in 2020 und 2021 noch auf 1080p bleiben, dann muss man maximal den Texturregler um eine Stufe runterstellen und 6GB werden noch 2-3 Jahre reichen.

Die überwiegende Mehrheit der ersten Generation an "Next-Gen" Spielen wird eh noch zweigleisig fahren, also auch auf der aktuellen Konsolen-Gen releasen und passabel laufen wollen, und da stehen nur bei der XB1X mehr als 5,5GB als VRAM zur Verfügung. Und die Exklusiv-Titel, die in die Vollen gehen können, gibt's ja normalerweise nicht für PC (oder erst viiiel später), also auch da wayne.

Nicht falsch verstehen, ich persönlich würde mir auch trotz 1080p zu diesem Zeitpunkt nix mehr unter 8GB kaufen, denke aber, dass die 6GB noch ne ganze Weile (mindestens eine komplette Konsolen-Spiele-Gen, als ca. 2-3 Jahre ab Release der Next-Gen-Konsolen) für mittelhohe Einstellungen reichen werden, solange die GPU selbst schnell genug ist.

Raff
2019-12-30, 12:28:26
Ja, mittelhoch. Hoch/Ultra gäbe es für einen Fuffi mehr. Das ist ein Nicht-Gehirner. ;)

MfG
Raff

TheGood
2019-12-30, 15:11:03
Ja, mittelhoch. Hoch/Ultra gäbe es für einen Fuffi mehr. Das ist ein Nicht-Gehirner. ;)

MfG
Raff

Du hast vollkommen recht, aber wenn einem die 250 € schon zu viel sind, gibt man dann auch keine 300 aus.

Andererseits verkaufen sich die NVIDIA Derivate wie geschnitten Brot, also kann sich die Masse nicht um die 6GB Speicher grosse GEdanken machen...

Ich finds au schade und die KArte wird in der 3dcenter Umfrage natürlich entsprechend abgestraft.

Berniyh
2019-12-30, 15:18:57
7W idle ist nichts besonderes, einige 5700 XT schaffen das auch, und diese Zahl ist mir persönlich im Desktop ziemlich egal. Wenn jedoch die GPU/VRAM bei Medienwiedergabe unnötig hohe Spannungen fährt oder sobald man einen zweiten Monitor hat sich die Leistungsaufnahme vervielfacht wird mir immer etwas anders. Bei ersterem hat sich AMD deutlich verbessert, Multimonitor bekommen sie immer noch nicht hin.:rolleyes: (edit: Wurde das mit der Spannung zumindest mittlerweile behoben?)

(Anscheinend nicht:rolleyes:) https://tpucdn.com/review/xfx-radeon-rx-5700-xt-thicc-iii-ultra/images/power-multi-monitor.png
https://www.techpowerup.com/review/xfx-radeon-rx-5700-xt-thicc-iii-ultra/32.html

hm, wie kommt es, dass die Vega davon nicht betroffen ist?
bzw. warum ist das bei Navi so?
Wirkt auf mich ehrlich gesagt wie ein Treiber-Bug.

Meine Vega 64 zeigt das jedenfalls nicht, weder unter Linux noch unter Windows. Der Unterschied zwischen 1 Monitor und 2 Monitoren liegt bei <=1W.
Was hingegen schon einen Unterschied macht ist die Bildwiederholfrequenz.
Zwischen 60 Hz und 120 Hz liegen etwa 3-4W (nur PC, vom Monitor kommt sicherlich noch mal einiges drauf).

VfBFan
2019-12-30, 18:33:34
Vega = HBM2
Navi = GDDR6

sulak
2019-12-30, 22:34:46
In China hat man in einem GerüchteSack ein Navi21 Korn gefunden, es ist 505mm² groß :cool:
Was sind das, 80CUs, olala.

https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/

Per Übersetzer: https://translate.google.com/translate?langpair=zh%7Cen&sl=zh-CN&tl=en&u=https%3A%2F%2Fwww.ptt.cc%2Fbbs%2FPC_Shopping%2FM.1573129117.A.216.html

Berniyh
2019-12-30, 22:43:41
Vega = HBM2
Navi = GDDR6
Wieso sollte das jetzt gerade bei Multi-Monitor Setups entscheidend sein?

Benutzername
2019-12-31, 00:34:32
Bin gespannt, ob irgendwann mal die ja spezifizierten 12 GBit-GDDR6-Chips zum Einsatz kommen. Dann hätte man 9 GB am 192 bittigen Interface (oder man könnte 12GB-Karten mit 256 Bit Interface bauen). Aber bisher ist von denen nicht viel zu sehen.

Wäre auf jeden Fall sehr attraktiv, wenn eine Variante mit 9GB käme.

Gilt im Prinzip auch für die nvidias mit nur 6GB.

BoMbY
2019-12-31, 00:58:35
Naja, die Größe könnte hinkommen. GDDR6 würde ich aber nicht für unbedingt halten. Die Entscheidung wurde vor ca. 2 bis 3 Jahren getroffen, und es könnte genauso gut HBM2e werden.

Leonidas
2019-12-31, 01:17:44
Wäre auf jeden Fall sehr attraktiv, wenn eine Variante mit 9GB käme.
Gilt im Prinzip auch für die nvidias mit nur 6GB.


Wahrscheinlich ist die Initial-Produktion der 1,5-GByte-Chips zu teuer. Deswegen wagt sich da niemand ran. Schade, in dem Punkt sollten AMD & NV mal zusammenarbeiten, dann wäre das wohl möglich.

=Floi=
2019-12-31, 02:17:07
Macht auch nichts besser wie 8gb.
Entweder man verbreitert dann gleich das pcb mit und nimmt 16gb, oder man nimmt bei 128bit die 8gb mit weniger chips mit.

6gb-->12gb

HOT
2019-12-31, 09:20:18
In China hat man in einem GerüchteSack ein Navi21 Korn gefunden, es ist 505mm² groß :cool:
Was sind das, 80CUs, olala.

https://wccftech.com/amd-radeon-rx-navi-21-gpu-2x-performance-5700-xt-die-size-rumor/

Per Übersetzer: https://translate.google.com/translate?langpair=zh%7Cen&sl=zh-CN&tl=en&u=https%3A%2F%2Fwww.ptt.cc%2Fbbs%2FPC_Shopping%2FM.1573129117.A.216.html


Das passt eigentlich gut zusammen. Navi 21 wird dann
- 505mm² in N7+
- 80CUs
- 384Bit GDDR6 (16-18GT/s)

~Titan-Niveau würd ich mal tippen. Effizienz soll ja mit der nächsten RDNA-Generation nochmals deutlich ansteigen.

Der NV-Killer wird damit ziemlich sicher schon N5, da TSMC eben so weit ist und AMD das ausnutzt. Außerdem wird man HBM2E brauchen, da nur der Speicher genug Bandbreite für die Kosten in nur 2 Stapeln liefert. Damit dürfte man etwa bei 400mm² landen mit ca. 100-112 CUs.

Fehlt eigentlich noch einer zwischen N10 und N21. Ob das N22 oder N12 ist, wird man sicherlich bald erfahren.

y33H@
2019-12-31, 09:30:00
Killer ... ewig später ^^

dildo4u
2019-12-31, 09:34:20
Die Radeon 7 hat doch gezeigt was man erwarten kann,du bekommst vielleicht mehr Ram aber billiger wird nicht wäre auch Unsinn,es bleibt eine große Die.
Es ist also nicht Vergleichbar mit dem was AMD mit den High-End CPUs macht.

AffenJack
2019-12-31, 09:47:54
Killer ... ewig später ^^

Schon das Leute den so betiteln sollte einem zeigen, dass das ausgedachter Blödsinn ist. Nichtmal die Leute bei AMD wollen zum Running Gag des ganzen Silicon Valley werden. :biggrin:

Big Chip mit 80 CUs und 500mm² dürfte der Top-Dog von RDNA2 werden. Selbst dann wird das Ding mindestens 700$ kosten. Ein Produkt, was man nur über 1k $ anbieten kann ist für AMD unsinnig. Mit etwas mehr Effizienz aus der Navi Architektur[~10%), Prozesseffizienz durch 7nm EUV (10%) und Taktraten im 5700 non-Xt Bereich sollten 300W TDP auch möglich sein.

VfBFan
2019-12-31, 10:24:08
Wieso sollte das jetzt gerade bei Multi-Monitor Setups entscheidend sein?

Frage bei AMD nach. :tongue:
Ist doch bisher bei allen HBM-Karten so gewesenen.
Fury-Test: https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/#diagramm-leistungsaufnahme-gesamtsystem_4

robbitop
2019-12-31, 10:48:45
Also mit 80CUs würde man TU102 in jeder Ausbaustufe deutlich schlagen können. Aber wenn der erst zur 3080er Geforce Serie kommt, killt der eben gar nichts. Es ist aber sinnvoll, sowas nicht frühzeitig zu bringen. Das kostet richtig Fertigungskapazität, die man für Epyc wesentlich besser nutzen kann (viel höhere Gewinnspanne).

Linmoum
2019-12-31, 10:53:16
Also mit 80CUs würde man TU102 in jeder Ausbaustufe deutlich schlagen können. Aber wenn der erst zur 3080er Geforce Serie kommt, killt der eben gar nichts.Dieses Killer-Gedöns ist sowieso kompletter Kindergarten.

Aber glaubst du wirklich, dass ein TA104 deutlich schneller als ein TU102 sein wird?

davidzo
2019-12-31, 10:59:15
Ich glaube irgendwie nicht an ganze 80CUs. Das wäre eine lineare Hochskalierung von Navi 10 und würde eine riesige Lücke im Highend zwischen Enthusiast und Performance lassen. Und wo bleiben dann die zusätzlichen Transistoren für Raytracing support und die Effizienzverbesserungen?

robbitop
2019-12-31, 11:04:59
Dieses Killer-Gedöns ist sowieso kompletter Kindergarten.

Aber glaubst du wirklich, dass ein TA104 deutlich schneller als ein TU102 sein wird?

104 ist für Möchtegerns. Der Boss ist immer 102. ;)

104 ist historisch eigentlich meist etwas schneller als der Vorgänger 102. Turing war da aber grenzwertig. ;) (dafür brachte er RT mit)

Raff
2019-12-31, 11:05:10
Aber glaubst du wirklich, dass ein TA104 deutlich schneller als ein TU102 sein wird?

Wie viel schneller war eine GTX 1080 gegenüber einer GTX 980 Ti oder GTX Titan X?
Wie viel schneller war eine GTX 980 gegenüber einer GTX 780 Ti?

Wird wohl kein lohnenswerter Sprung. Aber von 104 auf 104 schon.

MfG
Raff

robbitop
2019-12-31, 11:08:01
So ist es. Niemand der es ernst meint wechselt von 102 auf 104 (oder von 104 auf 106). Es zählt der Sprung auf gleicher Ebene IMO.

Linmoum
2019-12-31, 11:17:12
Schon klar, mir ging es nur um das "wenn zur 3080er killt der nix". ;)

Einen TA104 dürfte ein 80CU Navi spielend beherrschen, bei einer Ti/Titan muss man schauen, wie weit Nvidia geht.

Berniyh
2019-12-31, 11:20:31
Frage bei AMD nach. :tongue:
Ist doch bisher bei allen HBM-Karten so gewesenen.
Fury-Test: https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/#diagramm-leistungsaufnahme-gesamtsystem_4
hm, ich bin immer noch skeptisch, dass es wirklich am HBM Speicher liegt, erscheint mir irgendwo nicht schlüssig.

Loeschzwerg
2019-12-31, 11:40:08
Ich glaube irgendwie nicht an ganze 80CUs. Das wäre eine lineare Hochskalierung von Navi 10 und würde eine riesige Lücke im Highend zwischen Enthusiast und Performance lassen. Und wo bleiben dann die zusätzlichen Transistoren für Raytracing support und die Effizienzverbesserungen?

Sehe ich genauso, bei 80CUs fehlt der Platz für andere Features und ich denke nicht dass am grundlegenden Aufbau mit RDNA2 schon wieder etwas gedreht wird.

davidzo
2019-12-31, 11:43:51
hm, ich bin immer noch skeptisch, dass es wirklich am HBM Speicher liegt, erscheint mir irgendwo nicht schlüssig.

Also zumindest bei der 480/580 gab es kein runtertakten des memclock im idle. Bei Navi 10 funktioniert der idle Takt zwar, aber wohl auch nicht in allen Auflösungen und refreshrates, bei 144hz taktet der nicht mehr runter, würde mich nicht wundern wenn dies auch bei multimonitor so ist.
Wäre ein plausibler Grund für den Mehrverbrauch.

Raff
2019-12-31, 11:57:38
Sehe ich genauso, bei 80CUs fehlt der Platz für andere Features und ich denke nicht dass am grundlegenden Aufbau mit RDNA2 schon wieder etwas gedreht wird.

80 CUs ohne Raytracing und bei proportional gleichbleibender Cache-Größe: warum nicht? Es kann doch sein, dass AMD diese Kiste gar nicht mit Raytracing ausstattet. Das ist nur ein mögliches Szenario.

MfG
Raff

dargo
2019-12-31, 11:59:44
Also zumindest bei der 480/580 gab es kein runtertakten des memclock im idle. Bei Navi 10 funktioniert der idle Takt zwar, aber wohl auch nicht in allen Auflösungen und refreshrates, bei 144hz taktet der nicht mehr runter, würde mich nicht wundern wenn dies auch bei multimonitor so ist.
Wäre ein plausibler Grund für den Mehrverbrauch.
:confused:

Tut der hier ohne Probleme von Anfang an. Bin allerdings nicht direkt nach dem Release eingestiegen.

Loeschzwerg
2019-12-31, 11:59:54
@Raff: Klar, dann passt das schon... aber das wäre auch derb langweilig :(

Mangel76
2019-12-31, 12:02:10
80 CUs ohne Raytracing und bei proportional gleichbleibender Cache-Größe: warum nicht? Es kann doch sein, dass AMD diese Kiste gar nicht mit Raytracing ausstattet. Das ist nur ein mögliches Szenario.

MfG
Raff
Ein 80CU-Monster ohne RT, während gleichzeitig Konsolen mit RT kommen? Glaube ich irgendwie nicht. So etwas wird doch 2020 nicht mehr gekauft.

Raff
2019-12-31, 12:05:56
Wenn ich für jedes gesichtete Posting à la "Nvidia hätte die Fläche lieber in mehr konventionelle Einheiten stecken sollen" fünf Marque bekommen hätte, würde ich mich zur Ruhe setzen. ;) Heißt: Wenn da eine 700-Euro-Grafikkarte kommt, die die Titan RTX klatscht, vergessen viele ganz schnell, dass da eine neue Technik vor ihrem Durchbruch steht (oder nehmen das bewusst als Übergangslösung in Kauf). Allerdings werden zum anstehenden Launch schon zwei Jahre nach Turing vergangen sein und man würde sich zu Recht fragen, was die Technologiebremserei soll. Spannend. Wir wissen gar nix. :D

MfG
Raff

dargo
2019-12-31, 12:10:01
104 ist für Möchtegerns. Der Boss ist immer 102. ;)

Das Problem bei dem "Boss"... dieser wurde nur möglich weil Nvidia die Die-Size gesprengt hat. Afaik war vor Turing die kritische Grenze bei etwa 600mm². Ich würde mich eher fragen wer solche Monster @750mm² in 7nm (sofern dies überhaupt nächstens Jahr möglich ist) im Gaming-Sektor noch bezahlen will? Man hat hier zwei Möglichkeiten... entweder geht man mit der Die-Size bei Ampere wieder gutes Stück runter wodurch die Architektur alleine viel mehr Bums bringen muss damit man sich von Turing gut absetzen kann. Oder man behält die Schiene vom riesen Die und das Ding geht Richtung 1500€. Wenn der Speicher Richtung 16+GB geht eventuell sogar noch mehr.

Berniyh
2019-12-31, 12:11:56
So etwas wird doch 2020 nicht mehr gekauft.
Ich würds kaufen, weil ich RT eh für schwachsinnige Performance- und Platz-Verschwendung halte.

Complicated
2019-12-31, 12:16:39
AMD hatte immer betont, sie versuchen RT Softwareseitig für schon vorhandene Compute-Units der Architektur zu integrieren. Es gab ja auch einige Meldungen dazu. Eventuell ist das in den Konsolen genauso gelöst worden und zusätzliche Einheiten waren gar nicht nötig.
Siehe https://www.giga.de/news/raytracing-fuer-alle-neue-technik-kostenlos-ohne-rtx-grafikkarte-ausprobieren/
Wäre ja nicht das erste mal, dass Nvidia irgendwelche proprietären Techniken versucht frühzeitig zu etablieren. Mal sehen könnte eine Überraschung geben zu Raytracing, der am Ende Nvidia nur mit verschwendetem Platz auf dem Chip zurückläßt. Da hatte doch jemand kürzlich klar geäußert, dass die Konsole die Leadplattform der Entwickler ist und darauf optimiert wird.

Berniyh
2019-12-31, 12:21:31
AMD hatte immer betont, sie versuchen RT Softwareseitig für schon vorhandene Compute-Units der Architektur zu integrieren. Es gab ja auch einige Meldungen dazu. Eventuell ist das in den Konsolen genauso gelöst worden und zusätzliche Einheiten waren gar nicht nötig.
Siehe https://www.giga.de/news/raytracing-fuer-alle-neue-technik-kostenlos-ohne-rtx-grafikkarte-ausprobieren/
Wäre ja nicht das erste mal, dass Nvidia irgendwelche proprietären Techniken versucht frühzeitig zu etablieren. Mal sehen könnte eine Überraschung geben zu Raytracing, der am Ende Nvidia nur mit verschwendetem Platz auf dem Chip zurückläßt. Da hatte doch jemand kürzlich klar geäußert, dass die Konsole die Leadplattform der Entwickler ist und darauf optimiert wird.
Wie auch immer es implementiert ist, es dürfte ziemlich klar sein, dass AMDs Lösung für RT die Richtung bei dem Thema für die nächsten Jahre vorgeben dürfte und nicht Nvidia, auch wenn letztere Vorreiter waren.
Schlicht und einfach, da AMD es für die Konsolen implementiert und daran wird sich der Großteil der Entwickler orientieren.

BoMbY
2019-12-31, 12:21:39
Ich bezweifle dass das Texturprozessor basierte RT (http://www.freepatentsonline.com/20190197761.pdf) so viel mehr Platz braucht.

Linmoum
2019-12-31, 12:24:05
Es ist trotzdem bereits bestätigt, dass die Konsolen RT in Hardware können werden. Nix mit Softwareseitig.

davidzo
2019-12-31, 12:27:31
80 CUs ohne Raytracing und bei proportional gleichbleibender Cache-Größe: warum nicht? Es kann doch sein, dass AMD diese Kiste gar nicht mit Raytracing ausstattet. Das ist nur ein mögliches Szenario.

MfG
Raff

Habe ich was nicht mitbekommen? Ich dachte Navi21 kommt definitiv mit RDNA2 und HW-Raytracing.


AMD hatte immer betont, sie versuchen RT Softwareseitig für schon vorhandene Compute-Units der Architektur zu integrieren. Es gab ja auch einige Meldungen dazu. Eventuell ist das in den Konsolen genauso gelöst worden und zusätzliche Einheiten waren gar nicht nötig.
Das halte ich für eine Schutzbehauptung und bezog sich auch auf die potentiellen RT Fähigkeiten die man mit derzeitigen GCN bzw. RDNA Karten schon hat. Was das bedeuten kann haben wir ja mit Crytek Neon Noir schon gesehen.
Die Aufgabe vom AMD Marketing ist es die erhältlichen produkte so gut es geht zu verkaufen, da etwas über kommende Hardware Raytracing Einheiten zu erzählen wäre doppelt kontraproduktiv und wird daher immer dementiert, selbst wenn es durch die semi-custom Abnehmer schon offensichtlich ist. Einerseits würde man damit die Technologieführerschaft Nvidias bekräftigen, andererseits würde man auch Kunden von der jetzigen Generation abschrecken wenn doch bald die mit hardware-RT kommt.

dargo
2019-12-31, 12:31:18
Ich tippe mal einfach darauf, dass dieser Textur Prozessor das Äquivalent zum RT Core bei Nvidia ist und auch entsprechend der Rohleistung in die jeweiligen Konsolen-APUs implementiert wird. Bei AMD heißt der eben Textur Prozessor, bei Nvidia RT Core. Beide haben die Aufgabe RT zu beschleunigen und somit die Shader zu entlasten. 80 CUs beim Big Navi halte ich auch für eher unwahrscheinlich wenn man Hardware-RT implementieren möchte. Ich tippe auf aufgeblasene 64 CUs.

Daredevil
2019-12-31, 12:32:36
Ich glaube irgendwie nicht an ganze 80CUs. Das wäre eine lineare Hochskalierung von Navi 10 und würde eine riesige Lücke im Highend zwischen Enthusiast und Performance lassen. Und wo bleiben dann die zusätzlichen Transistoren für Raytracing support und die Effizienzverbesserungen?
Wo ist denn da die zu große Lücke ?
Was hat AMD aktuell denn zu bieten?
FullHD Karte > Check
WQHD Karte > Check
UHD Karte > Nope

Klar ist Leistungsmäßig eine "Lücke" zwischen UHD und WQHD vorhanden, diese löst aber nun einmal keine Probleme.
Eine RTX2080s ist "zu schnell" für WQHD und zu langsam für 4K. Eine Karte, die zwischen zwei Welten schwimmt, ist nun auch nicht die ideale Lösung.
Und wenn AMD nicht ein Lineup von drölf Karten führen will, wäre das ( meiner Meinung nach ) sicherlich nicht verkehrt.

Und außerdem > Never change a running System.
Die Navi Karten sind durch die Bank zufriedenstellend und niemand vermisst dort etwas dran, wieso dann bei Big Navi auf einmal einen anderen Weg nehmen und Risiken eingehen?
Nobody Wants RTX in 2019, aber sehr viele wollen 4k Performance. Soll AMD bei seinen wurzeln bleiben und nicht so tun, als wären sie so fancy wie Nvidia. Viel Leistung und wenig Geld.

Nightspider
2019-12-31, 12:34:02
7nm+ bringt doch fast 20% Flächenersparnis oder?
Falls Big Navi wirklich darauf setzt sollte man das berücksichtigen.

AffenJack
2019-12-31, 12:35:38
Sehe ich genauso, bei 80CUs fehlt der Platz für andere Features und ich denke nicht dass am grundlegenden Aufbau mit RDNA2 schon wieder etwas gedreht wird.

7nm EUV wird auch etwas flächenersparnis bringen, da ist also schon etwas Platz für Features. Ich wette aber dagegen, dass mit RDNA2 groß was am Aufbau verändert wird. Das wird eher wie Maxwell2 vs Maxwell1. Features plus etwas Energieeffizienz durch die Archtitektur. Es ist zu wenig Zeit für große Änderungen, außer dem Einbauen von Features. RDNA war ja schon ein großer Schritt.

Schon klar, mir ging es nur um das "wenn zur 3080er killt der nix". ;)

Einen TA104 dürfte ein 80CU Navi spielend beherrschen, bei einer Ti/Titan muss man schauen, wie weit Nvidia geht.

Voll ausgefahren mit Wasserkühlung und 375W, sicher. Bei 300W wird das schon schwer mit spielend. Mehr als die Taktraten der 5700, die ja schon 180W TDP hat, würde ich bei einem 80 CU Chip nicht erwarten. Da sind wir dann bei 16,6 Tflops.

Vom GA104 würde ich so 33% mehr Shader, also 4096 und noch ~10% Taktsteigerung erwarten, da man die Shader nicht so stark erhöht. Macht ausgehend von den 2080 Super Taktraten 16,3 Tflops. Da ist man schon in ziemlich ähnlichen Bereichen und beim Speicher weiß man auch nie, was Nvidia da für Sachen auffährt. Auch 320 Bit oder so wären möglich.

dargo
2019-12-31, 12:39:39
@Daredevil

So gesehen hat auch Nvidia keine 4k Karte. Denn TU102 ist auch nur ~50% schneller als Navi 10. Und das reicht nicht für gleiche fps zwischen WQHD und 4k.

Raff
2019-12-31, 12:42:20
Die Behauptung, dass eine TU102-Grafikkarte zu langsam für Ultra HD sei, ist einfach nicht haltbar.

Zu langsam, wenn man Raytracing einschaltet: Definitiv.
Zu langsam, wenn man 120 Fps haben will? Yep.
Zu langsam für fluffige zweistellige Bildraten? Keineswegs.

Ausnahmen bestätigen die Regel. ;)

MfG
Raff

BoMbY
2019-12-31, 12:43:36
Bei AMD heißt der eben Textur Prozessor

Das ist eine Erweiterung der bestehenden Textureinheiten soweit das zu verstehen ist. Die wichtigste neue Instruktion "image_bvh64_intersect_ray" ist alleine schon über den Namen den "Vector Memory (VM) Image Instructions" zuzuordnen, und dazu heißt es "Vector Memory (VM) operations transfer data between the VGPRs and memory through the texture cache (TC)."

Grendizer
2019-12-31, 12:55:07
AMD hatte immer betont, sie versuchen RT Softwareseitig für schon vorhandene Compute-Units der Architektur zu integrieren. Es gab ja auch einige Meldungen dazu. Eventuell ist das in den Konsolen genauso gelöst worden und zusätzliche Einheiten waren gar nicht nötig.
Siehe https://www.giga.de/news/raytracing-fuer-alle-neue-technik-kostenlos-ohne-rtx-grafikkarte-ausprobieren/
Wäre ja nicht das erste mal, dass Nvidia irgendwelche proprietären Techniken versucht frühzeitig zu etablieren. Mal sehen könnte eine Überraschung geben zu Raytracing, der am Ende Nvidia nur mit verschwendetem Platz auf dem Chip zurückläßt. Da hatte doch jemand kürzlich klar geäußert, dass die Konsole die Leadplattform der Entwickler ist und darauf optimiert wird.


Es geht ja einfach nur um die Unterstütung von DXR (bzw. Vulkan) ... wenn AMD das anders macht als über RT Cores ist das ja erstmal egal. Am Schluss ist dann eine Frage der Performance. Und da würde ich einfach vermuten, das Hardwareeinheiten schneller als Softwarelösungen sind. Und eine Karte die 2020 für 700 Euro+ kommt, wird dann evtl. auch noch 2023 im Einsatz sein.Mal schauen, ob dann RT immer noch "egal" ist.

robbitop
2019-12-31, 13:16:45
Das Problem bei dem "Boss"... dieser wurde nur möglich weil Nvidia die Die-Size gesprengt hat. Afaik war vor Turing die kritische Grenze bei etwa 600mm². Ich würde mich eher fragen wer solche Monster @750mm² in 7nm (sofern dies überhaupt nächstens Jahr möglich ist) im Gaming-Sektor noch bezahlen will? Man hat hier zwei Möglichkeiten... entweder geht man mit der Die-Size bei Ampere wieder gutes Stück runter wodurch die Architektur alleine viel mehr Bums bringen muss damit man sich von Turing gut absetzen kann. Oder man behält die Schiene vom riesen Die und das Ding geht Richtung 1500€. Wenn der Speicher Richtung 16+GB geht eventuell sogar noch mehr.

Das schöne ist - es gibt immer einen Markt für teure und sehr teure Sachen. Auch für GPUs. Das hat NV mit der Titan gemerkt und ausgenutzt.

Ich persönlich hätte auch kein Problem mit einer GPU die über 1000€ kostet oder 2000€. Hauptsache sie liefert auch die Performance pro €. Genau da hat Turing viele nicht überzeugt.

ilibilly
2019-12-31, 13:57:24
Warn schmarrn

JVC
2019-12-31, 14:02:02
Ein 80CU-Monster ohne RT, während gleichzeitig Konsolen mit RT kommen? Glaube ich irgendwie nicht.
So etwas wird doch 2020 nicht mehr gekauft.
Ich würde es kaufen :smile:
min 16Gb(512bit) und HDMI 2.1 + DP 2.0 ;)
Ich würd auch noch mehr als 80CU kaufen... (ist auch ne HW. Einheit die auch noch mehr kann...)

M.f.G. JVC

Ghost1nTh3GPU
2019-12-31, 14:11:54
Mit entsprechenden Features(DP-ALUs,Tensor,INT-Speedup,...) könnten es auch nur 64CUs bei 500mm2 sein.
Vielleicht hat man auch einen für 3D-Grafik brauchbaren MCM-Ansatz in der Hinterhand, sodass der Enthusiast auch eine 128CU Karte kaufen kann.

HOT
2019-12-31, 14:15:36
Bedenken, dass da einiges im I/O wegfällt, der hat eh nur 384Bit.

Im Vergleich zu N10 hat man
- Flächenvorteil von N7+
- im Verhältnis weniger I/O
- bessere und sicher größere Shader-ALUs.


Ein doppelter Navi hört sich für mich plausibel an.

mironicus
2019-12-31, 14:38:49
Navi 21 sieht dann wohl nach einer 12 GB-Karte aus? Ist ja ein perfekter Konkurrent zur RTX 2080 Ti bzw. zu einer kommenden RTX 3080. Von NVidia erwarte ich eigentlich auch eine Geschwindigkeitsteigerung von über 50% durch die neue Fertigung bei einer 3080 Ti (normale Spiele ohne RT).

Complicated
2019-12-31, 14:57:16
Es ist trotzdem bereits bestätigt, dass die Konsolen RT in Hardware können werden. Nix mit Softwareseitig.
Und da würde ich einfach vermuten, das Hardwareeinheiten schneller als Softwarelösungen sind.
Also ich versuch das nochmal deutlich zu machen wie das gemeint ist.

GCN hatte lange Zeit einen Vorteil bei Compute zu Nvidias Lösungen. Mit den ACE (Asynchronuos Cumpute Unit) gibt es schon lange Hardwarebasiertes Compute auf GCN und es ist eine Architektur die eben darauf Optimiert wurde. Nvidias Effizienz kam ja zuletzt auch Aufgrund von schlankerem und auf Gaming optimiertem Design. Das was Nvidia RT-Hardware nennt, hat AMD schon lang mit an Board und muss es vielleicht nur etwas optimieren (siehe z.B. das von Bomby erwähnte Texturebasierte RT)
https://www.gamestar.de/artikel/amd-patentiert-hybride-raytracing-technologie,3346026.html

Aus der Patentschrift geht hervor, dass AMD auf eine Kombination aus Soft- und Hardwarelösung setzt, um Raytracing zu ermöglichen und zu verbessern. Dabei wird die Strahlenberechnung von den normalen Shader-Einheiten gesteuert und von einer speziellen Texturprozessor-Infrastruktur unterstützt - die für Raytracing benötigte Funktionshardware (logische Operationen) sind in die Texturprozessoren (TP) integriert.
Dadurch kann auch der entsprechende Textur-Cache verwendet werden. Große Puffer für Ray-Speicher und BVH-Caching, wie sie bei bisherigen, reinen Hardware-Lösungen zum Einsatz kommen, werden daher nicht mehr benötigt. Als Nebeneffekt werden die Chips weniger komplex und fehleranfällig - auch Platz wird dadurch auf dem Die gespart.
Die feste Funktionshardware kann zudem bei Bedarf umgangen und der Raytracingalgorithmus von der GPU flexibel abgearbeitet werden.

JVC
2019-12-31, 15:17:17
Von NVidia erwarte ich eigentlich auch eine Geschwindigkeitsteigerung von über 50% durch die neue Fertigung bei einer 3080 Ti (normale Spiele ohne RT).
Ich würde nicht zu viel erwarten ...(Intel bringt auch "keinen Geschwindigkeitsvorteil" von 14 auf 10nm zu Stande ...)
Oder hatt NV 7nm schon am laufen?

M.f.G. JVC

aufkrawall
2019-12-31, 15:29:52
Das was Nvidia RT-Hardware nennt, hat AMD schon lang mit an Board und muss es vielleicht nur etwas optimieren (siehe z.B. das von Bomby erwähnte Texturebasierte RT)

Bevor das alte Jahr rum ist, schnell nochmal rekordverdächtigen Unsinn raushauen? So einen Blödsinn glaubt außerhalb des AMD-Reddits kein Mensch...

Daredevil
2019-12-31, 15:42:42
@Daredevil

So gesehen hat auch Nvidia keine 4k Karte. Denn TU102 ist auch nur ~50% schneller als Navi 10. Und das reicht nicht für gleiche fps zwischen WQHD und 4k.
50% ist der Schnitt, es kann auch drunter, ebenfalls aber auch drüber ausfallen.
Eine native und Sorgenfreie Karte ist die RTX2080ti auf keinen Fall, aber es ist nun einmal die Karte, die dem am nähesten kommt, abgesehen von der Titan.
In den meisten Spielen reicht die Leistung für zwischen 60-120fps aus ( Nicht alles auf Ultra ) und das schwankt je nach Spiel stark, deswegen soll AMD da ruhig reingrätschen und Nvidia nass machen, dann kann ich meine Karte sorgenfrei verkaufen. :)
Wenn die Kiste dann noch HDMI 2.1 mit bringt, ist es Full Of win.

PS: Hauptsache sie bringen keine VII 2.0 und hauen das nur als Fanservice raus.

Mangel76
2019-12-31, 15:53:23
Ich würde es kaufen :smile:
min 16Gb(512bit) und HDMI 2.1 + DP 2.0 ;)
Ich würd auch noch mehr als 80CU kaufen... (ist auch ne HW. Einheit die auch noch mehr kann...)

M.f.G. JVC
Ich warte auch auf die nächste Generation. Aber 2020/2021 würde ich nicht so viel Geld ausgeben, wenn ich dann nicht alle Grafikoptionen nutzen kann. Bisher ist RT Nische, ab 2021 aber nicht mehr, wenn die meisten neuen Spiele auch für Konsolen mit RT kommen.

Daredevil
2019-12-31, 16:17:41
Nerd Taaalk
eNKybalWKVg

Complicated
2019-12-31, 16:19:31
@aufkrawall
Und du hast schnell die Gelegenheit genutzt noch völlig substanzlos zu bashen - gratuliere ^^
Du bist ein echter "Contributor" hier, rutsch nicht aus zum neuen Jahr.

mironicus
2019-12-31, 17:02:07
Bei Navi 21 wird AMD gar nicht so hoch takten müssen um die RTX 2080 Ti zu schlagen, da ist noch viel Raum noch oben wenn die TDP keine Rolle spielt und der Chip mit 2 GHz laufen kann.

robbitop
2019-12-31, 17:33:47
Andererseits: wenn 2 GHz in einer Konsole für die Masse inkl Sicherheitsmarge für Yield gehen (PS5 leak), gibt es außer TDP keinen Grund, den Takt niedrig zu halten. Ggf werden die 2 GHz dann durch customs mit großem Kühler geholt. :)

mironicus
2019-12-31, 17:59:05
Ich befürchte ja das AMD für die Karte mehr als 800 Euro verlangen wird bzw. kann.

Am besten noch Vorstellung zur CES, Verkauf ab Februar und für 6-7 Monate haben sie die schnellste Karte auf dem Markt. Und an dem Tag an dem NVidia kontert bringen sie dann den BigChip mit HBM der NVidia wiederrum entthront. :)

aufkrawall
2019-12-31, 18:14:22
Du bist ein echter "Contributor" hier, rutsch nicht aus zum neuen Jahr.
Nur weil das hier ein Spekulationsforum ist, heißt das nicht, dass das Niederschreiben noch erinnerbarer feuchter Träume am nächsten Morgen irgendeine "Contribution" wären.
Es gibt noch kein Whitepaper zu AMD-RT, also erzähl keine unseriösen Phantasmen.

robbitop
2019-12-31, 18:39:39
Ich befürchte ja das AMD für die Karte mehr als 800 Euro verlangen wird bzw. kann.

Am besten noch Vorstellung zur CES, Verkauf ab Februar und für 6-7 Monate haben sie die schnellste Karte auf dem Markt. Und an dem Tag an dem NVidia kontert bringen sie dann den BigChip mit HBM der NVidia wiederrum entthront. :)

800€ für eine Karte mit doppelte N10 Performance? Immer her damit. Das wäre ein total okayes P/L. Kostet zwar aber leistet auch entsprechend.
TU102 in beschnittener Form kostet wesentlich mehr.

mironicus
2020-01-01, 09:38:50
Ist Navi bzw. RDNA eigentlich die erste Architektur seitens AMD von der man wirklich behaupten kann, dass hier maßgeblich für Spielezwecke optimiert worden ist?

Sind die Gamer eine Zielgruppe mit der AMD so viel Geld verdienen kann so das man sagen kann, sie richten sich nach unseren Bedürfnissen oder sind wir eher die Profiteure von einer "Resteverwertung"? :)

Ich verdrehe manchmal die Augen wenn ich daran denke, was AMD so exklusiv für Apple baut (fette GPUs für den Apple Mac Pro mit viel HBM-Speicher) und dann der Spielebereich sich so lange nicht weiterentwickelt hat.

Daredevil
2020-01-01, 09:50:50
Das ist halt auch nur Marketing blabla.
Vega hat zwar seine Vorteile ( Compute/HBM ), wäre RDNA nur fürs spielen ausgelegt, was haben die Karten dann im MacPro oder MacBook Pro zu suchen? Sind das Spielmaschienen?

AMD bietet schlicht nichts anderes an, also müssen diese Karten auch irgendwo Pros beliefern.

dildo4u
2020-01-01, 10:17:37
Scheint wie bei Vega 7nm zu laufen wird zu erst als Instinct Karte vorgestellt.


https://twitter.com/AMD/status/1212119569487351808

AffenJack
2020-01-01, 10:28:23
Scheint wie bei Vega 7nm zu laufen wird zu erst als Instinct Karte vorgestellt.


https://twitter.com/AMD/status/1212119569487351808

Navi hat mit HPC nix am Hut. Das düfte der HPC Chip Arcturus sein.

Korvaun
2020-01-01, 10:57:13
Navi/RDNA wurde sicher hauptsächlich mit Blick auf Spiele entwickelt, da AMD ja einen neuen GPU-Teil für die kommende Konsolengeneration brauchte... man könnte behaupten Navi/RDNA1 war beta-test für die Konsolen ;)

Berniyh
2020-01-01, 10:58:07
Ist Navi bzw. RDNA eigentlich die erste Architektur seitens AMD von der man wirklich behaupten kann, dass hier maßgeblich für Spielezwecke optimiert worden ist?

Sind die Gamer eine Zielgruppe mit der AMD so viel Geld verdienen kann so das man sagen kann, sie richten sich nach unseren Bedürfnissen oder sind wir eher die Profiteure von einer "Resteverwertung"? :)
Ich denke mit den Konsolen verdient AMD schon ordentlich und dafür wurde RDNA vermutlich auch ausgelegt.

Denniss
2020-01-01, 11:35:19
AMD hat jetzt endlich genug Geld und Entwickler um nicht mehr einen Grundchip für alles zu verwursten sondern hat mit Vega+Navi bzw deren Nachfolgern mehr und mehr spezialisierte Chips für HPC+Spiele/Konsolen.

pixeljetstream
2020-01-01, 11:44:18
bei NVIDIA sieht man ja relativ schön den Unterschied, Volta-HPC / Turing-Gaming&Workstation sind im Prinzip fast gleiche Basisarchitektur. Volta hat relativ gesehen weniger rasterizer, dafür größere Caches, und mehr double precision units, Turing dann mehr features rund um Grafik. Grundsätzlich wird "gaming" auch immer stärker compute-lastiger. Das heißt im wesentlich ist es nur die Chip Configuration (wieviel units von was), die man je nach Markt optimiert (besonders gut sah man das bei GP100 für HPC vs GP10x für Rest). Tiefgreifendere Unterschiede wären zu teuer und ist imo nicht wirklich nötig.

dargo
2020-01-01, 11:51:29
AMD hat jetzt endlich genug Geld und Entwickler um nicht mehr einen Grundchip für alles zu verwursten sondern hat mit Vega+Navi bzw deren Nachfolgern mehr und mehr spezialisierte Chips für HPC+Spiele/Konsolen.
Spezialisierte Chips rein fürs Gaming wird es zumindest im oberen Preissegment nicht mehr geben. Das sieht man schon bei Nvidia die finanziell in einer anderen Liga spielen. Turing bedient im Vollausbau mit den Quadros bis zu 10.000$ Workstations und den "Abfall" (kastrierter Speicher, SI, SMUs) nimmt man dann fürs High-End bis Enthusiast im Gaming-Sektor. Das heißt für mich nur eins... reine Gamingchips im hohen Preissegment lohnen sich nicht mehr. Zu hohes R&D, zu wenig Ertrag.

pixeljetstream
2020-01-01, 11:59:58
imo gab es diese "reinen Gaming Chips" schon ewig nicht mehr, sowohl NV als auch AMD nutzen die chips auch für ihr Workstation-angebot seit langem. Ein bißchen neuer ist der Trend eben für HPC was eigenes zu basteln, und zum Markt zu bringen.
Es gibt hier mehrere Verwertungskriterien: Einsatz was "perfect chips" (vollausbau) angeht, das liegt am yield und ist ja dennoch der gleiche chip, und die grundsätzliche Konfiguration des chips (units, kenngrößen) bzw. die architektur (feature sets, datenfluss etc.).

dargo
2020-01-01, 12:21:50
Naja... Pitcairn, Polaris, Navi 10/14 sind für mich doch noch reine Gaming-Chips. Genau so wie TU116/117. Im Prinzip auch TU106, auch wenn er schon in die Kerbe der Turing Quadros einschlägt. Nur halt im wesentlich kleineren Maßstab.

Edit:
Stop... Polaris ist falsch, da gabs ja die WX-Serie von. War das bei Pitcairn auch schon so?

pixeljetstream
2020-01-01, 12:28:26
Was ist für dich ein "spezialisierter Chip"? Nicht das wir wie immer was anderes meinen ;) also was sind deine Gründe für die Unterscheidung? (edit: aber ist off topic, also evtl lieber per PM weiter)

Screemer
2020-01-01, 13:02:58
er meint das die chips nicht komplett verkrüppelt bei fp8/16/32 bis zu dp sind und somit auch für hpc taugen. alles was keine ordentliches 1:2 scaling abliefert ist halt "gaming". das korreliert dann oft auch mit der speicherbandbreite, dem verfügbaren speicher und der verfügbarkeit der chips im hp-, pro-umfeld (wx, tesla und quadro). hinzu kommt natürlich noch stuff der im gaming bereich heute gar nix bringt. sowas wie tensor-kerne oder fixed function krempel. so wird das denke ich von den meisten aufgefasst.

pixeljetstream
2020-01-01, 13:56:18
Die quadros oder radeon pros haben aber auch wenig double precision etc. Gleiche config wie gaming, weil Grafikleistung noch wichtig ist. Das war ja auch mein Hinweis dass hpc deutlich anders konfiguriert wird (Volta/Turing bzw gp100/gp10x), jenseits davon aber eben nicht mehr. Vollausbau oder nicht ist dann Kostenoptimierung aber ist dennoch der gleiche Chip. Die Sorge, dass gaming nicht mehr wichtig sei, oder aus anderen Gründen deshalb die Architektur nicht für Spiele geeignet sei, ist imo daher nicht zutreffend.

danarcho
2020-01-01, 14:01:24
Was soll man auch groß unterscheiden? Vllt 1:2 DP, aber DP wird auch bei HPC nicht häufig (aber natürlich mehr als bei Gaming, das das gar nicht braucht) benutzt. Wenn man einen 'schlanken' chip bauen möchte, dann wird das eher der HPC chip sein, den man dann mit ALUs und cache vollstopft. Gaming ist das zusätzliche Zeug, nicht andersrum.

Screemer
2020-01-01, 15:06:12
Die quadros oder radeon pros haben aber auch wenig double precision etc. Gleiche config wie gaming, weil Grafikleistung noch wichtig ist. D
das war aber zumindest bei amd bis hawaii nicht so und ist auch bei vega wieder so. da gibt's zumindest auf hardwareseite immer half rate dp bei den dickschiffen und die hpc, pro und consumer-karten werden nur künstlich beschnitten. hervorzuheben ist da v20. so war das eher gemeint. deine punkte sind natürlich komplett valide.

AffenJack
2020-01-01, 15:21:44
das war aber zumindest bei amd bis hawaii nicht so und ist auch bei vega wieder so. da gibt's zumindest auf hardwareseite immer half rate dp bei den dickschiffen und die hpc, pro und consumer-karten werden nur künstlich beschnitten. hervorzuheben ist da v20. so war das eher gemeint. deine punkte sind natürlich komplett valide.

Stimmt nicht, einzig V20 hat Half Rate DP, aber V20 ist auch eine HPC Karte und nicht mehr Consumer, auch wenn sie kurzzeitig mal releast wurde. V10 dagegen ist auch langsam bei DP.

Screemer
2020-01-01, 15:29:19
Wenn du lesen würdest was ich schrieb, dann hättest du auch evtl. Dickschiff und v20 nicht überlesen.

AffenJack
2020-01-01, 15:33:13
Schon V10 ist ein Dickschiff. 495 mm² gehört zu den größten Chips die AMD gebaut hat. Nach Hawaii hat man klar DP in der Consumerlinie zusammengeschnitten und es erst im Profichip V20 wieder eingebaut.

Screemer
2020-01-01, 15:35:59
Dickschiff steht für mich für die topline einer Architekturfamilie.

mironicus
2020-01-01, 15:55:25
Gibt es bei Navi eigentlich keine Begrenzung mehr bei der maximalen CU und Shader-Anzahl? Bei CGN war glaube ich bei 64 CU und 4096 Shadern Schluss. Aber jetzt stehen schon 80 CU und mehr im Raum bei den größeren Navichips.

BoMbY
2020-01-01, 18:26:50
Komachi hat ein scheinbares Navi12 gefunden (https://twitter.com/KOMACHI_ENSAKA/status/1212421790573584384):

https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+69B0%3A71&testgroup=info

18 CUs oder 18 WGPs = 36 CUs? bei 1144 MHz.

robbitop
2020-01-01, 18:35:07
Gibt es bei Navi eigentlich keine Begrenzung mehr bei der maximalen CU und Shader-Anzahl? Bei CGN war glaube ich bei 64 CU und 4096 Shadern Schluss. Aber jetzt stehen schon 80 CU und mehr im Raum bei den größeren Navichips.
Hatte AMD das 64 CU Limit nicht mal dementiert?

BoMbY
2020-01-01, 18:39:22
Kann das sein dass AMD einfach den Navi10 mit beschnittenem Speichercontroller als Navi12 bezeichnet? Ansonsten sehe ich nicht mehr wo das alles noch Sinn ergibt.

Mangel76
2020-01-01, 18:44:32
Kann das sein dass AMD einfach den Navi10 mit beschnittenem Speichercontroller als Navi12 bezeichnet? Ansonsten sehe ich nicht mehr wo das alles noch Sinn ergibt.

Die 5600xt sollte doch 36CUs bei geringem Takt haben, oder nicht? Wurde zuletzt aber eher mit Navi10Lite in Verbindung gebracht.

Berniyh
2020-01-01, 19:35:06
Kann das sein dass AMD einfach den Navi10 mit beschnittenem Speichercontroller als Navi12 bezeichnet? Ansonsten sehe ich nicht mehr wo das alles noch Sinn ergibt.
Wäre möglich.

Ich vermute aber ehrlich gesagt – nachdem ich den Tweet gesehen habe, dass Navi12 die 5700M ist.

Edit: evtl. ja mit HBM2 Interface für mehr Laufzeit und um Leistungsreserven für die CUs freizuschaufeln.
Könnte dann ja ihren Weg in High-End Gaming Laptops finden?
Wobei die Taktfrequenz dafür natürlich dennoch arg niedrig ist.

Schneller als Navi14 scheint das Teil aber – oberflächlich betrachtet – zu sein.

Berniyh
2020-01-01, 19:36:41
Die 5600xt sollte doch 36CUs bei geringem Takt haben, oder nicht?
Ja, aber nicht sooooo gering. Da sind ja 1100 MHz Game Takt angegeben.
Die 5600XT sollte eher Richtung 5700 gehen.

BoMbY
2020-01-01, 19:55:45
Ich hatte gerade noch den Gedanken dass Navi12 vielleicht eine Portierung von Navi10 auf GloFo-12LP sein könnte, daher auch der Takt. Man muss ja weiterhin ein bisschen was von denen kaufen. Ich hab nur keine Idee welchen Markt man damit bedienen möchte?

Lehdro
2020-01-01, 20:09:11
Man muss ja weiterhin ein bisschen was von denen kaufen.
Muss AMD nicht. Das gilt nämlich nur wenn die das bei GloFo auch fertigen könnten: Also alles was AMD nicht schon für 7nm zusammengebastelt hat. Sie dürfen also einfach nicht in 12/14nm fremdfertigen lassen, somit sind alle 7nm Produkte schon einmal raus.

Berniyh
2020-01-01, 20:20:12
Die Idee ist auch noch ganz nett:
https://www.reddit.com/r/Amd/comments/eil9m6/amd_navi_12_spotted_with_36_compute_units/fcrmw3c/

I'm so looking forward to multi-die GPU's that I only can think that this thing is meant for that.

A chip like that needs that same amount of interconnect bandwidth as memory bandwidth, that explains the smaller memory bus, 192bit will result in around 300GB/s bandwidth, the same as three Infinity Fabric connections will provide. That way, they can couple two of those chips to make a 72CU 384bit GPU. For compute tasks, that would work, for game tasks we have to see.

But maybe we are to early in the multi-die stage to hope for this.

Wäre theoretisch möglich, aber glaube ich nicht dran. Vor allem scheint da ja eine 1-GPU Variante getestet worden zu sein.
Wenn Navi12 eine 2-GPU Variante von Navi10 wäre, dann wäre das doch vermutlich auch so getestet worden.
Und sollte vor allem mehr leisten.
Wenn man mal spontan die Werte verdoppelt, dann landet man kaum über der 5700XT und wenn man dann noch die Multi-GPU Penalty drauf rechnet, dann ist man eher wieder auf 5700XT Niveau.

gravitationsfeld
2020-01-01, 22:09:42
Gibt es bei Navi eigentlich keine Begrenzung mehr bei der maximalen CU und Shader-Anzahl? Bei CGN war glaube ich bei 64 CU und 4096 Shadern Schluss. Aber jetzt stehen schon 80 CU und mehr im Raum bei den größeren Navichips.
Gab es nie.

Odal
2020-01-01, 22:51:07
Navi/RDNA wurde sicher hauptsächlich mit Blick auf Spiele entwickelt, da AMD ja einen neuen GPU-Teil für die kommende Konsolengeneration brauchte... man könnte behaupten Navi/RDNA1 war beta-test für die Konsolen ;)

Das ist auch das größte Problem an Navi 5700(x) das es nur der Beta-Test ist und wesentliche Features (VRS, Raytracing...) der neuen Konsolengenerationen fehlen.

Klar ist Raytracing im Moment noch nicht wichtig, aber mit allem was auf PS5 & Co erscheint dann schon.

Besonders wenn man kein Highend kaufen will sind die Aussichten in nächster Zeit äusserst düster denn 5700(X) werden sicher nicht so schnell ersetzt. Mal ab davon das die auch preislich (200-300€ Bereich) sowie vom Powerbudget (1x8Pin) kein richtiger Polaris Nachfolger sind. Ich seh mich noch auf ne 7nm 3060 wechseln :rolleyes:

Berniyh
2020-01-02, 09:08:08
Klar ist Raytracing im Moment noch nicht wichtig, aber mit allem was auf PS5 & Co erscheint dann schon.
Zumindest am PC wird Raytracing auf absehbare Zeit nicht "wichtig" sein, denn es gibt viel zu viele Leute da draußen die keine Grafikkarte haben die das beherrscht.
Entsprechend müssen die Entwickler dann auch alternative Pfade einbauen um diese Kundschaft zu bedienen.

HOT
2020-01-02, 09:27:40
Bis die ersten wirklichen Next-Gen-Spiele für die neuen Konsolen kommen in einigermaßen Anzahl ist Navi1 eh obsolet. Turing aber auch, denn RT-Cores hin oder her, der wird dann eh genausowenig reißen können.

BoMbY
2020-01-02, 09:37:57
Muss AMD nicht. Das gilt nämlich nur wenn die das bei GloFo auch fertigen könnten: Also alles was AMD nicht schon für 7nm zusammengebastelt hat. Sie dürfen also einfach nicht in 12/14nm fremdfertigen lassen, somit sind alle 7nm Produkte schon einmal raus.

Es gibt immer noch feste Abnahmemengen und die muss AMD erfüllen oder zahlen: https://www.anandtech.com/show/13915/amd-amends-agreement-with-globalfoudries-set-to-buy-wafers-till-2021

Welche Produkte, und wie viele Wafer, das ist nicht bekannt.

KarlKastor
2020-01-02, 09:42:56
Ja natürlich müssen sie das. Aber das wird entsprechend reduziert worden sein.
Du glaubst dich nicht, dass die einfach 7nm canceln können und AMD muss weiterhin fleißig dort abnehmen.
Mit den IO Dies und embedded CPUs sowie kleinen GPUs und Semi Custom Chips werden das mehr als genug sein.

Fragman
2020-01-02, 10:19:38
Turing aber auch, denn RT-Cores hin oder her, der wird dann eh genausowenig reißen können.

Bisher gibt es doch keine Erkenntnisse über das RT der Konsolen. Damit Turing obsolet wird, müsste die Leistung der Konsolen schon sehr viel höher sein und darauf deutet aktuell nichts hin.
Gerade die PS5 ist ja so ein Fall. Die Leistung scheint nicht soviel höher, aber die Devs nutzen scheinbar RT. Aber wie genau ist nicht klar. Dazu das Gerücht, das es ein Navi1 Derivat sein soll, was nur für noch mehr Verwirrung sorgt.

AffenJack
2020-01-02, 10:39:12
Bisher gibt es doch keine Erkenntnisse über das RT der Konsolen. Damit Turing obsolet wird, müsste die Leistung der Konsolen schon sehr viel höher sein und darauf deutet aktuell nichts hin.
Gerade die PS5 ist ja so ein Fall. Die Leistung scheint nicht soviel höher, aber die Devs nutzen scheinbar RT. Aber wie genau ist nicht klar. Dazu das Gerücht, das es ein Navi1 Derivat sein soll, was nur für noch mehr Verwirrung sorgt.

Die Leistung muss gar nicht höher sein, damit Turing für RT kritisch wird. Das Target bei den meisten Konsolenspielen mit RT dürfte wieder 30 FPS werden. Vll bei 1440p, um dann auf 4k hochzuskalieren. Dann ist am Ende die PS5 mit ähnlicher Gesamtgeschwindigkeit wie ne RTX2070 30FPS 1440p fähig, die RTX2070 am PC macht dann noch 1080p 30FPS, da Devs aus Konsolen mehr rausholen. Aber wer will am PC mit 30 FPS spielen?

JVC
2020-01-02, 10:54:05
Gerade die PS5 ist ja so ein Fall. Die Leistung scheint nicht soviel höher, aber die Devs nutzen scheinbar RT.
Dazu das Gerücht, das es ein Navi1 Derivat sein soll, was nur für noch mehr Verwirrung sorgt.
Es muss sich nicht unbedingt widersprechen.
AMD hatte immer betont, sie versuchen RT Softwareseitig für schon vorhandene Compute-Units der Architektur zu integrieren. Es gab ja auch einige Meldungen dazu.
Eventuell ist das in den Konsolen genauso gelöst worden und zusätzliche Einheiten waren gar nicht nötig.
Siehe https://www.giga.de/news/raytracing-fuer-alle-neue-technik-kostenlos-ohne-rtx-grafikkarte-ausprobieren/
Mal sehen könnte eine Überraschung geben zu Raytracing, der am Ende Nvidia nur mit verschwendetem Platz auf dem Chip zurückläßt.
Da hatte doch jemand kürzlich klar geäußert, dass die Konsole die Leadplattform der Entwickler ist und darauf optimiert wird.
Ich tippe auch noch immer, auf genau dieses Szenario...
(RT in "Hardware", aber eben auf den dafür optimierten Compute-Units)

M.f.G. JVC

y33H@
2020-01-02, 11:46:29
Auch die RT-Core sind ja keine wirklichen zusätzlichen Einheiten, sondern in die SMs direkt integriert ... von AMD wird etwas ähnliches geben, denn SMs mit RT-Cores sind am Ende auch "optimierte CUs".

Odal
2020-01-02, 11:51:17
Bis die ersten wirklichen Next-Gen-Spiele für die neuen Konsolen kommen in einigermaßen Anzahl ist Navi1 eh obsolet. Turing aber auch, denn RT-Cores hin oder her, der wird dann eh genausowenig reißen können.


Naja da steckt ja quasi auch nur Navi vom Schlage einer 5700 drin aber eben mit mehr Features. Ich kaufe eine GPU ja auch nicht nur für 1 Jahr. Die sollte im Hauptsystem schon min. 3 Jahre durchhalten und danach wandert sie ins Zweitsystem. D.h. effektiv wird die dann 6 Jahre (mein pitcairn ist mittlerweile fast 8J und da geht noch relativ viel) genutzt.

Und ich denke bis 2026 wird es schon des ein oder andere Spiel geben was Raytracing und VRS zum Pflichtprogramm macht (AAA Launchtitel die zeigen was die Konsolen können wirds trotzdem geben).

Was ich mir bzgl. Raytracing vorstellen kann ist aber, dass dies (mit technischen Einschränkungen) in RDNA ziemlich performant ist und hier NVidia mit RTX einfach nur eine neue FX5800 gebaut hat, und RDNA2 dort der neue RV3x0 sein könnte.

Troyan
2020-01-02, 12:29:07
Die Leistung muss gar nicht höher sein, damit Turing für RT kritisch wird. Das Target bei den meisten Konsolenspielen mit RT dürfte wieder 30 FPS werden. Vll bei 1440p, um dann auf 4k hochzuskalieren. Dann ist am Ende die PS5 mit ähnlicher Gesamtgeschwindigkeit wie ne RTX2070 30FPS 1440p fähig, die RTX2070 am PC macht dann noch 1080p 30FPS, da Devs aus Konsolen mehr rausholen. Aber wer will am PC mit 30 FPS spielen?

Erstmal müssen die neuen Konsolen Raytracing auf dem selben Leistungsstand umsetzen wie Turing. Und von den spekulativen 9,3Tflops von der PS5 ausgehend, wird man selbst beim 08/15 Shading kaum schneller als eine RTX2070 sein.

mironicus
2020-01-02, 12:33:39
Aber das wird wohl der Weg sein, den auch NVidia gehen muss. Nicht zu viel Chipfläche zu verbraten für ein einzelnes Feature (Raytracing), und dafür etwas bestehendes auszubauen für den gleichen Effekt (der Weg den AMD geht um Raytracing umzusetzen).

Linmoum
2020-01-02, 15:30:35
Dürfte wohl eine 5600(M) sein vs. 2060.
Performancetechnisch wäre das schon eine Überraschung.

https://mobile.twitter.com/_rogame/status/1212675865366212608

Brillus
2020-01-02, 15:38:42
Dürfte wohl eine 5600(M) sein vs. 2060.
Performancetechnisch wäre das schon eine Überraschung.

https://mobile.twitter.com/_rogame/status/1212675865366212608

Ohne jetzt Vergleiche zu haben, von der Hardware Renoir + 5600M(eine 5700M würde ich auch nehmen) wäre das schön sehr interessant für mich.

Hoffe sowas gibt es bald zu kaufen

Troyan
2020-01-02, 15:52:51
Aber das wird wohl der Weg sein, den auch NVidia gehen muss. Nicht zu viel Chipfläche zu verbraten für ein einzelnes Feature (Raytracing), und dafür etwas bestehendes auszubauen für den gleichen Effekt (der Weg den AMD geht um Raytracing umzusetzen).

Navi10 hat 10,3 Mrd Transistoren und liefert weniger Leistung bei weniger Features als TU106 mit 10,8 Mrd Transistoren. AMD muss noch mehr Transistoren investieren, um Raytracing überhaupt nutzbar zu machen.

Linmoum
2020-01-02, 15:57:34
Welcher TU106 soll das sein, gegenüber dem eine 5700XT weniger Performance liefert?

=Floi=
2020-01-02, 16:59:52
wird man selbst beim 08/15 Shading kaum schneller als eine RTX2070 sein.

wäre doch absolut ok.

dildo4u
2020-01-02, 17:12:39
Dürfte wohl eine 5600(M) sein vs. 2060.
Performancetechnisch wäre das schon eine Überraschung.

https://mobile.twitter.com/_rogame/status/1212675865366212608
Nicht wirklich sind ja 36 CU auf Level mit 5700,das Ding ist sehr breit mit wenig Takt optimal für Notebooks.
Selbst die Desktop Version hängt nur bei 1.5Ghz Gameclock.

bloodflash
2020-01-02, 19:29:54
Navi10 hat 10,3 Mrd Transistoren und liefert weniger Leistung bei weniger Features als TU106 mit 10,8 Mrd Transistoren. AMD muss noch mehr Transistoren investieren, um Raytracing überhaupt nutzbar zu machen.


Ich tippe ja darauf, dass AMD mit Vega schon Vorarbeiten zu RT gemacht hat. RDNA hat das schon nutzbar intus, wird aber nicht im Treiber freigeschaltet, ist aber schon in den Entwicklerkonsolen nutzbar.
Mit RDNA2 geht das dann in die Konsolen und auch in die PC-Treiber.


AMD wusste schon frühzeitig, dass das kommen wird. Wenn nicht die, wer weiss dann schon was XBsX und PS5 in Sachen RT, 10bit, HDMI2.1 oder Anbindung der SSD anbieten wird?


Wenn AMD die eigenen Entwicklungen richtig nutzt, steht nV plötzlich ohne Fallback-Option da: Stichwort: Ich sag nur Radeon Pro SSG

mironicus
2020-01-02, 20:11:41
Ich rechne schon fest damit, dass NVidia bei einer früheren Vorstellung von Navi21 in diesem Jahr (vielleicht mit 12 oder 16 GB) dann mit der RTX 2080 Ti Super (mit 12 GB) kontern wird und die Preise der RTX 2080 Ti dann auf unter 800 Euro fallen.

Grendizer
2020-01-02, 20:46:17
Oder man kündigt einfach den 7nm Turing Nachfolger nur an, zeigt ausgewählte Benchmarkwerte, die entsprechend 40% über AMD liegen. Das reicht doch schon um die Leute bis Q3 zum warten zu bringen.

davidzo
2020-01-03, 02:27:27
Navi10 hat 10,3 Mrd Transistoren und liefert weniger Leistung bei weniger Features als TU106 mit 10,8 Mrd Transistoren. AMD muss noch mehr Transistoren investieren, um Raytracing überhaupt nutzbar zu machen.

Du irrst dich, Navi hat eine leicht höhere Leistung als TU106. Das Missverständnis kommt vermutlich durch die 2070 Super, welche eigentlich eine abgespeckte 2080 ist, mit TU104.
Die 5700xt ist schneller als eine vanilla 2070 und die vanilla 5700 schneller als eine vanilla 2060. Demnach schlägt Navi10 bei der performance TU106. Bei der Energieefizienz liegt AMD aber trotz 7nm noch knapp zurück. Möglicherweise hat AMD deshalb beim etwas neueren Navi12 viel kleinere Taktraten angesetzt...

BlacKi
2020-01-03, 03:07:42
Du irrst dich, Navi hat eine leicht höhere Leistung als TU106. Das Missverständnis kommt vermutlich durch die 2070 Super, welche eigentlich eine abgespeckte 2080 ist, mit TU104.
Die 5700xt ist schneller als eine vanilla 2070 und die vanilla 5700 schneller als eine vanilla 2060. Demnach schlägt Navi10 bei der performance TU106. Bei der Energieefizienz liegt AMD aber trotz 7nm noch knapp zurück. Möglicherweise hat AMD deshalb beim etwas neueren Navi12 viel kleinere Taktraten angesetzt...
die super modelle sind durch die bank weg aber schlechter im perf./watt geworden bis auf die 2060s. wenn man nun die 5700xt mit den beiden nv konkurenten vergleicht liegt sie 10-17% zurück. im neuen prozess wohlgemerkt. würden beide im selben prozess gefertigt werden, wäre der unterschied deutlich größer. trotz rdna. mit etwas konservativen taktraten könnte ein großer navi die aktuelle nv generation vl sogar schlagen, aber die nv gen wird bald 2 jahre alt. da kann jetzt jeder drüber denken was er will.

Linmoum
2020-01-03, 08:35:35
wenn man nun die 5700xt mit den beiden nv konkurenten vergleicht liegt sie 10-17% zurück.
Es gibt nur einen aktuellen Konkurrent und das ist die 2060S, diese wird von der 5700XT ohne Probleme geschlagen, selbst die 5700 ist knapp auf Augenhöhe mit dieser.

Die 2070S ist wiederum was anderes, da nicht mehr der angesprochene TU106, sondern bereits TU104. Und eine Preisklasse weiter oben.

dildo4u
2020-01-03, 08:51:10
Ist genau wie bei Ryzen es wird eine Weile dauern bis sie 800€ nehmen können aber Big Navi könnte 500€ Belegen selbst wenn die 7nm NV Karten raus sind.
Ich vermute das du bei Nvidia maximal Titan Performance für 800€ bekommen wirst.

woodsdog
2020-01-03, 08:56:34
aber die nv gen wird bald 2 jahre alt. da kann jetzt jeder drüber denken was er will.

Vorstellung von Turing Ende August 2018 auf der Gamescom, Launch der 2000er Serie war Ende September 2018. Nix mit "bald 2 Jahre".

robbitop
2020-01-03, 09:03:04
Er ist schon der zweite in den letzten Wochen, die keinen Kalender benutzen können und behaupten Turing sei "bald 2 Jahre alt".
1 Jahr und 4 Monate verfügbar. Das ist näher an 1 Jahr dran als an 2. ;)

RDNA ist noch nicht ganz auf dem Level von Turing angekommen. Sowohl Effizienz als auch Techlevel. Aber verglichen mit dem was man zuvor geliefert hat, war es ein großer Sprung.
Mit dem gesteigerten Budget wird AMD sicherlich regelmäßig Fortschritte machen. Ggf. schafft schon Navi2x den Schritt. Wenn nicht, dann der Nachfolger. Ich tippe darauf, dass AMD im GPU Bereich das gleiche tun wird wie im CPU Bereich. Regelmäßige Execution. Jedes Jahr eine geupdatete, deutlich bessere uArch. Damit werden sie den Abstand spätestens Mittelfristig reduzieren oder umkehren. Das Ergebnis sollte uns alle freuen: endlich wieder Wettbewerb und ein Ende des schlechten P/L.

HOT
2020-01-03, 09:21:33
RDR2 läuft auf einer Konsole mit einem doppelten Kabini-Rechner mit Bonaire-Grafik, versucht das mal auf dem PC. Soviel zur Vergleichbarkeit der Hardware.
RT auf Konsolen wird eine hochoptimierte Angelegenheit, die genauestens durchgerechnet ist. Das ist nicht im Ansatz vergleichbar mit RTX-Games. Turing stinkt in der ersten Konsolen-Umsetzung für PCs richtig ab, genau wie alle pre-RDNA2-Karten und alle CPUs mit weniger als 12 Threads. Aufgrund der blöden SSD-Umsetzung wird das ganze noch schwieriger, denn auch mit 16GB RAM wird man GAR NICHTS mehr reißen können. Das muss alles durch Arbeitsspeicher substituiert werden. Auch 8GB VRAM sind dann einfach wenig. Erinnert euch an den letzten Sprung: Speicherverbrauch von 4GB auf 16GB gestiegen, VRAM von 1GB auf 6-8GB. Denkt ihr das wird dieses mal anders? Lächerlich. Turing läuft doch schon mit eigener RT-Implementation in NV-Spielen bschissen. Wie soll das erst bei anders optimierter Fremdhardware werden? Damit soll das besser laufen? Ebenfalls lächerlich. Turing hat mit an Sicherheit grenzender Wahrscheinlichkeit zu wenig RT-Leistung, um RT für die neuen Konsolen auf den PC zu bringen und der VRAM reicht ebenfalls nicht mehr - so wird das laufen.

RDNA1 ist auch nicht besser natürlich, das ist sowas wie Cayman war, RDNA1 ein Abgesang auf die klassische pre-RT-Hardware.

Hauwech
2020-01-03, 09:22:08
Ich glaube nicht das es eine jährliche verbesserte uArch im GPU Bereich geben wird. Dafür sind die Dinger einfach zu groß und zu komplex als das es sich von den Verkaufszahlen her lohnen würde.

dildo4u
2020-01-03, 09:24:42
Es gibt nicht das RTX Game manche Effekte sind so Harmlos das man sie auf Pascal zocken kann andere zerstören total die Performance.
Es hindert niemanden auf Konsole wieder 30fps Games zu veröffentlichen mit extrem teuren RT Effekten.