PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

HOT
2018-06-19, 11:23:35
N10 könnte auch genau wie V20 vorgezogen worden sein, da die Fertigung besser läuft als geplant (weswegen sollte man sonst was vorziehen?). Auch dass man schon die Chipgröße kennt und die Leistungsklasse würde dafür sprechen. Ich gehe davon aus, dass auch N10 von TSMC kommt. N14 wird sicherlich eher eine low-end-Variante um die 100mm² sein. Nur N20 dürfte in 7 EUV kommen in 2020, da wird man die höhere Transistordichte gerne mitnehmen.

Sieht ja so aus, als wenn Navi wirklich GCN v2 sein, ein top-to-bottom-lineup wäre das auch logisch aus meiner Sicht.
Nach Navi wird sicherlich eine weitere GCN-Generation kommen aber danach ist definitiv feierabend aus meiner Sicht, denn dann würden auch wieder neue Konsolen anstehen und die werden eine neue Architektur wollen. Man wird sich mit GCN2 durch die 7nm-Generation hangeln, aber bei 3nm wird sicherlich ein wirklicher Sprung anstehen.

Skysnake
2018-06-19, 19:06:06
Genau das ist es. Man wird nicht schlau daraus. Nach aktuellem Stand (und da möge man mich korrigieren):
Q4'18 = Vega 20 - 16-32 GB HBM2, HPC only, 7nm
Q#'19 = NAVI 10 - Polaris Preisklasse mit Vega Performance, 7nm
Q#'20 = NAVI 14(?) - Vega Erbe mit vielleicht plus 60% Leistung, 7nm

Navi soll dann für mein Verständnis ein from-bottom-to-top-Chip sein. Hat man denn einen fetten Deal dass man V20 für HPC only bringt oder wird das auf ein Kostenspiel hinaus laufen? Man müsste ja schon einige hundertausend Stück verkaufen um R&D plus laufende Kosten rein zu bringen... :|
Naja, AMD arbeitet mit den Chinesen zusammen an einem Pre-Exascale System. Da könnte man schon von 25.000 bis 100.000 Karten ausgehen, wenn die GPUs von AMD verwenden wollen.

Genaues weiß man nur nicht.

Complicated
2018-06-19, 21:15:31
Nachdem AMD so viel in Software investiert hat für GCN im OpenGPU Segment, wäre es wohl auch der falsche Zeitpunkt jetzt eine völlig andere Architektur zu bringen.

gravitationsfeld
2018-06-19, 21:31:31
GCN ist auch nicht Bulldozer. Das Instruction Set und auch die Implementierung der CUs sind beides recht gelungen, auch wenn es öfter mal ein bisschen an Registern fehlt, und ich beim Treiber durchaus noch Luft nach oben sehe.
Es "fehlt" bei anderen GPUs genauso an Registern. SRAM braucht einfach Platz und groessere Register-Baenke bedeuten mehr Latenz. 64 CUs sind jetzt schon 4MiB.

NVIDIA hat jedenfalls in den Consumer-Chips nicht weniger Probleme mit der Occupancy.

Sunrise
2018-06-19, 22:37:48
Naja, AMD arbeitet mit den Chinesen zusammen an einem Pre-Exascale System. Da könnte man schon von 25.000 bis 100.000 Karten ausgehen, wenn die GPUs von AMD verwenden wollen.

Genaues weiß man nur nicht.
IMHO schon ziemlich schlüssig.

AMD baut ein Rechenmonster frühstmöglich auf 7nm, wobei der Preis erstmal auf eine Menge X kalkuliert ist, weshalb AMD auch garkein Problem damit hat, falls die Yield am Anfang nicht sonderlich hoch ist. Daher ist der Gaming-Markt auch erstmal egal, Lisa Su möchte garantierte Gewinne einfahren und Termine einhalten, wohl auch weil der Gaming-Markt ganz anderen Spielregeln folgt.

Da Navi aber erst so spät kommt, bringt man dann doch V20 etwas verspätet für dem Gamer, weil man einfach nichts anderes vorweisen kann. Navi wird dann nur die riesige Lücke darunter Füllen, V20 wird weiterlaufen.

Apple hat sicher auch Interesse an V20 und ich rede nicht allein vom Endkundenmarkt, sondern für eigene Zwecke.

|MatMan|
2018-06-19, 23:01:57
Nachdem AMD so viel in Software investiert hat für GCN im OpenGPU Segment, wäre es wohl auch der falsche Zeitpunkt jetzt eine völlig andere Architektur zu bringen.
Hat AMD da so viel investiert? Wenn man nicht direkt danach sucht, liest man nicht so viel davon.
Außerdem ist der Quellcode doch offen, da kann es jeder auf eine neue Architektur portieren, wenn AMD das nicht selbst macht. Also wo ist das Problem?

Complicated
2018-06-19, 23:58:45
findest du?
https://www.heise.de/newsticker/meldung/Supercomputer-AMD-startet-Software-Offensive-Boltzmann-2922782.html
https://www.heise.de/newsticker/meldung/AMD-auf-der-Supercomputing-Konferenz-SC16-OpenCompute-mit-ROCm-aber-kein-Zen-3491050.html
https://www.heise.de/developer/artikel/House-of-ROC-AMDs-Alternative-zu-CUDA-3755863.html?seite=all
https://gpuopen.com/professional-compute/

HCC C++ compiler has a number of improvements under the hood to improve support for functors passed into kernels, dynamic library linking, refactored math interfaces, and other various tweaks and improvements for compiling large-scale, real-world C++ programs.

As a result, HIP and HCC from ROCm 1.6 are now being used to compile a wide variety of libraries and applications. Many of these code bases are hundreds of thousands of lines of C++ code HCC, including:
Hipcaffe – Optimized with MIOpen and includes support for multi-GPU.
HipEigen – 250K+ lines of templated C++ code with more than 4000 device functions. Eigen is an important building block for Torch and TensorFlow.
Torch : cutorch, , and PyTorch are using HIP for GPU acceleration
Libraries : miopen, rocBlas, hcRNG, hcFFT have HIP interfaces.
Other frameworks and projects are coming soon. See here for more information on the evolving ROCm Ecosystem.

Gipsel
2018-06-20, 09:36:43
Es "fehlt" bei anderen GPUs genauso an Registern. SRAM braucht einfach Platz und groessere Register-Baenke bedeuten mehr Latenz. 64 CUs sind jetzt schon 4MiB.Mehr:
Eine Vega-CU besitzt 256kB (Vektor-Register, 64kB pro SIMD) + 64kB (local memory) + 16kB (L1-vD-Cache) + 12,5kB (4*3,125kB Skalar-Register) = 348,5 kB SRAM.
Mit 64CUs sind das also schon knapp 22MB, wozu dann noch der L2 (und GDS) sowie die zwischen mehreren CUs geteilten L1-sD$ und L1-I$ kommen. Die Vektorregister alleine machen davon bereits 16MB aus.

Das macht Dein Argument, daß z.B. eine Verdopplung der Register flächenmäßig relativ teuer wird, etwas schlagkräftiger.

Der_Korken
2018-06-20, 09:46:56
Mehr:
Eine Vega-CU besitzt 256kB (Vektor-Register, 64kB pro SIMD) + 64kB (local memory) + 16kB (L1-Cache) + 12,5kB (4*3,125kB Skalar-Register) = 348,5 kB SRAM.
Mit 64CUs sind das also schon knapp 22MB, wozu dann noch der L2 (und GDS) kommt.

Krass. Wenn man alle 16 Slots einer SIMD-Unit mit 2 32bit-Operanden füttern will, braucht man 128 Byte Registerspace, d.h. es passen genug Operanden für 512 Takte ins Register. Das kommt mir als Halb-Laie irgendwie total viel vor. Braucht man wirklich so viel Vorlauf um Speicherzugriffe zu verstecken? Könnte man dazu nicht auch irgendwann den LLC vergrößern, um zumindest die CUs zu entschlacken? Für mich klingt es so, als könnte AMD hier viel einsparen.

Gipsel
2018-06-20, 10:05:10
Krass. Wenn man alle 16 Slots einer SIMD-Unit mit 2 32bit-Operanden füttern will, braucht man 128 Byte Registerspace, d.h. es passen genug Operanden für 512 Takte ins Register. Das kommt mir als Halb-Laie irgendwie total viel vor. Braucht man wirklich so viel Vorlauf um Speicherzugriffe zu verstecken? Könnte man dazu nicht auch irgendwann den LLC vergrößern, um zumindest die CUs zu entschlacken? Für mich klingt es so, als könnte AMD hier viel einsparen.Soo viel Platz ist das nicht. Erstmal werden immer 64er Wavefronts abgearbeitet (über 4 Takte). Und es passen maximal 10 Wavefronts auf eine SIMD-Einheit (ist eine Art von Multithreading, wenn eine Wavefront blockiert ist [wartet auf Speicherzugriff oder sonstwas], macht eine andere weiter). Das sind dann nur noch 25 Register (die werden auch immer mit einer gewissen Granularität alloziert, die Grenze ist also eigentlich 24), die ein Shaderprogramm nutzen kann. Werden es mehr, bekommt man die SIMD-Einheit nicht mehr komplett voll (das ist die Occupancy, die hier schon ein paar mal erwähnt wurde: wie viele Wavefronts mit den Resourcenanforderungen [Register, local memory] des Shaders passen auf eine CU). Ist sie nicht komplett voll, verringert das die Möglichkeiten zum Latency-Hiding (es wird potentiell langsamer). Wie viele Wavefronts man wirklich braucht, hängt immer vom Code ab. Aber meist will man die schon möglichst voll bekommen, was die Anzahl an nutzbaren Registern (in einem Shader) limitiert. Komplexe Shader mit höheren Anforderungen an die Registerzahl haben dann schon ein paar Probleme (wenn sie nicht fast nur rumrechnen fast ohne Speicherzugriffe), da davon dann z.B. nur noch 4 Wavefronts oder noch weniger auf eine SIMD-Einheit passen und somit die Wahrscheinlichkeit, daß alle auf irgendwas warten und keine wirklich rechnen kann, steigt (was die Performance sinken läßt). Und einen Shader zu schreiben, der 100 Register braucht, ist nicht wirklich schwierig (und manchmal macht der Compiler auch komische Dinge und bläst die Registerzahl unnötigerweise auf).

Complicated
2018-06-20, 11:23:53
Wurde dieses neue AMD Patent vom Mai für "Super-SIMD" schon gepostet?
https://www.reddit.com/r/Amd/comments/8hu0be/amds_new_patent_supersimd_for_gpu_computing/
A super single instruction, multiple data (SIMD) computing structure and a method of executing instructions in the super-SIMD is disclosed. The super-SIMD structure is capable of executing more than one instruction from a single or multiple thread and includes a plurality of vector general purpose registers (VGPRs), a first arithmetic logic unit (ALU), the first ALU coupled to the plurality of VGPRs, a second ALU, the second ALU coupled to the plurality of VGPRs, and a destination cache (Do$) that is coupled via bypass and forwarding logic to the first ALU, the second ALU and receiving an output of the first ALU and the second ALU. The Do$ holds multiple instructions results to extend an operand by-pass network to save read and write transactions power. A compute unit (CU) and a small CU including a plurality of super-SIMDs are also disclosed.
http://www.freepatentsonline.com/20180121386.pdf

BoMbY
2018-06-20, 11:30:29
Das macht Dein Argument, daß z.B. eine Verdopplung der Register flächenmäßig relativ teuer wird, etwas schlagkräftiger.

Ich erinnere nochmal hieran:


System and method for using virtual vector register files (https://patents.google.com/patent/US20170371654A1/en)

Described is a system and method for using virtual vector register files that may address all of the bottlenecks presented by current register file architecture by yielding lower die area, lower power and faster SIMT units while balancing low latency and register usage.

Rabiata
2018-06-29, 11:34:03
Irgendwas passt da nicht so ganz zusammen. Aktuell kooperiert AMD mit Intel hierbei:
https://geizhals.de/intel-nuc-kit-nuc8i7hvk-hades-canyon-boxnuc8i7hvk-a1752708.html

Und dann tut man wieder alles um AMD zu schaden?

Im Heise Artikel (https://www.heise.de/ct/artikel/Mini-PC-Test-Intels-ziegelsteingrosser-Spiele-NUC-mit-AMD-Vega-Grafik-4090927.html) zum oben verlinkten NUC ist ein Detail, das ich bisher nicht anderswo gelesen habe:

Im Unterschied zu Radeon-Grafikkarten mit HBM-Speicher tauschen GPU und Grafikspeicher Daten nicht über einen ins Substrat eingearbeiteten Interposer aus. Stattdessen kommt eine kostengünstigere Embedded Multi-Die Interconnect Bridge – kurz EMIB – zum Einsatz, bei der die 1024 Datenleitungen durch das Trägermaterial verlaufen.


Könnte sich hier auch eine Möglichkeit für AMD verbergen, bei Navi & Co. signifikant Geld zu sparen? Falls ja, hat HBM vielleicht mehr Zukunft als bisher gedacht. Aus der Kooperation mit Intel sollte auch AMD zur EMIB-Technologie Zugang haben.

BoMbY
2018-06-29, 11:48:02
EMIB ist schon lange bekannt. AMD hat ähnliches in der Pipeline:


Circuit board with multiple density regions (http://www.freepatentsonline.com/20180096938.pdf)
Circuit board with bridge chiplets (http://www.freepatentsonline.com/20180102338.pdf)

Unicous
2018-06-29, 11:51:20
@Rabiata

Nö. Außer Intel lässt zu, dass AMD ihre proprietäre Technologie und ihre Produktionstätten benutzt. Und das wird aller Voraussicht nach nicht geschehen. Und dass Intel anderen Fabs wie TSMC ihre Fertigungstechnologie überlässt sehe ich irgendwie auch nicht.:wink:

HBM ist nicht teuer weil es teuer ist, sondern weil nach wie vor zu wenig produziert wird und man sich die Produktions-Kapazitäten mit all den anderen Speichertechnologien die auf DRAM basieren teilen muss. HBM ist im Grunde genommen nichts anderes als DRAM der gestapelt wird.

Menace
2018-06-29, 11:59:46
Zur Unterstützung Unicous-These: Nachfrage von HBM2 übersteigt bei weitem das Angebot. (https://www.overclock3d.net/news/gpu_displays/samsung_could_double_hbm2_memory_production_and_still_not_meet_demand/1)

Complicated
2018-06-29, 12:35:54
Nö. Außer Intel lässt zu, dass AMD ihre proprietäre Technologie und ihre Produktionstätten benutzt.
AMDs Semi-Custom Unit hat die GPU für den Kabylake G irgendwie ja bauen müssen. Also haben sie ja Zugang zu allem was man braucht um EMIB zu verbauen. Fraglich ist natürlich wofür sie eine Lizenz erhalten um es zu nutzen.

Unicous
2018-06-29, 12:38:38
Blödsinn. AMD lässt die GPU herstellen und schickt sie dann zu Intel fürs Packaging.:rolleyes:

Complicated
2018-06-29, 12:54:55
aha..und wie wird der HBM über EMIB dann an der GPU angebunden? Am GDDR5 Interface?
Das wäre ja eine geniale Technologie wenn es keinen Unterschied macht auf dem Chip ob PCB, Interposer oder EMIB. Warum hat Intel dann nicht einfach GPUs gekauft anstatt die Semi-Custom von AMD zu nutzen?

Locuza
2018-06-29, 13:36:51
aha..und wie wird der HBM über EMIB dann an der GPU angebunden? Am GDDR5 Interface?
Das wäre ja eine geniale Technologie wenn es keinen Unterschied macht auf dem Chip ob PCB, Interposer oder EMIB. Warum hat Intel dann nicht einfach GPUs gekauft anstatt die Semi-Custom von AMD zu nutzen?
Interposer oder EMIB sind aktuell passive Siliziumverbindungen, welche die Signale von einem Phys zum anderen überleiten und die Microbumps bei der Anbindung haben die gleichen Abstände, es ist den Chips selber egal wie sie angebunden werden.
Und ja, Intel könnte auch Vega10 kaufen und das über EMIB anbinden, ohne das AMD Zugriff auf irgendetwas von Intel bekommen müsste.

Intel hat sich für Semi-Custom entschieden, weil Intel X-Performance-Faktor, bei Y-Flächenverbrauch unter Z-Stromverbrauch packen wollte.
Im konkreten Fall lief das auf ein MCM-Package hinaus, wo Intel ein HBM fähiges Device über EMIB angebunden hat.
Da AMD kein passendes Standardprodukt hatte, hat man sich eben auf eine Konfiguration geeinigt, welche Intels Anforderungen entspricht.

maguumo
2018-06-29, 14:34:52
Die gleiche Diskussion hatten wir schon mal über 5 Seiten. Gebt es auf, das wird nichts :freak:

Screemer
2018-06-29, 15:14:44
Ich sehe für Navi oder seine Nachfolger eher aktive Unterpower auf die gewisse teile der chips, wie uvd und phys, ausgelagert werden. So kann man mit kleineren Chips in die Produktunion und für die Skalierung mehrere Chips auf einen Unterpower packen.

Die passiven die Geräte sind auch nicht wirklich teurer als in teils Emib.

Unicous
2018-06-29, 15:25:56
Hier versteht wohl jemand nicht was semi-custom bedeutet.

AMD designed für andere ein ASIC und dieses Design wird dann vom Auftraggeber genommen und im Bestfall im Auftrag von AMD gefertigt (wie bei Kaby Lake G). Meist läuft es aber darauf hinaus, dass das Design dann im Auftrag des... Auftraggebers gefertigt wird (siehe Konsolen) oder in einem Joint-Venture (THATIC/Hygon).(Ob letzteres nur ein umgelabelter Zeppelin oder mehr ist, wird man noch sehen.)

Im Falle von Kaby Lake hat AMD einen Polaris-Hybriden designed der ein HBM Interface aufweist. Intel nimmt den Chip und bringt ihn auf das Package, samt HBM-Stack.

Ist ja nicht so als gäbe es dazu nicht ein ältere, anschauliche Abbildung dazu. :wink:

https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2017/04/Intel-Heterogeneous-Integration-3.jpg

Adam D.
2018-06-29, 16:10:12
https://videocardz.com/newz/nvidia-invites-press-for-gamescom

Ich poste das hier auch mal, da für Ende Juli hier auch ein AMD-Event angesprochen wird. Spekulation vom Autor: TR2, Mobile Ryzen, RX Vega 7nm. Vielleicht wird AMD ja vor dem Turing-Launch auf zukünftige Gaming-Karten zu sprechen kommen?

BoMbY
2018-06-29, 17:25:52
Sollte AMD tatsächlich Navi für Q1/2019 planen, könnte es auch eine Architecture Preview geben, ähnlich wie bei Polaris und Vega ein längere Zeit vor Veröffentlichung. Bzw. erinnert der Zeitpunkt auch an Macau 2016. Naja, mal abwarten.

unl34shed
2018-06-29, 17:28:15
Für 2018 wären sie spät dran :P

Könnten aber auch CPUs sein, bzw. mehr Infos zu der großen APU.

Gipsel
2018-06-29, 17:43:48
Ich sehe für Navi oder seine Nachfolger eher aktive Unterpower auf die gewisse teile der chips, wie uvd und phys, ausgelagert werden. So kann man mit kleineren Chips in die Produktunion und für die Skalierung mehrere Chips auf einen Unterpower packen.Autokorrektur-Fail?
Unterpower => Interposer?

X-Bow
2018-08-23, 08:35:09
Wissen wir mittlerweile eigentlich was das "Scalability" bei Navi bedeutet oder bedeuten könnte?
Ich denke gerade in Richtung Turing und dem DLSS. Wäre ja auch eine Form der Skalierbarkeit welche da gemeint sein könnte, oder?

Godmode
2018-08-23, 08:39:32
Wissen wir mittlerweile eigentlich was das "Scalability" bei Navi bedeutet oder bedeuten könnte?
Ich denke gerade in Richtung Turing und dem DLSS. Wäre ja auch eine Form der Skalierbarkeit welche da gemeint sein könnte, oder?

Skalierbarkeit in diesem Zusammenhang verstehe ich, dass man aus einer Architektur kleine, mittlere und große Chips backen kann.

SKYNET
2018-08-23, 09:26:23
Skalierbarkeit in diesem Zusammenhang verstehe ich, dass man aus einer Architektur kleine, mittlere und große Chips backen kann.

denke AMD verfolgt bei der grafik ähnliches wie bei den CPUs... ein chip für alles. :smile:

HOT
2018-08-23, 09:52:04
https://videocardz.com/newz/nvidia-invites-press-for-gamescom

Ich poste das hier auch mal, da für Ende Juli hier auch ein AMD-Event angesprochen wird. Spekulation vom Autor: TR2, Mobile Ryzen, RX Vega 7nm. Vielleicht wird AMD ja vor dem Turing-Launch auf zukünftige Gaming-Karten zu sprechen kommen?

Ich sag doch der kommt auch in Consumer Markt :D. Die werden einfach 2 Stacks weglassen, 2,2GHz HBM verbauen und V10 aus dem Programm nehmen in Q3 2019.

iuno
2018-08-23, 10:27:47
Skalierbarkeit in diesem Zusammenhang verstehe ich, dass man aus einer Architektur kleine, mittlere und große Chips backen kann.

Das ist mit gcn sowieso der Fall. Wieso sollte man das extra herausstellen?

@HOT: wen interessiert Vega in Q3/19 wo es längst Navi gibt?

robbitop
2018-08-23, 10:31:38
denke AMD verfolgt bei der grafik ähnliches wie bei den CPUs... ein chip für alles. :smile:
Das ist leider so nicht so ganz so einfach wie bei CPUs. Anforderungen an Bandbreite und Latenz sind deutlich höher.
Auch steigt die Redundanz dann deutlich (IMC, alles vor dem Rasterizer, Videoengine etc).
Auch steigt der Energiebedarf durch die Kommunikation zwischen den Chips dann deutlich.

NV hat ja ein Patent dazu, welches in letzten Jahr veröffentlicht wurde. Ggf. kommt das auch irgendwann mal. Aber es hat schon auch erhebliche Nachteile.

Im Zusammenhang zu Navi ist IMO "scalability" eher die Skalierbarkeit der µArch gemeint.
Das ist mit der aktuellen Implementierung von GCN nicht so toll. Maximal sind 64 CUs möglich und auch wird die Granularität je mehr CUs vorhanden sind immer schlechter. Die kleinen GPUs sind pro Rohleistung deutlich schneller als die großen bei AMD. NV skaliert ganze Bereiche über GPCs. Sowas gibt es bei AMD in der Form nicht.

Ich gehe davon aus, dass soetwas ähnliches gemeint sein könnte.

iuno
2018-08-23, 10:54:24
Wo ist denn in GCN überhaupt das harte Limit für 64 CUs?
Vielleicht sind es auch eher max. 4 SE oder 16 CU/SE.
Und klar wäre es gut, wenn solche Limits (falls existent) angehoben würden, aber zunächst mal sollte man doch endlich die Effizienz deutlich steigern können. Das ist mit keiner GCN Iteration bisher gelungen. Eine 2080 Ti hat auch nur gute 4k Shader, aber dafür verbaut Nvidia bei den großen Chips halt 6 rasterizer und profitiert immer noch vom Maxwell-Sprung, den es so bei AMD halt nicht gab.

SKYNET
2018-08-23, 11:22:47
Das ist leider so nicht so ganz so einfach wie bei CPUs. Anforderungen an Bandbreite und Latenz sind deutlich höher.
Auch steigt die Redundanz dann deutlich (IMC, alles vor dem Rasterizer, Videoengine etc).
Auch steigt der Energiebedarf durch die Kommunikation zwischen den Chips dann deutlich.

NV hat ja ein Patent dazu, welches in letzten Jahr veröffentlicht wurde. Ggf. kommt das auch irgendwann mal. Aber es hat schon auch erhebliche Nachteile.

Im Zusammenhang zu Navi ist IMO "scalability" eher die Skalierbarkeit der µArch gemeint.
Das ist mit der aktuellen Implementierung von GCN nicht so toll. Maximal sind 64 CUs möglich und auch wird die Granularität je mehr CUs vorhanden sind immer schlechter. Die kleinen GPUs sind pro Rohleistung deutlich schneller als die großen bei AMD. NV skaliert ganze Bereiche über GPCs. Sowas gibt es bei AMD in der Form nicht.

Ich gehe davon aus, dass soetwas ähnliches gemeint sein könnte.


meinte das eher so: ein fetter chip wird produziert und jenachdem wie die ausfallrate ist werden damit dann von highend bis lowend alle bereiche abgedeckt... so spart man sich designkosten, treiber können perfekt angepasst werden, da nur noch "eine" GPU anstelle 2-3.... für den consumer wäre das sicherlich auch klasse, weil dann dürften sich die lowend teile sicherlich gut takten lassen und abgesehen von fehlenden shadern und speicher(bandbreite) ein anständiges leistungsplus bekommen... sowie damals der thames, die kleinen konnte man ohne problöeme auf niveau der grossen takten(mehr als +50%) :)

HOT
2018-08-23, 11:27:23
Das ist mit gcn sowieso der Fall. Wieso sollte man das extra herausstellen?

@HOT: wen interessiert Vega in Q3/19 wo es längst Navi gibt?

Der wird deutlich schneller als N10. N10 wird knapp auf V10-Niveau landen, V20 wird sicherlich >30% schneller sein. Mehr als 48CUs hat N10 sowieso nicht.

Das ist leider so nicht so ganz so einfach wie bei CPUs. Anforderungen an Bandbreite und Latenz sind deutlich höher.
Auch steigt die Redundanz dann deutlich (IMC, alles vor dem Rasterizer, Videoengine etc).
Auch steigt der Energiebedarf durch die Kommunikation zwischen den Chips dann deutlich.

NV hat ja ein Patent dazu, welches in letzten Jahr veröffentlicht wurde. Ggf. kommt das auch irgendwann mal. Aber es hat schon auch erhebliche Nachteile.

Im Zusammenhang zu Navi ist IMO "scalability" eher die Skalierbarkeit der µArch gemeint.
Das ist mit der aktuellen Implementierung von GCN nicht so toll. Maximal sind 64 CUs möglich und auch wird die Granularität je mehr CUs vorhanden sind immer schlechter. Die kleinen GPUs sind pro Rohleistung deutlich schneller als die großen bei AMD. NV skaliert ganze Bereiche über GPCs. Sowas gibt es bei AMD in der Form nicht.

Ich gehe davon aus, dass soetwas ähnliches gemeint sein könnte.

Das ist sicherlich richtig. N20 dürfte da sicherlich ein doppelter N10 werden, also 88-96CUs bringen. Dafür muss die Skalierbarkeit schwer überarbeitet werden. Das wird auch Navis Haupt"feature" sein, neben den aktivierten Primitive-Shadern. Mehr Innovation ist da sicherlich nicht zu erwarten.

iuno
2018-08-23, 13:33:33
Dann muesste N10 bei ~2 GHz liegen, was auch Vorteile ggue. Vega bringen sollte (weniger CUs pro Shader Engine). Es ergibt doch echt wenig Sinn, da ein halbes Jahr spaeter noch V20 nachzulegen.

dargo
2018-08-23, 18:29:52
Im Zusammenhang zu Navi ist IMO "scalability" eher die Skalierbarkeit der µArch gemeint.
Das ist mit der aktuellen Implementierung von GCN nicht so toll. Maximal sind 64 CUs möglich und auch wird die Granularität je mehr CUs vorhanden sind immer schlechter. Die kleinen GPUs sind pro Rohleistung deutlich schneller als die großen bei AMD. NV skaliert ganze Bereiche über GPCs. Sowas gibt es bei AMD in der Form nicht.

Warum sehe ich die Vorteile von Nvidia in den Spielebenchmarks nicht?

GP106 = 4,74 TFLOPs
GP102 = 11,63 TFLOPs (+145%)

Bei CB ist GP102 in 1440p 114% schneller als GP106.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

RX 580 = 6,36 TFLOPs
RX Vega 64 = 11,63 TFLOPs (+83%)

Bei CB ist Vega 65% schneller als RX580. Ich sehe hier bei der Skalierung der Hardware nach oben überhaupt keinen Unterschied zwischen Nvidia und AMD.

Edit:
Und wenn ich mir einzelne Games der jeweiligen Fraktion anschaue dann sehe ich weder bei AMD noch Nvidia große Probleme bei der Skalierung der Hardware nach oben. In Witcher 3 ist GP102 139% schneller als GP106, also recht nah am Vorteil der TFLOPs von 145%. Gleiches gilt für AMD in Battflefront 2 mit +78% gegenüber RX580 was auch sehr nah an den +83% durch die TFLOPs liegt. Die jeweilige Applikation + Treiberoptimierungen haben wie immer einen großen Einfluss darauf.

HOT
2018-08-23, 19:19:39
Ich seh das bei V10 so: Momentan läuft Vega bei den meisten Spielen so um 1,35-1,4GHz herum, dank schlechter Chipoptimierung, weil Lisa damals die Ingeneure für Zen abgezogen hat und man den Chip mit einer Rumpfmannschaft fertiggestellt hat. Da wär sicher mit guter Optimierung 1,6GHz drin gewesen bei gleicher TDP. V20 hingegen wird fertigentwickelt worden sein, die 7nm-Maske wird, aufgrund der Bedeutung des Chips für den Profimarkt, bis ins Letzte durchoptimiert worden sein. Von daher erwarte ich, dass die 7nm-Chips gegen 2 GHz tendieren, die neuen NCUs müssten diese Taktraten durchaus ermöglichen. Da aber die Zen-Prozessoren bevorzugt produziert werden, werden wir sowohl N10 als auch V20 für Consumer sicher nicht vor Mitte 2019 sehen, eher gegen Ende hin. Damit ergäbe sich dann folgendes Lineup:
P12/P21
P30 36CUs, bekannte Daten, 1,5-1,6GHz Takt, 12nm wie PinnacleRidge
N10 44NCUs, <200mm², 12GB 192Bit GDDR6, an die 2GHz Boost -> entspricht V10-Leistung.
V20 64NCUs, >350mm², 12GB 3072Bit HBM2, auch an die 2GHz Boost -> 40% über V10/N10

reaperrr
2018-08-23, 19:48:02
N10 44NCUs, <200mm², 12GB 192Bit GDDR6, an die 2GHz Boost -> entspricht V10-Leistung.
Bevor sie bei den Speicherpreisen 12GB verbauen, geben sie dem Chip eher 256bit und dann 8GB.
Außerdem wäre mit 192bit die Speicherbandbreite ziemlich knapp für die angepeilte Leistung.
48 CUs und 256bit sind definitiv wahrscheinlicher.

Und so hohe Taktraten werden wir mMn auch nicht sehen.
Für die Leistung von V64Air sollten schon mit 48 CUs und einigen uArch-Verbesserungen auch schon 1.65-1.7GHz reichen (Durchschnittstakt, Turbo kann natürlich trotzdem etwas höher liegen).

HOT
2018-08-23, 19:54:03
Das sind 7nm. Das sind alleine 40% mehr Power als 14/16nm. Das ist ein 1 1/2 Node sprung. Wenn die Polaris CUs schon in Richtung 1,5GHz gehen, gehen die auf Takt optimierten NCUs deutlich höher. V10 würd ich hier wirklich als Sonderfall sehen.

1,6GHz hat die LCE von V10. Na klar, dann schafft V20 nur 1,7GHz, also echt.

Nehmen wir die LCE als Basis, die hält größtenteils ihre 1,6GHz, darauf 40% Takt, wäre fast 2,3GHz. Ich denke mit 2GHz liegt man gut. Macht ca. 16-17TFLOPs dann für V20.

AMD wird zudem wieder den Speichervorteil brauchen, um zu verkaufen. Die 12GB halte ich für sehr wahrscheinlich.

Ravenhearth
2018-08-24, 00:49:45
Ich erwarte für Navi10 quasi einen Vega10 in 7nm mit neuen Funktionen und GDDR6. Also durchaus 64 CUs, weniger fände ich arg enttäuschend. Dazu eine Taktrate von <2 GHz (wie HOT schon schreibt) und Architekturverbesserungen. Der dürfte so schnell oder etwas schneller sein als Vega20, aber durch weniger Chipfläche (~250mm² ?) und GDDR6 deutlich billiger. Dazu kommen 8GB Speicher an 256 bit (16GB vlt optional).

Digidi
2018-08-24, 00:51:56
Naive ist doch gfx10? Also bekommt er NGG.

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

dargo
2018-08-24, 12:10:35
@Hot

Eine V10 LCE schafft locker 1,7+Ghz. Das Problem ist nur dann der sehr große Stromhunger.

robbitop
2018-08-24, 15:17:09
Ich hatte neulich gelesen, dass Navi 10 wohl knapp unter 200 sqmm hat. Das spricht eher gegen 64 cu.

Unicous
2018-08-24, 15:22:30
Ich hatte neulich gelesen, dass Navi 10 wohl knapp unter 200 sqmm hat. Das spricht eher gegen 64 cu.


Äääh was?:confused: Woher willst du diese "Info" denn haben.:freak:
Oder stöberst du bei WTF-Tech in der Kommentarspalte rum?

reaperrr
2018-08-24, 15:25:14
Äääh was?:confused: Woher willst du diese "Info" denn haben.:freak:
Oder stöberst du bei WTF-Tech in der Kommentarspalte rum?
Die Info wäre mir auch neu, ich weiß nur von "etwas kleiner als P10".

robbitop
2018-08-24, 17:39:10
Ich weiss es nicht mehr. Fudzilla vieleicht? Man liest jeden Tag so viel...

fondness
2018-08-24, 18:28:04
PCGH hat AFAIK behauptet irgendwo aufgeschnappt zu haben knapp unter Polaris10 Die-Size @ 7nm, dazu grob Vega10 Performace. Das erreicht man auch mit 3072 SPs und ~1,8Ghz Takt, noch leichter wenn die IPC auch steigt.

iuno
2018-08-24, 18:30:39
Das steht auch noch so in deren "Roadmap", aber natuerlich ohne Quellenangabe.

Leonidas
2018-08-25, 15:10:37
Äääh was?:confused: Woher willst du diese "Info" denn haben.:freak:
Oder stöberst du bei WTF-Tech in der Kommentarspalte rum?


So was liest man einfach hier nach:
https://www.3dcenter.org/news/amd-navi

Und dabei findet man:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1617-juni-2018

Unicous
2018-08-25, 15:27:20
Das ist eine völlig nichtsaussagende Bemerkung seitens PCGH, die von keiner anderen Quelle bestätigt wurde. Warum ausgerechnet PCGH diesen scoop landet und niemand sonst diese Informationen herauskitzeln konnte ist "bemerkenswert".

Zudem steht da "etwas kleiner". Etwas kleiner kann auch 230mm² sein.:rolleyes:
Von etwas kleiner auf knapp unter 200mm² sind es immerhin mindestens "33mm²".

Ich jedenfalls habe das unter stille Post Hörensagen abgeheftet. Zumal gar nicht klar ist, ob es nur einen Chip geben wird.

fondness
2018-08-25, 16:19:15
Ich würde sogar eher sagen es ist ziemlich klar, dass es mehr als einen Chip geben wird. Und ein Navi11 muss in AMDs neuer Nomenklatur nicht zwangsläufig kleiner sein als ein Navi10.

AffenJack
2018-08-25, 17:01:28
Das ist eine völlig nichtsaussagende Bemerkung seitens PCGH, die von keiner anderen Quelle bestätigt wurde. Warum ausgerechnet PCGH diesen scoop landet und niemand sonst diese Informationen herauskitzeln konnte ist "bemerkenswert".

Noch bemerkenswerter ist das, wenn man bedenkt, dass AMD im Mai noch auf Folien gezeigt hat, dass Navi noch nicht mal Tapeout hatte. PCGH muss die Daten praktisch direkt von AMD oder TSMC bekommen haben, bevor es überhaupt Silizium gab.

Oder das wahrscheinlichere, schlicht Blödsinn und nix anderes.

aufkrawall
2018-08-25, 17:09:42
Das wäre schon echt eine mutwillige Ramponierung von so etwas wie Glaubwürdigkeit, falls man die mal gehabt haben sollte. Muss man aber wohl echt annehmen...

Unicous
2018-08-25, 17:25:19
Mark Mantel hat schon öfter sehr gut recherchierte Artikel veröffentlicht, von daher habe ich keine Bedenken, dass dieser scoop völlig glaubwürdig ist und nicht auf eigenen Mutmaßungen basiert.:wink::wink:

AffenJack
2018-08-25, 17:32:37
Das wäre schon echt eine mutwillige Ramponierung von so etwas wie Glaubwürdigkeit, falls man die mal gehabt haben sollte. Muss man aber wohl echt annehmen...

Es gibt genug Leute bei den Boardpartnern die vll ihre 5min Fame wollen, indem sie einfach mal etwas behaupten. Siehe die Infos zur 1180/1160 die es für Nvidia gab. Da will wer sich eben etwas aufspielen und tut so als wenn er wissen hätte. Magazine sollten das dann nur auch mit der gehörigen Skepsis betrachten.

Tru
2018-08-27, 11:22:42
Aloha! Die Größenangabe konnte man auf der Computex an der einen oder anderen Ecke vernehmen.

Stand ursprünglich hier: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-monolithisches-GPU-Design-MCM-1258744/

Edit: Und zumindest was an denselben Ecken zu Navi mit HBM2 gesagt wurde, fand man später auch an anderer Stelle: http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-Polaris-30-12-nm-High-End-Navi-HBM2-1259912/

Unicous
2018-08-27, 11:35:30
Und du hinterfragst nicht wie Außenstehende die Größe eines Chips erfahren haben wollen der zu dieser Zeit wahrscheinlich nicht einmal seinen tapeout hatte oder maximal in der bring up phase ist? Niemand weiß irgendwas über Navi aber auf der Computex gibt es für PCGH exklusiv den ultimativen scoop? Jeder Mensch kann einen educated guess machen, das gleich darzustellen als wäre es in der Industrie schon bekannt aber niemand redet darüber außer mit den guten Kumpels von diesem einen deutschen Hardware Magazin halte ich persönlich wenig plausibel.

Tru
2018-08-27, 11:42:39
Es hat seinen Grund, warum das in einem Nebensatz von einer News eingeflossen ist, wo es eigentlich um eine dritte Quelle (pcgamesn.com) geht, und nicht zum Beispiel in der News steht, wo es um um die Gerüchte rund um den CFL-S-Achtkerner, Turing, etc. ging. Dazu der gute alte Konjunktiv in Form von "soll".

Edit again: Ah, okay. Es geht um die Roadmap. Da sollte es tatsächlich nicht stehen ...

HOT
2018-08-28, 17:03:17
Also ich bin skeptisch, ob Navi nach dem GloFo-7nm-Aus überhaupt noch in 2019 kommt. Ich vermute, dass AMD die gesamte Serie auf 7 EUV verschoben hat, um mehr Packdichte und bessere Yields für die doch recht großen Chips zu erreichen. Wenn ich jetzt wild aus dem Bauch heraus spekulieren müsste, würde ich folgendes Lineup für bis 2020 erraten:

P12
V12 (20 CUs 12nm Vega Mobile und P11-Ersatz)
V11 (gecancelt wegen HBM), stattdessen
P30 (36 CUs, 12nm Polaris10)
12nm V10 (Name noch unbekannt)
V20 (7nm mit deutlich mehr Takt)

Erinnert ein wenig an 2014/15.

Linmoum
2018-08-28, 18:09:21
Was soll sonst neben Zen2 (Rome) und V20 bereits Tape-Out bei TSMC gehabt haben wenn nicht Navi?

nairune
2018-08-28, 18:30:08
"Multiple" können auch nur 2 sein. Das lassen sie völlig offen. Wird schon interessant wie sie das lösen und was priorisiert wird (sofern nötig).

w0mbat
2018-08-28, 18:30:44
Ein weiterer Polaris-Refresh macht mMn keinen Sinn. Ich denke wir werden die kleine Navi eher sehen als so mancher denkt.

Käsetoast
2018-08-28, 18:40:48
Ich finde ein 12nm Polaris Refresh mit ein paar CUs mehr hätte schon Sinn gemacht - das wäre in meinen Augen ein guter Lückenfüller gewesen und man hätte sich da gut von der 1060 distanzieren können, wo ja fraglich ist ob da in absehbarer Zeit irgendwas neues von NVIDIA in dem Segment kommen wird. Die 580er bietet dem 1060 zwar auch jetzt schon ganz gut Paroli als Gesamtpaket, aber ein 12nm Update hätte in dem Preissegment sicher einen klaren Sieg herausfahren können und zumindest ein richtig gut bedientes Segment hätte man AMD gönnen können. Dieser Polaris Refresh hätte aber dieses Jahr kommen müssen und da es da keine Ankündigung gab glaube ich auch nicht, dass da noch was kommt. 2019 braucht man mit 12nm nicht mehr kommen - da steht 7nm direkt vor der Tür und so groß wäre so ein Polaris nicht, dass er nicht dieses Jahr schon hätte produziert und an den Markt gebracht werden können - gerade im Anbetracht von NVIDIAs riesigen Turing Chips...

Was Navi angeht sehe ich aber nichts in Gefahr. Das ist DAS Baby von AMDs Grafiksparte auf dem der gesamte Fokus liegt - da wird das Global Foundries Abnippeln keinen Einfluss drauf haben und mit einem 7nm Vega kann man noch ein wenig die Computing Sparte befeuern, denn auf dem Gebiet war Vega ja stets ziemlich gut. Für Gamer müsste man da GDDR reinpacken und extra für Vega den Speichercontroller neu machen war wohl zu viel Aufwand, weswegen da ja wohl viel gecancelt wurde was ggf. für Gamer auf Vega Basis noch hätte kommen können...

Linmoum
2018-08-28, 18:49:26
"Multiple" können auch nur 2 sein. Das lassen sie völlig offen. Wird schon interessant wie sie das lösen und was priorisiert wird (sofern nötig).
We have already taped out multiple 7nm products at TSMC, including our first 7nm GPU planned to launch later this year and our first 7nm server CPU that we plan to launch in 2019.
Eigentlich ziemlich eindeutig, wenn man den gesamten Kontext betrachtet. Da meint man nicht nur Zen2 (Rome) und V20 mit bisherigen Tape-Outs.

Insofern für mich recht wahrscheinlich, dass Navi (10, 20, whatever) ebenfalls schon Tape-Out hatte.

HOT
2018-08-28, 20:40:04
Ein weiterer Polaris-Refresh macht mMn keinen Sinn. Ich denke wir werden die kleine Navi eher sehen als so mancher denkt.
Den gibts ja nur deshalb, weil V11 einfach blödsinn war. HBM in dem Marktsegment ist halt nicht praktikabel. Sonst hätte das Lineup ja wie folgt ausgesehen:

P12
V12
V11
V10
V20

Da V11 aber wegfällt brauchts halt weiterhin Polaris.

Also ist das neue Lineup:

P12
V12
P30
V10/V10 Refresh/N10 (je nachdem ob es N10 jetzt gibt oder nicht in 2019)
V20

Linmoum
Und es könnte ja, wenn die Gerüchte stimmen, auch die RR-Shrink-APU mit dabei sein.

SKYNET
2018-08-29, 02:29:55
zitat igor

AMD kolportierte ja was mit RT, Treiber und Dezember. Sollte Navi (oder was auch immer) in 7nm kommen, dazu ein passender Treiber, der ein paar Shader fürs RT und ein paar für die AI abstellt - dann könnte bei der schieren Rechenpower der AMD-Karten sogar eine kleine Überraschung im Raum stehen.

Ravenhearth
2018-08-29, 08:04:39
Dezember klingt eher nach Vega20

Linmoum
2018-08-29, 08:21:24
Zu Vega gab es damals auch im Dezember erste Informationen, könnte also auch zu Navi passen.

Sunrise
2018-08-29, 08:41:32
Ein weiterer Polaris-Refresh macht mMn keinen Sinn. Ich denke wir werden die kleine Navi eher sehen als so mancher denkt.
Navi wäre wohl bereits fertig (laut AMD hatte man ja 2H2017 im Plan), nur gibt es eine Prio auf Zen 2 (Epyc) und Vega 7nm, die alle von TSMC kommen müssen und Navi hat diesbzgl. wenig Chancen, da viel zuwenig Kapazität bei TSMC. Da Navi ja eher für den Preis Sweet-Spot anvisiert ist, und die Yields sicher auch noch nicht die besten sind, hat man sich für die höherpreisigen und margenträchtigen Segmente entschieden.

Will sagen: Das genaue Gegenteil ist der Fall. AMD wird erst schauen, dass obere Prioritäten reibungslos veröffentlicht werden können und Navi sehe ich eher später als früher, das wird wohl einigen nicht gefallen. Das gefällt AMD am Wenigsten...

NV hat leider eine ganze Zeit lang jetzt freie Hand, es ist nicht schön aber nicht zu ändern.

HOT
2018-08-29, 09:40:46
Zusätzliche Einheiten sind sehr sicher Vega 20. V20 mit RT, das wär ein Coup. In 14nm wär das Teil übrigens auch >700mm². Bei N10 vergisst man RT besser schnell wieder, das wird sicher nicht passieren. N20 ist da jedoch ne andere Kiste.

Menace
2018-08-29, 09:44:51
Aber haben diese umfunktionierte Shade nicht einen massiven Nachteil gegenüber extra dafür angelegte Cores? :confused:

Vielleicht kann ich ja bei meiner Vega noch 1-2 nachträglich dazuschalten (nicht dass ich damit in spielbare Regionen gelangen würde). :smile:

Dural
2018-08-29, 10:10:10
Zusatz Einheiten sind sicher bei V20? Ja bestimmt, nicht.
Da wurde das Si verdoppelt und vielleicht noch ein bisschen am Chip optimiert, sonst wird das das selbe wie V10 sein. Mehr ist in rund 1 Jahr auch gar nicht möglich.

AMD macht genau das was ich ja eh schon vorher gesagt habe, die stempeln etwas Alu Leistung für RT ab und gut ist, also eine reine Software Lösung. Das wird bis min. 2020 dauern bis AMD RT Einheiten im Chip drin hat, beim Navi würde mich das extrem überraschen.

mboeller
2018-08-29, 10:19:40
Navi hat sich ja angeblich verspätet weil Sony noch zusätzliche Sachen/Features für die PS5 haben wollte. Mal sehen ob das nur AI war oder RT oder ganz was anderes.

Bambuslooter
2018-08-29, 10:24:00
Microsoft hätte AMD zwecks Konsole schon in die Richtung von RT schubsen müssen, aber daran glaube ich nicht unbedingt. Trotz DXR.
Erwarte auch noch kein Navi mit RT, vielleicht aber sowas wie Tensor Kerne.

Spannend bleibt auch, ob eine 2060 kommt.
Wenn ja würde die Polaris alt aussehen bis Navi den ersetzt.
Scheint aber nicht einzutreten der Fall.

Dural
2018-08-29, 10:28:43
Wie stellt ihr euch das nur vor? Ich glaube kaum das man bei einer GPU Architektur einfach mal so RT Einheiten dran "kleben" kann ;) Entweder wurde schon relativ früh (vor 3-4 Jahren) entschieden das Navi das haben soll, oder Navi wird ohne kommen.

Der_Korken
2018-08-29, 10:30:45
Navi wird bestimmt keine dedizierte HW für RT haben bzw. bei weitem nicht in dem Ausmaß wie Turing. Nvidia hat soviel Vorsprung und Kapital, dass die sich einen Flop bei RT locker erlauben könnten. AMD hat erstmal ganz andere Baustellen in der Architektur (Skalierung der Leistung mit zusätzlichen CUs, Bandbreiteneffizienz, Stromhunger). Wenn die behoben sind, kommt RT mit der zweiten 7nm-Gen.

Edit: Wie verhalten sich eigentlich die ominösen Primitive Shader zu RT? Komplett was anderes oder sind das Entwicklungen in eine ähnliche Richtung?

w0mbat
2018-08-29, 10:43:42
Zusatz Einheiten sind sicher bei V20? Ja bestimmt, nicht.

AMD hat schon bestätigt, dass V20 zusätzliche Einheiten haben wird.

dargo
2018-08-29, 10:54:36
AMD hat erstmal ganz andere Baustellen in der Architektur (Skalierung der Leistung mit zusätzlichen CUs, Bandbreiteneffizienz, Stromhunger). Wenn die behoben sind, kommt RT mit der zweiten 7nm-Gen.

Lustig wie sich Mythen wieder in den Köpfen einzelner User einbrennen. :tongue:

Zusatz Einheiten sind sicher bei V20? Ja bestimmt, nicht.
Da wurde das Si verdoppelt und vielleicht noch ein bisschen am Chip optimiert, sonst wird das das selbe wie V10 sein. Mehr ist in rund 1 Jahr auch gar nicht möglich.

Wenn die von CB spekulierten (https://www.computerbase.de/2018-06/vega-20-instinct-7nm/) 350mm² stimmen wären das 72% von V10 mit 7nm. Ich kann mir kaum vorstellen, dass das zusätzliche SI alleine soviel Platz in Anspruch nimmt.

https://cdn01.hardwareluxx.de/razuna/assets/1/0FD112D6C8694DD893BF544D6C7254CF/img/ABF5ADFC94194D8E88019D77D6D8FC44/OC_Burner_Dieshot_09_ABF5ADFC94194D8E88019D77D6D8FC44.jpg

Der_Korken
2018-08-29, 11:20:59
Lustig wie sich Mythen wieder in den Köpfen einzelner User einbrennen. :tongue:

Als Mythos würde ich das nicht bezeichnen, es ist nur so, dass kaum einer getestet hat, wie weit man bei Vega (und im Vergleich dazu bei Pascal) mit der Bandbreite runtergehen kann, ohne dass das zu stark bei der Leistung reinhaut. Die 1080 hat z.B. 320GB/s, was bei deiner V64 625Mhz HBM-Takt entspräche. Hattest du den auf deinen Vergleichs-Screenshots so weit runtergezogen (finde den Post leider nicht mehr, im Turing-Thread sind seitdem ca. 200 Seiten dazugekommen ...)? Die 1070Ti hält sich mit nur 256GB/s z.B. auch ganz gut. Im Verhältnis zur Leistung hat AMD seit zwei Gens immer mehr Bandbreite als Nvidia verbaut und bei Polaris war das auch keine Überversorgung. Wenn das bei Vega anders ist, umso besser, dann sollte AMD bei Bestückung nur besser auf die Gewinnmarge achten.

dargo
2018-08-29, 11:33:33
Als Mythos würde ich das nicht bezeichnen...
Ich schon, denn ich teste das hier selbst im Gegensatz zu dir. ;) Zum x-ten Male... Vega fehlt es nicht an Bandbreite und auch weniger als 484GB/s (bsw. 400GB/s) wären nicht dramatisch. Der Vergleich zur 1080 mit 320GB/s hinkt genauso. In den Spielen in denen V10 vergleichbar mit GP104 performt liegts nicht nur an der Bandbreite.

iuno
2018-08-29, 11:33:38
Lustig wie sich Mythen wieder in den Köpfen einzelner User einbrennen. :tongue:
Welcher Mythos?
Wie nennst du das, wenn nicht "ineffizient"? Beispielsweise haben V10 und GP102 den selben Durchsatz, die NV faehrt einige TFLOPS mehr und ist auch in aller Regel in Spielen deutlich schneller. GP104 hat nur 2/3 davon und ist trotzdem gleichauf. Auch P10 braucht 1/3 mehr Durchsatz als GP106.
Und dass V20 doppelt so schnell wird wie V10 glaub wohl auch keiner. Insofern eliminiert man den Flaschenhals einfach durch die Verdoppelung.

AMD hat schon bestätigt, dass V20 zusätzliche Einheiten haben wird.
Wo? Ich weiss nur von zusaetzlichen instructions.

Wie stellt ihr euch das nur vor? Ich glaube kaum das man bei einer GPU Architektur einfach mal so RT Einheiten dran "kleben" kann ;) Entweder wurde schon relativ früh (vor 3-4 Jahren) entschieden das Navi das haben soll, oder Navi wird ohne kommen.

Sicher braucht es seine Zeit. Zum Vergleich: ImgTec hat Caustic im Dezember 2010 gekauft und im Fruehjahr 2014 war die Wizard GPU mit ein paar Demos fertig, also nach gut drei Jahren. Aber warum sollte man ausschliessen, dass AMD das vor einigen Jahren schon eingeplant hat?

Dural
2018-08-29, 11:34:53
Wenn Vega 20 genügend Bandbreit hätte, würde man das Si nicht verdoppeln :rolleyes:
Aber Dargo lebt so wie so in einer Wunschwelt, ich weis ja schon was als nächstes kommt...


AMD hat schon bestätigt, dass V20 zusätzliche Einheiten haben wird.

Und wo war das? Und überhaupt AMD sagt viel wenn der Tag lang ist.

w0mbat
2018-08-29, 11:37:03
Wo? Ich weiss nur von zusaetzlichen instructions.

Oh weh, ich hab ganz sicher mal einen Artikel gelesen, vielleicht sogar ein Interview, wo das thematisiert wurde. Ich schau mal ob ich was finde.

Dural
2018-08-29, 11:40:21
Sicher braucht es seine Zeit. Zum Vergleich: ImgTec hat Caustic im Dezember 2010 gekauft und im Fruehjahr 2014 war die Wizard GPU mit ein paar Demos fertig, also nach gut drei Jahren. Aber warum sollte man ausschliessen, dass AMD das vor einigen Jahren schon eingeplant hat?

Weil von AMD mehrfach bestätigt wurde das Navi eine Mainstream GPU ist, in solchen GPUs baut man in der regel nicht solche sachen ein, da geht es um mm2 und um kosten.

Selbst NV wird wohl keinen TU106 bringen, jedenfalls sieht man von der GPU weit und breit nichts.

dargo
2018-08-29, 11:43:35
Welcher Mythos?
Wie nennst du das, wenn nicht "ineffizient"? Beispielsweise haben V10 und GP102 den selben Durchsatz, die NV faehrt einige TFLOPS mehr und ist auch in aller Regel in Spielen deutlich schneller.
Ich schaue mir an was passiert wenn ich die Bandbreite bei Vega reduziere. Dass GP102 in der Regel bei den Games "deutlich" schneller ist ist hauptsächlich den Applikationen + Treiberoptimierungen geschuldet! Ich könnte dich genau so fragen warum GP102 in Battlefront 2 oder Wolfenstein 2 in den Testszenen von CB seinen Bandbreiteneffizienzvorteil nicht ausspielen kann?
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

Dawn of War 3 kannst du eigentlich auch dazu nehmen. Hier kannst du auch die Custom Vega von Asus als Vergleich nehmen, die Bandbreite ist zur Referenz identisch.

Auch P10 braucht 1/3 mehr Durchsatz als GP106.

Ist genau so Unsinn. P10 hat 33% mehr Bandbreite, ob er sie überall braucht weißt du gar nicht! Ansonsten erkläre mir mal warum in Strange Brigade und der Testszene der PCGH P20 Salvage gleiche Performance in 1440p liefert wie GP106 6GB?
http://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/

P20 Salvage hat in dem Fall 17% mehr Bandbreite. Bei den TFLOPs heißt es für die RX570 5,41 TFLOPs, für die GTX1060 4,93 TFLOPs.

Edit:
Kannst ja Raff fragen ob er die RX570 nochmal mit 192GB/s durch den Benchmark durchjagt. Mich würde es nicht wundern wenn die Karte da nur 1-3% verliert. Es ist Humbug pauschal zu glauben Polaris würde überall 1/3 mehr Bandbreite brauchen. AMD hat sich nun mal bei Polaris für 4GB und 8GB entschieden, Nvidia für 3GB und 6GB. Daraus ergeben sich weitere Sachen wie SI/Bandbreite automatisch.

Der_Korken
2018-08-29, 11:46:26
V20 wird wohl kaum deswegen doppelte Bandbreite bekommen, weil der sonst in Games zu langsam wär :rolleyes:. Der Chip ist für Compute gedacht und das braucht sowohl Bandbreite als auch max. Speicherausbau. Siehe P100 und V100.

Dural
2018-08-29, 11:46:55
GP102 ist auch nicht das Gegenstück von Vega, sondern der GP104! Und Fakt ist das der für die selbe Leistung deutlich weniger Bandbreite zur Verfügung hat. :rolleyes:

Schon seit über einem Jahrzehnte benötigt AMD mehr Bandbreite als NV, die Karten haben auch immer durch die Bank mehr Bandbreite als das NV Gegenstück, Herrgott meinst du die machen das zum Spass?!? :rolleyes::rolleyes::rolleyes:

Und richtig, Vega20 ist kein Gaming Chip, auch dies wurde von AMD schon bestätigt. Ich vermute er ist schlicht viel zu teuer in der Herstellung.

Menace
2018-08-29, 12:01:38
V20 wird wohl kaum deswegen doppelte Bandbreite bekommen, weil der sonst in Games zu langsam wär :rolleyes:. Der Chip ist für Compute gedacht und das braucht sowohl Bandbreite als auch max. Speicherausbau. Siehe P100 und V100.

Könnte aber nicht gerade das "Compute Zeugs" was zum Beispiel Vega ja über die Leistung einer 1080Ti in OpenCl bringt nicht gerade ein Vorteil für AI und RT sein? Inkl. der bisher nicht zu nutzenden Bandbreite?

Achill
2018-08-29, 12:25:44
Habe mal mit Valley getestet mit 1080p, Ultra und 8xMSAA:
- 1650/1050 Mhz => 92.1 fps avg. => +110% Bandbreite aber nur +37% fps mehr
- 1650/950 Mhz => 87.5 fps avg. => +90% Bandbreite aber nur +30% fps mehr
- 1650/800 Mhz => 82.5 fps avg. => +60% Bandbreite aber nur +22% fps mehr
- 1650/500 Mhz => 67.4 fps avg. => Basis

1080p, Ultra aber ohne 8xMSAA:
- 1650/1050 Mhz => 151.0 fps avg. => +110% Bandbreite aber nur +9% fps mehr
- 1650/950 Mhz => 151.7 fps avg. => +90% Bandbreite aber nur +9% fps mehr
- 1650/800 Mhz => 150.1 fps avg. => +60% Bandbreite aber nur +8% fps mehr
- 1650/500 Mhz => 138.8 fps avg. => Basis

Das passt auch gut zu meinen Gedächtnis, dass Vegas Compression Algo. nicht bei (SS?) MSAA funktioniert.

Es kann noch sein, dass Valley kein guter Bench ist, es wird auch nur ~1,5GB VRAM verwendet. Evtl. teste ich die Ergebnisse heute Abend mit den FC5 Bench gegen - dieser war fordernder bzgl. VRAM wenn ich es noch recht in Erinnerung habe ...

dargo
2018-08-29, 13:11:27
Habe mal mit Valley getestet mit 1080p, Ultra und 8xMSAA:
- 1650/1050 Mhz => 92.1 fps avg. => +110% Bandbreite aber nur +37% fps mehr
- 1650/950 Mhz => 87.5 fps avg. => +90% Bandbreite aber nur +30% fps mehr
- 1650/800 Mhz => 82.5 fps avg. => +60% Bandbreite aber nur +22% fps mehr
- 1650/500 Mhz => 67.4 fps avg. => Basis

1080p, Ultra aber ohne 8xMSAA:
- 1650/1050 Mhz => 151.0 fps avg. => +110% Bandbreite aber nur +9% fps mehr
- 1650/950 Mhz => 151.7 fps avg. => +90% Bandbreite aber nur +9% fps mehr
- 1650/800 Mhz => 150.1 fps avg. => +60% Bandbreite aber nur +8% fps mehr
- 1650/500 Mhz => 138.8 fps avg. => Basis

Das sind eigentlich die einzig interessanten Ergebnisse. Hier gibts nur zwei Sachen die man beachten sollte. Erstens... eine Lukü Vega wird niemals 1650Mhz im GPU-Limit sehen. Da kannst du locker 200-250Mhz abziehen, ergo bringt die Bandbreite noch weniger Vorteil. Zweitens... MSAA ist tot. Einzige Ausnahme Forward(+).

Wenn Vega 20 genügend Bandbreit hätte, würde man das Si nicht verdoppeln :rolleyes:
Aber Dargo lebt so wie so in einer Wunschwelt, ich weis ja schon was als nächstes kommt...

Ich brauche da auf deinen Bullshit gar nicht reagieren, hat schon mboeller getan.

mboeller
2018-08-29, 13:15:46
Wenn Vega 20 genügend Bandbreit hätte, würde man das Si nicht verdoppeln :rolleyes:
.

32GB!

Flusher
2018-08-29, 13:30:39
Bei den Preisen die NVIDIA aktuell aufruft, könnte eine Vega20 Karte sicher auch profitabel im Gaming Sektor verkauft werden - vorausgesetzt sie kann sich mit irgendwas aus dem Turing-Lineup anlegen. Da man von AMD aber nichts bezüglich Vega20 hört, scheint das wohl nicht der Fall zu sein.

Leonidas
2018-08-29, 13:51:40
Ich finde ein 12nm Polaris Refresh mit ein paar CUs mehr hätte schon Sinn gemacht



... würde aus heutiger Sicht um so mehr Sinn machen, so lange GloFo die Kapazitäten hätte. Hat GloFo aber wohl nicht.

Menace
2018-08-29, 13:53:32
Bei den Preisen die NVIDIA aktuell aufruft, könnte eine Vega20 Karte sicher auch profitabel im Gaming Sektor verkauft werden - vorausgesetzt sie kann sich mit irgendwas aus dem Turing-Lineup anlegen. Da man von AMD aber nichts bezüglich Vega20 hört, scheint das wohl nicht der Fall zu sein.

Ich denke, dass sie vielleicht einfach eine Karte rausbringen, die vielleicht mit einer 2070 konkurriert, was RT angeht? Einfach um zu sagen, wir können das auch? Habe aber auch daran massive Zweifel.

Dural
2018-08-29, 14:10:20
Ich brauche da auf deinen Bullshit gar nicht reagieren, hat schon mboeller getan.

Das sagt gerade der, der ständig irgendwelche Fantasie Werte in den Raum wirft und es für sich so dreht wie man es haben möchte.

Und mir war von Anfang an klar dass du mit der Speicher Menge daher kommst, wie von mir schon angedeutet. :rolleyes:
Wenn es nur um die Menge gehen würde, könnte man das auch anders lösen :rolleyes: Gerade in dem Einsatzzweck den AMD für V20 vorsieht ist Bandbreite sehr wichtig, wenn nicht sogar das wichtigste. Aber natürlich auch die Menge.


Die Werte von Achill sagen alles aus, erst recht wenn man dagegen eine 1080 stellt :rolleyes:

HOT
2018-08-29, 14:32:41
... würde aus heutiger Sicht um so mehr Sinn machen, so lange GloFo die Kapazitäten hätte. Hat GloFo aber wohl nicht.
Das liegt nicht an GloFo. AMD verschwendet doch keine Arbeit mehr für ne 14nm Maske.
Die nehmen einfach das 2015er Design, machen einen Metalspin und produzieren das Teil in 12nm, genau wie bei Pinnacle. Dann sind da 1,6GHz drin, packt man noch 9 Gbps GDDR5 dran und fertig ist P30. Ich wette das machen die auch noch mit Vega. Ein V10 in 12 mit etwas Optimierung packt die 2070 mit Sicherheit. Dann hätte man noch die Option mit V20 über der 2080 rauszukommen und evtl. sogar noch RT mitzubringen, dann ist eine Consumervariante auch dort nicht mehr so unwahrscheinlich. Bei den Preisen? Das lohnt doch.

dargo
2018-08-29, 14:56:37
Wenn es nur um die Menge gehen würde, könnte man das auch anders lösen :rolleyes: Gerade in dem Einsatzzweck den AMD für V20 vorsieht ist Bandbreite sehr wichtig, wenn nicht sogar das wichtigste.
Merkst du eigentlich was du selber schreibst?
Wenn Vega 20 genügend Bandbreit hätte, würde man das Si nicht verdoppeln :rolleyes:



Die Werte von Achill sagen alles aus, erst recht wenn man dagegen eine 1080 stellt :rolleyes:
Was sagen die denn aus? Sie bestätigen genau das was ich sagte! Oder wie deutest du eine nahezu Halbierung der Bandbreite (500Mhz @256GB/s vs. 950Mhz @487GB/s) mit dem Resultat von -8,5% Leistung ohne MSAA? Eine 1080 hat übrigens 320GB/s.

PS: für einen Vergleich wäre FC5 wie von Achill angedeutet eh besser geeignet als so ein alter Schinken wie der Valley Benchmark.

vinacis_vivids
2018-08-29, 15:12:01
Die Werte von Achill sagen alles aus, erst recht wenn man dagegen eine 1080 stellt :rolleyes:

Nvidia lebt von der verlustbehafteten Kompression, hohen GPU-CLK und geringere Cache-Latenz während AMD sauber komprimiert, von der Shaderbreite und AC profitiert.

Nvidias Kompression bzw. Bandbreiteneinsparung kommt in LL-API zu Erliegen, weil dort mem-allocation nicht mehr vom Treiber bestimmt wird (hier nutzt NV die CPU in allen HL-API), sondern vom WDDM. Auswirkungen sind genügend dokumentiert.

https://abload.de/img/gtx1060htsjd.png

Das Beispiel von Achill mit Uniengine Valley ist auch unpassend gewählt, weil das Ding keine Shaderbreite bei AMD ausnutzen kann aufgrund der API-Limitierung und der geringen Auflösung von 1080p. Hier wäre Infiltrator-Demo@UHD mit unterschiedlichen API (DX11 vs Vulkan) aussagekräftiger.

Leonidas
2018-08-29, 15:25:21
Die nehmen einfach das 2015er Design, machen einen Metalspin und produzieren das Teil in 12nm, genau wie bei Pinnacle. Dann sind da 1,6GHz drin, packt man noch 9 Gbps GDDR5 dran und fertig ist P30. Ich wette das machen die auch noch mit Vega. Ein V10 in 12 mit etwas Optimierung packt die 2070 mit Sicherheit. Dann hätte man noch die Option mit V20 über der 2080 rauszukommen und evtl. sogar noch RT mitzubringen, dann ist eine Consumervariante auch dort nicht mehr so unwahrscheinlich. Bei den Preisen? Das lohnt doch.



Klar ist das einfach zu machen und würde Sinn bringen. Aber GloFo ist doch jetzt schon am Limit mit der Auslastung. Mehr könnte man nur machen, wenn man entlastet würde - über Zen 2 in 7nm bei TSMC. Dann (im Jahr 2019) wäre es aber für 12nm Polaris dann doch zu spät.

Complicated
2018-08-29, 15:55:04
Zen 2 wird doch sowieso bei TSMC gefertigt von Anfang an. AMD hat kein 7nm Produkt bei GF mit tapeout. Von welcher Entlastung sprichst du bitte? Die bisher für 7nm geplanten Linien werden ja irgendetwas produzieren.

SKYNET
2018-08-29, 16:05:41
Klar ist das einfach zu machen und würde Sinn bringen. Aber GloFo ist doch jetzt schon am Limit mit der Auslastung. Mehr könnte man nur machen, wenn man entlastet würde - über Zen 2 in 7nm bei TSMC. Dann (im Jahr 2019) wäre es aber für 12nm Polaris dann doch zu spät.

goflo hat die kapazitäten sicher, da ja sämtliche 7nm geschichten komplett gestrichen wurden, werden nun kapazitäten in 12nm frei... aber die frage ist, ob AMD überhaupt nochmal nen polaris refresh bringen will, das ding pfeifft jetzt schon aus dem letzten loch. evtl. nen aufgebohrte vega in 12nm, 30% mehr takt bei gleichem strombedarf(dann spielt man in der 1080 Ti liga), das könnte evtl. die polaris komplett ablösen und navi nimmt den platz von vega ein. :confused:

Unicous
2018-08-29, 16:16:44
Es gab keine Kapazitäten für 7nm (edit: ergo auch keine zusätzlichen für 14/12nm). Steht auch ungefähr so in dem AT-Artikel:

Besides, the foundry’s leading-edge Fab 8, which has been processing wafers using exclusively 14LPP process technology for well over 1.5 years now, is running at full capacity.

Gary Patton admits that GlobalFoundries never planned to be a leading producer of 7-nm chips in terms of volume. Furthermore, the company has been seeing increasing adoption of its 14LPP/12LP technologies by designers of various emerging devices, keeping Fab 8 busy and leaving fewer step-and-scan systems for 7LP products.

GF platzt durch AMDs Erfolg durch Ryzen wahrscheinlich schon aus allen Nähten, die Wafer die da in 7nm vom Band gefallen wären hätte man an den Fingern abzählen können, weil GF im laufenden Betrieb auf 7nm hätte umbauen müssen.

Genau deswegen fand ich es auch so absurd und amüsant, dass hier ein gewisser User, der komischerweise momentan MIA ist, darauf gepocht hat GF würde 7nm so gut wie alleine stemmen, weil das WSA es so 'diktieren' würde.:freak:

Savay
2018-08-29, 16:19:34
Ungünstig ist es für den Markt trotzdem wenn nur so wenige 2nd Source Kapazitäten für 7nm da sind.

Samsung hat ja auch nicht sooo viel Volumen afair...oder?!

Th3o
2018-08-29, 16:24:53
Für AMD sind Epyc und Vega in 7nm am wichtigsten, alles andere muss sich hinten anstellen. Und so schlecht ist der Ryzen 2xxx ja nicht, dass er sofort abgelöst werden müsste.

Achill
2018-08-29, 16:26:15
So, noch FC5 mit 1440p@Ultra-Preset:
- 1650/1050 Mhz => 82/93/114 fps => +110% Bandbreite aber nur +29% fps mehr bei avg
- 1650/950 Mhz => 79/90/109 fps => +90% Bandbreite aber nur +25% fps mehr bei avg
- 1650/800 Mhz => 76/86/104 fps => +60% Bandbreite aber nur +19% fps mehr bei avg
- 1650/500 Mhz => 64/72/87 fps => Basis

Falls es jemand braucht, habe von FC5 und davor Unity Valley Screenshot gemacht, ansonsten ein YT-Vid für FC5 und 1650/500Mhz (https://www.youtube.com/watch?v=fRA6fZ60L0Y) ...

--
Edit: Was wir auch nicht wissen, ob der HBM2 wie früher Timing-Strips hat oder ab durch die Erhöhung des Takts auch die Timings schärfer werden. Das kann man leider nicht Unterscheiden ob es jetzt Bandbreite ist oder ggf. einfach nur die Timings.

Unicous
2018-08-29, 16:36:24
@Savay

7nm Volumen hat Samsung im Moment ca.: 0.:freak:

Du musst aber auch sehen, dass Samsung den Großteil der Fab-Kapazitäten für sich selbst nutzt. Aber ja, wenn man von Auftragsfertigung spricht, dann hat Samsung einen Anteil um die 8%. TSMC hat de facto das Quasi-Monopol inne mit knapp 56% Marktanteil. GF lag/liegt bei 9%.

Aber: Samsung hat vor ordentlich zu investieren bzw. tut das schon. Spannend wird es bei den "Chinesen". Wenn da ordentlich Geld von staatlicher Seite reingepumpt wird könnte man hier Konkurrenz aufbauen. Da TSMC alleine schon 10 Milliarden im Jahr investiert liegt dieses Szenario aber noch in weiter (östlicher:freak:) Ferne.

mironicus
2018-08-29, 17:41:23
7 nm gibt es zuerst natürlich nur bei Apple. Die neuen A12-CPUs sollen in 7nm gefertigt werden. Und wie ich AMD kenne gibt es die ersten 7 nm-GPUs bestimmt auch erst mal exklusiv für Apple.

Hübie
2018-08-29, 17:51:27
Navi hat sich ja angeblich verspätet weil Sony noch zusätzliche Sachen/Features für die PS5 haben wollte. Mal sehen ob das nur AI war oder RT oder ganz was anderes.

Ich drücke es meal so aus: Microsoft selbst entscheidet nicht allein was in die DirectX API integriert wird. Im Umkehrschluß macht Microsoft auch keine Extrawurst für Jensen. ;) Aber es ist noch viel zu früh.

@Achill: MSAA braucht mehr von AMDs Power in den ROPs, nicht nur Bandbreite des Framebuffers. Was v_v da wieder zusammen reimt ist natürlich Humbug, Hokuspokus und Halbschwachsinn (sorry wenn ich das so direkt sagen muss). Er mischt wahrscheinlich wild DCC mit ASTC/DXTC/S3TC u. ä. Texturkompressionsverfahren. ;D

Kriton
2018-08-29, 19:17:52
Und wo war das? Und überhaupt AMD sagt viel wenn der Tag lang ist.

Weil von AMD mehrfach bestätigt wurde das Navi eine Mainstream GPU ist, in solchen GPUs baut man in der regel nicht solche sachen ein, da geht es um mm2 und um kosten.

In zwei gleich aufeinander folgenden Posts. Hauptsache gegen AMD, die Argumentation muss ja nicht konsistent sein.

Complicated
2018-08-29, 20:08:29
Weil von AMD mehrfach bestätigt wurde das Navi eine Mainstream GPU ist, in solchen GPUs baut man in der regel nicht solche sachen ein, da geht es um mm2 und um kosten.

So hat es AMD mit der R9 285 aber auch gemacht. Der Tonga-Chip war Mittelklasse aber ein großer Schritt in der Architektur.
https://www.tomshw.de/2014/09/02/amd-radeon-r9-285-tonga-gpu/all/1/

Neben vielen weiteren Unterschieden schlägt sich diese Abstammung vor allem in der deutlich höheren Anzahl an Asynchronous Compute Engines (ACE) nieder: Hier kommen ganze acht zum Einsatz, die Radeon-Modelle R9 280 und R9 280X können lediglich auf zwei zurückgreifen. Laut eigenen Angaben von AMD führt dies zu einer zwei bis vier Mal so hohen Tesselation-Leistung und wirkt sich gerade in jenen Bereichen förderlich aus, deren Ablauf durch Auslagerung der Rechenvorgänge auf die GPU beschleunigt werden kann.

Nvidias RT-Technologie benötigt ja ebenfalls asynchrone Rechenleistung der zusätzlichen Einheiten, was AMD schon deutlich länger verbaut hat. (Man erinnere sich an die Post-Prosessing Verbesserungen die gezeigt wurden (https://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading))

Hier weitere neue Einheiten mit rechnen zu lassen dürfte nicht so kompliziert sein bei AMDs Architektur.

Locuza
2018-08-29, 20:26:54
Urgh, was für ein Mist da geschrieben wurde.
"ACEs" kümmern sich um Compute-Queues und haben mit Tessellation selber gar nichts zu tun.

Und die Anzahl der "ACEs" stellt auch nichts Besonderes dar.
Selbst der kleine Kabini GCN Gen 2 Soc mit ~100mm² hatte eine MEC (Micro Engine Compute) sprich 4 ACEs.
Kaveri hatte dann auch zwei davon bzw. 8 ACEs, daneben auch Hawaii.


Bezüglich möglicher RT-Logik bei Navi würde ich mich iuno anschließen, es kommt darauf an ob es von Anfang an geplant hat und AMD als sinnig erachtet hat.
Schrecklich viel die-space verbraucht es schließlich nicht.

Complicated
2018-08-29, 20:50:42
In den ersten Berichten wurde viel Murks zu ACE geschrieben, doch das ist ja nebensächlich.
Es ging mir nur darum, dass neue/mehr Einheiten in Mittelklasse-GPUs durchaus mal vorkommen können. Daher muss man das für Navi nicht mit der Begründung ausschließen so was hätte es noch nie gegeben. Und Tonga hatte nicht mal einen Shrink als erster GCN3 Chip.

Locuza
2018-08-29, 20:53:46
Allgemein, ja, allerdings stellt Tonga nun wahrlich nichts Besonderes in diesem Bezug dar.

Hübie
2018-08-29, 21:01:18
Bezüglich möglicher RT-Logik bei Navi würde ich mich iuno anschließen, es kommt darauf an ob es von Anfang an geplant hat und AMD als sinnig erachtet hat.
Schrecklich viel die-space verbraucht es schließlich nicht.

Plus die Frage ob die IP dem Vendor "gehört". Der Algorithmus dürfte ja ziemlich bekannt sein, wenn ich mich nicht irre, aber dieser ASIC muss offenbar noch etwas mehr leisten, als nur die Rays (Vektoren) berechnen. Zugriff auf Register und Caches (Kohärenz? Protokoll? Und eben auch eine dedizierte Ansprechbarkeit über das Frontend, aber ich hab viel zu wenig Ahnung, um mir im Entferntesten vorzustellen wie das abläuft).

basix
2018-08-29, 21:01:59
Maxwell z.B. kam mit der 750Ti ;)

AI wird in Navi drin sein. RT wäre cool, vor allem im Hinblick auf NextGen Konsolen

Complicated
2018-08-29, 21:02:32
Erste GCN 3 GPU würde ich jetzt auch nicht als unwichtig bezeichnen.

Edit: 750 Ti ist ebenso ein gutes Beispiel.

Locuza
2018-08-29, 22:06:26
Plus die Frage ob die IP dem Vendor "gehört". Der Algorithmus dürfte ja ziemlich bekannt sein, wenn ich mich nicht irre, aber dieser ASIC muss offenbar noch etwas mehr leisten, als nur die Rays (Vektoren) berechnen. Zugriff auf Register und Caches (Kohärenz? Protokoll? Und eben auch eine dedizierte Ansprechbarkeit über das Frontend, aber ich hab viel zu wenig Ahnung, um mir im Entferntesten vorzustellen wie das abläuft).
Sowie ein angeblich ehemaliger Ex-Nvidia-Mitarbeiter es beschrieben hat, gibt es extra RT-Logik bei den SMs welche gewisse Berechnungen übernehmen und auch in das Register-File schreiben und worauf dann jeder Konsument davon Zugriff hat.
The RT core essentially adds a dedicated pipeline (ASIC) to the SM to calculate the ray and triangle intersection. It can access the BVH and configure some L0 buffers to reduce the delay of BVH and triangle data access. The request is made by SM. The instruction is issued, and the result is returned to the SM's local register. The interleaved instruction and other arithmetic or memory io instructions can be concurrent. Because it is an ASIC-specific circuit logic, performance/mm2 can be increased by an order of magnitude compared to the use of shader code for intersection calculation. Although I have left the NV, I was involved in the design of the Turing architecture. I was responsible for variable rate coloring. I am excited to see the release now.
https://www.reddit.com/r/nvidia/comments/97qogl/former_nvidia_gpu_architect_what_is_rt_core_in/

Es gibt auch ein Forschungspaper von einer Texas Universität, welche sich über dedizierte RT-Logik bei GCN Gedanken gemacht hat, ebenso als eine Erweiterung der Compute-Units.
Ich habe es nicht einmal richtig überflogen, aber es führt schon mehrere Dinge aus, möglicherweise beantwortet es ein paar deiner Fragen.

https://abload.de/img/raytracinghtfjr.png
https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf

Erste GCN 3 GPU würde ich jetzt auch nicht als unwichtig bezeichnen.

Edit: 750 Ti ist ebenso ein gutes Beispiel.
Es folgt allgemein keiner festen Regeln, nur das neuere Chips neuere Features besitzen oder anders balanciert sind.
Bonaire war z.B. eine eher Low bis Mittelklasse GPU zwischen Cape Verde und Pitcairn, der erste GCN Gen 2 dGPU Chip.
Dann gab es wie gesagt Kabini mit noch einmal einer anderen MEC/ACE-Struktur, es folgte irgendwann am Ende Hawaii als High-End GCN2 Chip und zum Schluss Kaveri.
Laut IP-Version war Topaz/Iceland der erste GCN Gen 3 Ableger, jedenfalls in Bezug auf die interne Entwicklung.
http://extreme.pcgameshardware.de/attachments/996720d1525692503-intels-hades-canyon-mit-kaby-lake-g-im-test-gaming-pc-buchgroesse-amd-graphic-ip-v8.jpg

Das war eine super low-end GPU ohne eigenen Display-Controller oder Video-Decoder.
Zudem gab es es dann Tonga, Fiji und Carrizo, als GCN Gen 3 Chips.
Wirklich ein Flickenteppich was die Update-Routine und das Performance-Segment angeht.

Sunrise
2018-08-29, 22:50:03
Wenn Vega 20 genügend Bandbreit hätte, würde man das Si nicht verdoppeln :rolleyes:
Als Nachfolger von Hawaii (der hat schon seit einigen Jahren 32GB) braucht man soviel VRAM wie man bekommen kann. Dass man im HPC auch deutlich mehr Bandbreite gerne mitnimmt spricht aber nicht unbedingt dafür, dass man diese übermäßige Bandbreite für Spiele benötigt. NV ist trotz alledem leider deutlich effizienter im Umgang damit, ob V20 daran irgendwas ändert will ich auch mal bezweifeln, dass erwarte ich erst mit Navi.

w0mbat
2018-08-29, 23:09:17
40nm RV740 war auch ein Test mit nem kleinen Chip.

Der_Korken
2018-08-30, 09:07:21
Habe mal mit Valley getestet mit 1080p, Ultra und 8xMSAA:
- 1650/1050 Mhz => 92.1 fps avg. => +110% Bandbreite aber nur +37% fps mehr
- 1650/950 Mhz => 87.5 fps avg. => +90% Bandbreite aber nur +30% fps mehr
- 1650/800 Mhz => 82.5 fps avg. => +60% Bandbreite aber nur +22% fps mehr
- 1650/500 Mhz => 67.4 fps avg. => Basis

1080p, Ultra aber ohne 8xMSAA:
- 1650/1050 Mhz => 151.0 fps avg. => +110% Bandbreite aber nur +9% fps mehr
- 1650/950 Mhz => 151.7 fps avg. => +90% Bandbreite aber nur +9% fps mehr
- 1650/800 Mhz => 150.1 fps avg. => +60% Bandbreite aber nur +8% fps mehr
- 1650/500 Mhz => 138.8 fps avg. => Basis
So, noch FC5 mit 1440p@Ultra-Preset:
- 1650/1050 Mhz => 82/93/114 fps => +110% Bandbreite aber nur +29% fps mehr bei avg
- 1650/950 Mhz => 79/90/109 fps => +90% Bandbreite aber nur +25% fps mehr bei avg
- 1650/800 Mhz => 76/86/104 fps => +60% Bandbreite aber nur +19% fps mehr bei avg
- 1650/500 Mhz => 64/72/87 fps => Basis

Danke für die Tests :up:. Insgesamt ist der Effekt des Speichertaktes gar nicht so groß, wie ich dachte. Ich finde es allerdings interessant, dass bei FC5 auch bei hohem Takt immer noch Zugewinne durch den HBM-Takt entstehen. Von 500 auf 800 skaliert die Leistung schon relativ mau, als ob 800 schon mehr als genug wären. Allerdings gibts ja selbst von 950 auf 1050 noch messbare Zugewinne. Könnte also wirklich was mit den Latenzen zu tun haben, wie du sagtest.

basix
2018-08-30, 12:30:35
Es gibt auch ein Forschungspaper von einer Texas Universität, welche sich über dedizierte RT-Logik bei GCN Gedanken gemacht hat, ebenso als eine Erweiterung der Compute-Units.
Ich habe es nicht einmal richtig überflogen, aber es führt schon mehrere Dinge aus, möglicherweise beantwortet es ein paar deiner Fragen.
https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf

Sehr interessantes Paper. Das hier...
With this example platform we have a peak throughput of
176 billion traversal steps per second. Keeping in mind that
on GPUs all vector instructions consume FPU issue slots,
the traversal units provide the equivalent of 4.4 TFLOPs additional
performance, yet occupy only 4-8% of current ALU die area.

...kombiniert mit dem hier...
...40 steps/ray...
...gibt schon eine gute Referenzgrösse. Ergäbe 4.4 GigaRay/s auf einer hypothetischen RT-modifizierten R9 290X verglichen mit 10 GigaRay/s einer RTX 2080 Ti. Und 4-8% ALU Die Fläche ist jetzt auch nicht wirklich viel, auf den gesamten Chip gesehen definitiv <5%. Das könnte für Navi und Konsolen im speziellen schon was werden :D

Lustigerweise stimmen sehr viele Daten von Turing 1zu1 mit den Daten aus dem Paper überein (z.B. 1 GigaRay/s = 1 TFLOPs). Auch dass bei Turing der L1$ und L2$ grösser werden wird hier als Vorteil genannt, da massiv vom Caching Nutzen gemacht wird. Da das Paper von 2014 ist, wer weiss ;)

For the example platform these considerations limit the
largest practical BVH to 5M nodes. Beyond this performance
is expected to fall off. The limitation is on the BVH,
not the polygon count, but the two are closely related. We expect
scenes above 10-20M polygons to result in trees which
are too large for our hardware to handle well. Raising this
limit requires growing the size of the caches to support larger
treelets, or growing the scratchpads and register file to support more treelets.

Dino-Fossil
2018-08-30, 14:08:31
Vorrausgesetzt das würde funktioniren, hätte ein hypothetischer "RT-enabled Navi" (bei angeblicher Leistung auf Niveau eines V10-Chips) dann auch ungefähr die RT-Performance einer 2080Ti.
Ob das für brauchbare Anwendungen ausreicht sei mal dahingestellt, die heutigen Hardware-Nachrichten lesen sich diesbezüglich etwas ernüchternd.
Andererseits ist die Technik dazu noch recht am Anfang, es könnte sich also zeigen, dass man in der Größenordnung durchaus mehr hinbekommt als bisher absehbar ist.

Der Vorteil für AMD in dem Fall wäre allerdings die relativ geringe Chipfläche, die dafür gestellt werden müsste.
Warten wir mal ab, ob sowas kommt, oder ob es bei der theoretischen Betrachtung bleibt.

HOT
2018-08-31, 02:30:48
RT Navi, wenn ich einen Quatsch lese. Das ist ein Mainsteamchip, der bekommt garantiert kein RT, so ein Unsinn.

mboeller
2018-08-31, 06:58:20
RT Navi, wenn ich einen Quatsch lese. Das ist ein Mainsteamchip, der bekommt garantiert kein RT, so ein Unsinn.

Das ist eine Konsolen GPU, die bekommt was Sony angeschafft hat

HOT
2018-08-31, 07:13:35
Das ist eine Konsolen GPU, die bekommt was Sony angeschafft hat

Definitiv also kein rt

Locuza
2018-08-31, 07:39:53
Das ist eine Konsolen GPU, die bekommt was Sony angeschafft hat
Was unterscheidet eine Konsolen-GPU von einer Desktop-GPU?

Hübie
2018-08-31, 07:51:36
Schaut man sich die IP der PS4P GPU an, scheint es eben dass man hier deutlich agiler Features implementiert.
@HOT: Für den Desktop würde ich es ebenfalls nicht erwarten. Aber deine Art dies mitzuteilen lässt doch stark zu wünschen übrig, denn wissen tust du es nicht. :rolleyes: Wenn die NG Consoles es implementiert haben stehst du... leicht dumm dar mit deiner jetzigen Aussage.
Quatsch ist es also nicht und Indizien wurden gebracht. Es gibt übrigens nicht nur Sony die sagen was sie haben wollen. ;)

HOT
2018-08-31, 08:04:46
Die haben kein RT, wie soll das gehen? Und meine Art ist diesbezüglich genau richtig, weil das einfach BS ist. Wenn ein Chip RT bekommt, dass V20 oder N20 als Profivariante, aber doch nicht N10 und auch nichts für die Konsolen, so ein Quatsch...

Locuza
2018-08-31, 08:15:50
Nehmen wir mal die RT-Logik kostet den Chip weniger als 5% Gesamtfläche, wieso sollte man es nicht einbauen, vor allem da jetzt auch standardisierte APIs für diesen Einsatzbereich kommen?
Aus meiner Sicht hat es primär mit der zeitlichen Entwicklung zu tun und ob AMD schon etwas fertig hat.

Skysnake
2018-08-31, 09:51:29
Die haben kein RT, wie soll das gehen? Und meine Art ist diesbezüglich genau richtig, weil das einfach BS ist. Wenn ein Chip RT bekommt, dass V20 oder N20 als Profivariante, aber doch nicht N10 und auch nichts für die Konsolen, so ein Quatsch...
Ja totaler quatsch was du da erzählst. Da gebe ich dir vollkommen recht.

Konsolen hips haben auch in der Vergangenheit schon Besonderes gebracht. Es ist halt ein geschlossenenes System. Ich sage nur mal Cell etc

dargo
2018-08-31, 10:06:07
Was unterscheidet eine Konsolen-GPU von einer Desktop-GPU?
Budget, was unmittelbar mit Die-Size zusammen hängt.

iuno
2018-08-31, 10:13:02
Die Frage ist was die paar mm^2 noch Wert sind wenn die Konkurrenz RT hat und man selbst nicht.

Ich denke mal bei MS ist das sowieso ein Thema, das die fuer sich beanspruchen werden, weil die bei Konsolen hinterherhinken und ihre unified Plattform pushen wollen. Da kommt doch DXR gerade recht. Und Sony wird die Fuehrung nicht abgeben wollen. In den Kreisen ist das sicherlich auch seit Jahren ein Thema.

dargo
2018-08-31, 10:15:01
Nehmen wir mal die RT-Logik kostet den Chip weniger als 5% Gesamtfläche, wieso sollte man es nicht einbauen, vor allem da jetzt auch standardisierte APIs für diesen Einsatzbereich kommen?

Wie kommst du überhaupt auf weniger als 5% Fläche? Es wurde afaik schon bei Turing spekuliert, dass RT + TC ca. 200+mm² in 12nm verbraten. TC wird sicherlich kein Konsolenchip haben. Aber worüber soll man Denoising realisieren? Über Compute? Da habe ich noch meine Zweifel ob das performant genug ist. Bisher hat kein Entwickler auf Konsole irgendwelche Features verwendet die in der Rendertime extrem teuer sind. Warum sollte das jetzt bei RT anders sein? Wenn schon ein Monster mit Tensor Cores @GTX 2080TI für RT zu langsam ist wie soll das bei einem kommenden Konsolenchip der stark auf Budget X ausgelegt ist performant genug sein?

iuno
2018-08-31, 10:19:07
Battlefield V macht das zumindest. Wenn TAA benutzt wird wird eh auch schon ganz automatisch entrauscht. In den anderen Threads wurde darueber gesprochen, auch ueber die Flaeche.

AffenJack
2018-08-31, 10:25:04
Die Frage ist was die paar mm^2 noch Wert sind wenn die Konkurrenz RT hat und man selbst nicht.

Ich denke mal bei MS ist das sowieso ein Thema, das die fuer sich beanspruchen werden, weil die bei Konsolen hinterherhinken und ihre unified Plattform pushen wollen. Da kommt doch DXR gerade recht. Und Sony wird die Fuehrung nicht abgeben wollen. In den Kreisen ist das sicherlich auch seit Jahren ein Thema.

Ich geh auch von aus, dass wir bei MS RT sehen werden. Die werden das mit DXR definitiv pushen wollen. Es ist eben auch alles eine Frage der Zeit. Sony könnte vielleicht schon 2019 launchen, da könnte das vielleicht zu früh sein, wenn man nicht daran gedacht hat. MS 1 Jahr später könnte dann den 7nm EUV Vorteil haben und das einfach in RT investieren.

Screemer
2018-08-31, 10:55:11
In den anderen Threads wurde darueber gesprochen, auch ueber die Flaeche.
das war hier im thread und man muss nur eine seite zurück blättern.

Wie kommst du überhaupt auf weniger als 5% Fläche?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11786085&postcount=873

zum denoising muss man sagen, dass das nur ein anwendungsfall für die tensorkerne gut geeignet sind. in dxr ist denoising nicht für spezielle hardware spezifiziert, sondern denoising soll wohl hardwareagnostisch über computeshader laufen. bf5 nutzt z.b. wohl keine tensorkerne fürs denoising. sollte also ootb auch auf entsprechender amd hw laufen.

Käsetoast
2018-08-31, 11:03:17
Ich glaube an kein RT im nennenswerten Stil in den jetzt anstehenden Versionen. Klar wird man die Compute Fähigkeiten auch für RT Berechnungen einsetzen können aber wir wissen ja jetzt, dass wir die Leistung einer 2080 Ti brauchen um in 1080p gute Frameraten zu kriegen. Das ist auch mit 7nm für eine Konsole außerhalb jeglicher Möglichkeit. Die müssen das ganze Gerät für den Bruchteil vom Preis einer 2080 Ti verkaufen...

Die Konsolen werden vor allem endlich mal den CPU Teil aufbohren mit vernünftigen Zen Kernen anstatt da weiterhin so einen Minimalkurs wie mit Jaguar zu fahren. Was Navi angeht erwarte ich hier im Wesentlichen ein "Vega done right". Heißt also was auch immer das mit den Primitive Shadern sollte wird als Konzept nun mal zu Potte gebracht und Dinge wie das bessere Clipping / Binning wird vernünftig umgesetzt nachdem das bei Vega nur halbgar wirkte. Ansonsten halt die Effizienz verbessern um die vorhandene Rohleistung auch auf die Straße zu bringen. Ganz eventuell werden wir noch sowas wie die Tensor Cores bei Nvidia sehen. Ernsthafte Ansätze in Richtung RT sehe dann erst danach im richtigen Next Gen Chip. Navi wird für die Konsolen versuchen soviel Rasterizing Leistung wie möglich aus einer moderaten Chipgröße zu pressen ggf mit sowas wie Tensor Cores um den Entwicklern gewisse Spielereien zu erlauben wie irgendwelche AI Geschichten...

dargo
2018-08-31, 11:03:30
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11786085&postcount=873

Zu viel Speku für meinen Geschmack.


zum denoising muss man sagen, dass das nur ein anwendungsfall für die tensorkerne gut geeignet sind. in dxr ist denoising nicht für spezielle hardware spezifiziert, sondern denoising soll wohl hardwareagnostisch über computeshader laufen. bf5 nutzt z.b. wohl keine tensorkerne fürs denoising. sollte also ootb auch auf entsprechender amd hw laufen.
Klar läuft es, nur eben viel zu langsam. Weckt mich wenn RT mit Denoising Rasterization nicht mehr ausbremst. :cool:

Screemer
2018-08-31, 11:19:51
Klar läuft es, nur eben viel zu langsam. Weckt mich wenn RT mit Denoising Rasterization nicht mehr ausbremst. :cool:
ob das denoising jetzt nennenswerte teile der renderzeit ausmacht, kann ich mir nicht vorstellen. egal ob über tensorkerne oder per compute. wie iuno schon angemerkt hat muss sowieso bei temporalen filtern entrauscht werden. natürlich kann ich da auch völlig daneben liegen.

Zu viel Speku für meinen Geschmack.

aber das turing 30% der fläche für rt- und tensorkerne verbrät ist nicht zu viel speku? wenn ich nach dem paper gehe, dass auf der letzten seite verlinkt wurde, dann schätze ich sogar nvidia hat gar keine dedizierten rt-kerne. das ganze ist an die sms angeflanscht und der großteil der fläche geht für größere caches drauf.

Locuza
2018-08-31, 11:41:51
Budget, was unmittelbar mit Die-Size zusammen hängt.
Wie kommst du überhaupt auf weniger als 5% Fläche? Es wurde afaik schon bei Turing spekuliert, dass RT + TC ca. 200+mm² in 12nm verbraten. TC wird sicherlich kein Konsolenchip haben. Aber worüber soll man Denoising realisieren? Über Compute? Da habe ich noch meine Zweifel ob das performant genug ist. Bisher hat kein Entwickler auf Konsole irgendwelche Features verwendet die in der Rendertime extrem teuer sind. Warum sollte das jetzt bei RT anders sein? Wenn schon ein Monster mit Tensor Cores @GTX 2080TI für RT zu langsam ist wie soll das bei einem kommenden Konsolenchip der stark auf Budget X ausgelegt ist performant genug sein?
Bezogen auf den Kontext geht es mir um das Feature-Set.
Der GPU-Part war bisher wenig anders zwischen Desktop- und Konsolenchips, was natürlich keine feste Regel darstellt, aber wenn AMD z.B. seit einiger Zeit von Raytracing APIs weiß und für Navi spezielle Anpassungen dafür entworfen hat, dann werden es die Konsolenchips wahrscheinlich nicht entfernen.
Wenn AMD nichts geplant hat und es keinen entsprechenden Kundenwunsch gab, dann wird es logischerweise keine spezielle RT-HW geben.

---

Die Spekulation bezüglich des Flächenverbrauchs von RT + TC war extrem schwach ausgeführt und hat effektiv den ganzen Flächenunterschied zwischen Pascal und Turing darauf zurückgeführt, dabei besitzt Turing viel größere Caches, möglicherweise doppelt soviele Register pro Shader-Core und muss in weitere Dinge investieren.
Der Flächenzusatz welcher von RT und TC kommt ist wesentlich kleiner.
Und eins muss man sich ins Gedächtnis rufen, TCs rechnen mit geringer Präzision, für Multiplier skaliert die Komplexität quadratisch, entsprechend spart man schon massiv Fläche ein wenn man nicht mit FP32 rechnen muss und INT fällt noch günstiger aus.
Man kann mit geringer Präzision relativ einfach extrem hohe Rechenleistung generieren, für relativ wenig Fläche.
Vega20 verfügt über zusätzliche Instruktionen für Machine Learning und entsprechende Anwendungsgebiete, welche Navi ebenso bieten könnte.

Wie gesagt, ich sehe hier eher die Komponente Zeit als Limit, als andere Faktoren wie Flächenverbrauch.
Allgemein scheint solch Featureset die Zukunft unter GPUs darzustellen, dabei stellt sich auch nicht unbedingt die Frage, ob man damit schon etwas Gescheites unter Mittelklasse-GPUs anfangen kann, es ist dann einfach dabei.

Thunder99
2018-08-31, 11:51:07
Hat AMD überhaupt das Budget in Richtung RT Implementierung zu forschen inklusive Denoising? Hab da so meine Zweifel... . Schön wäre es für uns Spieler.

dildo4u
2018-08-31, 12:00:25
Sie forschen an Hybrid Renderer und DXR ist ein Bestandteil von Direct X.
Es ist nicht Vergleichbar mit Hairworks PhysX etc.
Support kommt könnte aber langsam sein um Transistoren zu sparen wie bei Tesselation.


ZQcvi35eVko

Locuza
2018-08-31, 12:08:58
Hat AMD überhaupt das Budget in Richtung RT Implementierung zu forschen inklusive Denoising? Hab da so meine Zweifel... . Schön wäre es für uns Spieler.
Falls AMD den Markt den sie gerade ansprechen nicht noch weiter verlieren möchte, sind sie gezwungen sich dort anzustrengen.
Laut Lisa Su investiert man aktuell mehr R&D in den Software-Stack in Bezug auf Machine Learning.
Und AMD muss auch nicht jeglichen Algorithmus selber bereitstellen, aber die Basis für (bessere) Umsetzungen bieten.

Im professionellen Bereich ist Ray Tracing für die Content-Erstellung in mehreren Bereichen Gang und Gäbe, AMD entwickelt auch einen eigenen RadeonPro-Renderer mit Radeon-Rays.
Und Turing+ wird indem Marktfeld alles abholzen, wenn AMDs Hardware da nicht ebenfalls massiv zulegen möchte.

Thunder99
2018-08-31, 12:10:35
Okay danke. Hört sich gut an :)

basix
2018-08-31, 12:36:05
Zu viel Speku für meinen Geschmack.

Zu viel Speku in einem Speku-Thread :freak: Ausserdem sind die Zahlen von 4-8% ALU Fläche für RT-Zusatz von Leuten, die sich intensiv mit der Materie auseinandergesetzt haben. So weit daneben werden die nicht liegen.

Ich sehe das wie Locuza: Technisch könnte es machbar sein (vielleicht wird N10 uns da ja überraschen) und AMD bietet selbst ja schon jetzt Lösungen in Richtung RT etc. an. Es ist eher der zeitliche Aspekt entscheidend: Ist es für den Konsolen-Chip ready oder nicht, ist es in 7nm für Konsolen sinnvoll machbar oder nicht?

Und noch zu AI-Beschleunigung: Es ist sehr gut möglich wenn nicht sogar wahrscheinlich, dass Navi das bieten wird. Siehe hier (ja ist wccftech...habe gerade nichts besseres gefunden) https://wccftech.com/amds-navi-7nm-gpus-feature-ai-acceleration-hardware/

HOT
2018-08-31, 12:53:01
Ja totaler quatsch was du da erzählst. Da gebe ich dir vollkommen recht.

Konsolen hips haben auch in der Vergangenheit schon Besonderes gebracht. Es ist halt ein geschlossenenes System. Ich sage nur mal Cell etc
Da kann man auch an den Weihnachtsmann glauben, ehrlich. Das ist total illusorisch. Wenn NV jetzt RT macht und MS ne Schnittstelle dafür bereit stellt hat das noch lange nix mit Sony zu tun, die ja in der Navi-Entwicklung offenbar federführend waren, und erst recht nicht, dass AMD RT auf absehbare Zeit macht, das ist bodenloser Unsinn. Wenn die Konsolenhardware von NV kommen würde könnte man darüber nachdenken, aber so? Quatsch.

Es gibt ein massives CPU-Upgrade und Primitive Shader und natürlich deutlich mehr CUs, das wars an der Hardwarefront im großen und ganzen - damit sind die 300-350mm² voll - zzgl. 384Bit GDDR6 natürlich. Wer da RT erwartet macht sich ernsthaft was vor.

vinacis_vivids
2018-08-31, 12:59:09
Navi wird kein RT unterstützen, das wäre totaler Quatsch. Fokus liegt auf LL-API, niedriger Preis und Verbreitung für die Masse (in Console und Mainstream-Gamer).

Kriton
2018-08-31, 13:18:07
Ja, weil die Konsolen-APIs bisher ja bisher so massiv abstrahiert haben...:rolleyes:

|MatMan|
2018-08-31, 15:08:30
Die Spekulation bezüglich des Flächenverbrauchs von RT + TC war extrem schwach ausgeführt und hat effektiv den ganzen Flächenunterschied zwischen Pascal und Turing darauf zurückgeführt, dabei besitzt Turing viel größere Caches, möglicherweise doppelt soviele Register pro Shader-Core und muss in weitere Dinge investieren.
Der Flächenzusatz welcher von RT und TC kommt ist wesentlich kleiner.

Ich denke man kann das nicht getrennt betrachten. Die Datenstrukturen für RT müssen in die Caches passen. Auch kann bei Nvidia wohl normale Arithemrik parallel zur RT-Berechnung weiterlaufen (hab die Folie dazu Grad nicht zur Hand), was auch noch Platz im Cache braucht. Daher kann man IMO davon ausgehen, dass die größeren Caches für performantes RT zwingend gebraucht werden. Die Fläche dafür ist sicherlich nicht unerheblich, hilft aber natürlich auch abseits von RT.

Hübie
2018-08-31, 15:21:01
Die haben kein RT, wie soll das gehen? Und meine Art ist diesbezüglich genau richtig, weil das einfach BS ist. Wenn ein Chip RT bekommt, dass V20 oder N20 als Profivariante, aber doch nicht N10 und auch nichts für die Konsolen, so ein Quatsch...

Ich erinnere dich gerne in zwei Jahren noch einmal daran, wer Quatsch redet. Dass du mit deinen Voraussagen ständig daneben liegst bzw. diese ständig änderst ist ja nichts Neues. Neu ist dagegen deine Diskussionskultur. Du kannst uns gerne erklären, warum das ausgemachter Quatsch ist.

Budget, was unmittelbar mit Die-Size zusammen hängt.

Aus dem Paper:


Finally we add 4 traversal units (TU) to each core. Each
unit is accompanied by a small register file holding just
enough rays to hide cache hit latency. The 4 units in a
core share a small node cache.


With this example platform we have a peak throughput of
176 billion traversal steps per second. Keeping in mind that
on GPUs all vector instructions consume FPU issue slots,
the traversal units provide the equivalent of 4.4 TFLOPs ad-
ditional performance, yet occupy only 4-8% of current ALU
die area.

Also wenn es 4-8% der ALUs ausmacht sind 5% des gesamten Die space schon ziemlich exakt an der Realität. :wink:

@Locuza: Übrigens dir noch ein fettes Danke für die Ausführung und das Paper. :up:

Locuza
2018-08-31, 15:51:38
Teile vom Paper hat basix ausgeführt, ich habe es nur verlinkt, aber mittlerweile auch selber durchgelesen. :redface:
Ein bisschen muss man bei den Vergleichen natürlich aufpassen.
Das Paper nennt z.B. Limitierungen bei der möglichen Anzahl an Rays wegen der Cache-Größen und auch wird die Ray Intersection von den Shader-Cores berechnet und nicht durch spezifische Hardware, wie bei Turing.
Je nach Implementierung wird sich die Performance und natürlich auch der Flächenverbrauch ändern.

SKYNET
2018-08-31, 16:24:08
werfe mal wildes spekulatius in die runde: navi mit zusatzchip kann RT?

Der_Korken
2018-08-31, 16:32:53
werfe mal wildes spekulatius in die runde: navi mit zusatzchip kann RT?

Ergibt keinen Sinn. Der Chip wäre viel zu "weit" weg von den restlichen GPU-Komponenten und könnte die ganzen Caches und normalen ALUs nicht vernünftig mitnutzen. Das muss schon alles tief in die bestehende Architektur eingebaut werden.

basix
2018-08-31, 16:39:26
Hätte ich so wohl auch gesagt. RT profitiert so wie es aussieht sehr stark von Caches. Da man die in der GPU schon hat, macht es am meisten Sinn die auch zu nutzen. Nicht dass die Idee an sich schlecht wäre, aber bei Synergien von schon bestehenden Komponenten macht es mehr Sinn, diese zusammenzulegen.

Dino-Fossil
2018-08-31, 17:03:34
Wenn man sich mal ansieht, wie der aktuelle Performance-Ausblick für RT in Spielen erscheint, frage ich mich, ob man vielleicht nur versuchen könnte, durch einfachere Änderungen eine Art Minimalansatz zu fahren.
So, dass man ein paar einfache Effekte hinbekommt, ohne dass die Performance total einbricht, während aufwändigere Dinge dann auf die Refresh-Generation verschoben werden. Ähnlich wie 4K (oder so was ähnliches) auch erst später angegangen wurde.
Immerhin scheint ja auch die 2080Ti bei RT ganz schön zu schwitzen - und viel mehr Rohleistung kann man von einer Konsole in den nächsten 2-3 Jahren kaum erwarten.

SKYNET
2018-08-31, 17:08:12
Ergibt keinen Sinn. Der Chip wäre viel zu "weit" weg von den restlichen GPU-Komponenten und könnte die ganzen Caches und normalen ALUs nicht vernünftig mitnutzen. Das muss schon alles tief in die bestehende Architektur eingebaut werden.


naja, wenn der RT chip seinen eigenen cache hätte? müsste ja nur breit genug mit der GPU verbunden sein damits sauber rennt, nicht?

basix
2018-08-31, 17:09:46
Wenn man sich mal ansieht, wie der aktuelle Performance-Ausblick für RT in Spielen erscheint, frage ich mich, ob man vielleicht nur versuchen könnte, durch einfachere Änderungen eine Art Minimalansatz zu fahren.
So, dass man ein paar einfache Effekte hinbekommt, ohne dass die Performance total einbricht, während aufwändigere Dinge dann auf die Refresh-Generation verschoben werden. Ähnlich wie 4K (oder so was ähnliches) auch erst später angegangen wurde.
Immerhin scheint ja auch die 2080Ti bei RT ganz schön zu schwitzen - und viel mehr Rohleistung kann man von einer Konsole in den nächsten 2-3 Jahren kaum erwarten.

Hört sich plausibel an. Mark Cerny hat bei der PS4 schon gesagt, dass die Entwickler genug in der Konsole haben müssen, damit sie sich über die Zeit entwickeln können und die Grafik mit der Zeit immer besser wird. RT und AI wäre beides denkbar, wobei ich letzteres für gesetzt halte.

Freestaler
2018-08-31, 17:15:16
Wenn man sich mal ansieht, wie der aktuelle Performance-Ausblick für RT in Spielen erscheint, frage ich mich, ob man vielleicht nur versuchen könnte, durch einfachere Änderungen eine Art Minimalansatz zu fahren.
So, dass man ein paar einfache Effekte hinbekommt, ohne dass die Performance total einbricht, während aufwändigere Dinge dann auf die Refresh-Generation verschoben werden. Ähnlich wie 4K (oder so was ähnliches) auch erst später angegangen wurde.
Immerhin scheint ja auch die 2080Ti bei RT ganz schön zu schwitzen - und viel mehr Rohleistung kann manchmal von einer Konsole in den nächsten 2-3 Jahren kaum erwarten.
Das ist bereits bei der 2080ti mit 10gigarays so umgesetzt bei bf v. Kannst hier im turing Thread nachlesen. Ua wir die ray pro pixel massiv gesenkt und auch bei weiten nicht alles per rt berechnet. Z.b. spiegel der spiegelung macht man nicht, da die Leistubg fehlt. Gut aussehn tut vorallem danke andere tricks wie denoising. Oder kurz vielmehr tricksen geht wohl nimmer. Für "volles" RT fehlt selbst der 2080ti mehr x-fach die Leistung. Wenn man von 200qmm chipfläche für 10gigarays in 12nm ausgeht, dann werden wir vollen rt such noch nicht mit 3nm sehen (mM). Ergo es wird min. 3 generaten gpu brauchen. Navi und deren Consolenport wirds so nicht packen mM.

Der_Korken
2018-08-31, 17:20:50
naja, wenn der RT chip seinen eigenen cache hätte? müsste ja nur breit genug mit der GPU verbunden sein damits sauber rennt, nicht?

Vorweg: Ich kenn mich mit Chip-Architektur und GPU-Programmierung nicht wirklich aus. Nach meinem Verständnis hätte eine solche externe Lösung aber eine ganze Reihe von Nachteilen. Erstmal sind die Caches getrennt, d.h. Daten über Szene und Framebuffer muss sich der Chip immer das externe Interface holen. Man hat hohe Latenzen und eventuell muss man Sachen doppelt cachen, was dann natürlich wieder Fragen nach der Cache-Kohärenz nach sich zieht. Außerdem kostet ein externes Interface viel Strom und auch Chipfläche auf der GPU. Dem gegenüber stehen eigentlich kaum Vorteile einer externen Lösung. Das einzige wäre die Skalierbarkeit/Austauschbarkeit durch stärkere Chips, wenn nötig. In beiden Fällen muss aber die GPU auf das RT ausgelegt sein, d.h. man kann auch die externe Lösung nicht einfach an ein Design anflanschen.

Dino-Fossil
2018-08-31, 17:22:44
Eben, wobei ich ein paar Dinge nicht ausschließen möchte:
Die RT-Performance könnte sich softwareseitig noch spürbar bessern, sobald man mehr Erfahrung mit der neuen Technik hat - dadurch wäre es evtl. möglich, diverse Effekte auch auf schwächerer HW zu realisieren. Immerhin kann auch nVidia kaum Interesse daran haben, dass die ganzen stolzen Besitzer einer nagelneuen RTX 2080/70 feststellen, dass sie RT gleich mal wieder vergessen können - weil ihre Games selbst auf fullHD nur noch mit 20 fps laufen. Könnte mir daher gut vorstellen, dass mindestens nVidia also auch an Optimierungen der Software-Implementation beteiligt ist.
Wir wissen aktuell noch gar nicht, wie AMDs Implementation aussehen könnte (wenn es denn so schnell eine gibt). So könnte es z.B. bei geringeren Die-Kosten möglich sein.

Locuza
2018-09-15, 17:28:33
Ein paar Auszüge aus dem Transcript mit AMDs Finanzführer Devinder Kumar:
Today, with the GlobalFoundries evolving their strategy from a process technology standpoint, we are targeting all the 7-nanometer products at TSMC. And like I said earlier, sampling the GPU 7-nanometer second half of this year later this year; and then going ahead and launching it this year; and then in the server CPU space, launching that in 2019. So that’s playing out exactly as we had targeted and we’re very pleased with being able to stay on track with process and product technology.
We continue to have a roadmap in terms of introducing the 7-nanometer GPU for the data center, because that’s where the largest opportunity is for us from revenue and from the profit standpoint, and we’ll come out with the product from the competitive standpoint. I feel pretty good from a competitive standpoint in the graphics space. We have gained market share, overall, over the last 12 months or so, going below 30% or 33% and we'll continue to be comparative as we look forward from here.

7nm consumer GPU:

Q: And the absolute last question on the graphics side, 7 nanometer Vega coming to the data center side of it, you've talk about that before at the end of this year. When should we expect 7 nanometer to occur on the more traditional gaming…

A: We haven’t missed that piece. I think, if you look at it from what we have stated, we have 7 nanometer data center GPU launching later this year; we are sampling the 700 CPU this second half of ’18 and then launching in 2019; after that, we'll have the client piece of it; we haven’t been specific about the timing; and graphics will be coming out later than these products.

GPU computing ecosystem:

Q: NVIDIA, we talk about CUDA and the ecosystem around the programming to do the GPU computing side of things. How do you compete with that ecosystem from a software perspective?

A: I think, first of all, we have to invest in that area, which we have continued to invest. You’ve seen OpEx go up for the company and the largest area of investment is R&D. And in R&D the largest area is machine learning and software, that’s an area of investment.[...]
https://www.reddit.com/r/hardware/comments/9frgvu/amd_cfo_devinder_kumar_presents_at_2018_deutsche/

Ich persönlich denke das AMD keinen nennenswerten, wenn überhaupt, Produktverzug dank GloFos 7nm Aussteigen zu schultern haben wird.
Wie schon früher gesagt investiert AMD mehr in Software, vor allem MI, was sich wahrscheinlich auch auf Navi und generell die Produkte auswirken sollte.
Jedenfalls unter Linux bewegt AMD viel und stetig:
https://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-DRM-Next-4.20-2

Das sah vor mehreren Jahren noch ganz anders aus.

AffenJack
2018-09-15, 18:17:45
Der Text zeigt aber auch nochmal klar, dass Navi eher ein H2 19 Produkt ist und nicht wie einige hier glaubten, früh im nächsten Jahr kommt. Q4 Vega20, Q1 Rome, Q2 vielleicht Ryzen3 und danach wird erst Navi kommen.

fondness
2018-09-15, 18:19:52
Das sah vor mehreren Jahren noch ganz anders aus.

Jap, da sieht man was ein brauchbarer CEO wert ist und vor allem wieviel Potential AMD all die Jahren verschwendet hat. Aber oft braucht es anscheinend den (fast) Crash, damit sich was ändert. Ich denke Lisa macht das sehr gut, sie investiert in die richtigen Bereiche, sie war schlau genug nicht wie Intel und NV hohe Summen im mobile Markt zu verbrennen und sie hat eine klare Langzeitstrategie die auch zu funktionieren scheint. Natürlich kommt jetzt auch noch das Glück von Intels Unfähigkeit dazu. Aber selbst im GPU-Markt gewinnt man Marktanteile, man steht bei den Devs hoch im Kurs, hat mittlerweile die besseren Linuxtreiber (was historisch betrachtet fast schon ironisch ist) - jetzt braucht es natürlich noch konkurrenzfähige HW.

Locuza
2018-09-15, 19:05:50
Der Text zeigt aber auch nochmal klar, dass Navi eher ein H2 19 Produkt ist und nicht wie einige hier glaubten, früh im nächsten Jahr kommt. Q4 Vega20, Q1 Rome, Q2 vielleicht Ryzen3 und danach wird erst Navi kommen.
Das kann man so interpretieren, aber man kann echt nur raten wo die Zeitfenster sich befinden.
Nach A kommt B und danach C hilft mir insofern nicht weiter, wenn ich den Termin von A und B noch gar nicht kenne.

Jap, da sieht man was ein brauchbarer CEO wert ist und vor allem wieviel Potential AMD all die Jahren verschwendet hat. Aber oft braucht es anscheinend den (fast) Crash, damit sich was ändert. Ich denke Lisa macht das sehr gut, sie investiert in die richtigen Bereiche, sie war schlau genug nicht wie Intel und NV hohe Summen im mobile Markt zu verbrennen und sie hat eine klare Langzeitstrategie die auch zu funktionieren scheint. Natürlich kommt jetzt auch noch das Glück von Intels Unfähigkeit dazu. Aber selbst im GPU-Markt gewinnt man Marktanteile, man steht bei den Devs hoch im Kurs, hat mittlerweile die besseren Linuxtreiber (was historisch betrachtet fast schon ironisch ist) - jetzt braucht es natürlich noch konkurrenzfähige HW.
Ich denke was einen besonders traurig machen kann ist die Zeit nach GCN.
GCN war eine tolle Grundlage für alle Märkte und dann hat man noch den Konsolendeal eingesackt, AMD hatte schon abartiges Potential den Markt zu dominieren, aber keine Ressourcen um ihre Hardware weiter zu entwickeln und von dem Konsolendeal grundlegend zu profitieren, da neue APIs(-Erweiterungen) viel zu lange Zeit gebraucht haben und OpenCL hat sich auch zu lange Zeit gelassen konkurrenzfähige Features und Unterstützung zeitlich im Vergleich zu CUDA anzubieten.

Mit Turing scheint Nvidia AMD in sämtlichen Disziplinen den Rang abgelaufen zu sein und sehe die nahe Zukunft nicht so positiv.
Wenn die NG-Konsolen noch auf Navi-Tech setzen, könnte AMD davon wieder zu wenig profitieren, wenn ihre neue Hardwaregrundlage sich zu stark unterscheiden wird.
Intel will sich 2020 dazu gesellen.
AMD muss im Prinzip mehrere Jahre einen Marathon rennen und etliche Mrd. investieren, um da mitziehen zu können.

Der_Korken
2018-09-15, 19:09:15
Was muss denn von der nächsten GPU-Gen erwarten, wenn die erst 2H19 kommt? Es gab mal das Gerücht, dass Navi nur Vega-Evolution ist und die richtige neue µArch erst 2020 kommt. Dann wiederum hieß es, dass der ursprüngliche Navi gar nicht kommt und dessen Nachfolger in Navi umbenannt wurde. Ist es wahrscheinlich, dass das, was Ende 2019 (H2 in pessimistisch) dann wirklich schon die neue µArch ist? Die erste GCN-Iteration wird zu dem Zeitpunkt fast 8 (!) Jahre alt sein. Wenn ich jetzt im Turing-Thread lese, dass Nvidia sowas ähnliches wie AMDs Primitive Shader implementiert haben könnte und auch die Spekulationen hier, dass man Raytracing-Funktionalität für einen überschaubaren Preis auch in AMDs CUs integrieren könnte, ist Vega technologisch vielleicht gar nicht so weit hinten dran, wie es auf den ersten Blick scheint.

w0mbat
2018-09-15, 19:18:42
Navi im 2H19 macht schon Sinn, aber wie will AMD bis dahin durchhalten? Vega20 soll HPC only sein und ein weiterer Polaris refresh wird ganz sicher nichts reißen können.

Mit Vega10 kommt man gegen Pascal vielleicht noch ganz OK an, also bis zur 1080er, aber bei Turing sehe ich da keine Chance.

Wir müssen und vielleicht darauf einstellen, dass AMD im GPU Bereich erstmal alles auf Sparflamme stellt, ähnlich wie es bei den CPUs nach dem FX-8350 war. Und dann Ende 2019 hoffentlich wieder eine gute neue GPU.

Sunrise
2018-09-15, 23:07:13
So überzeugt ich bei AMD für die nächste Zeit auch bin:

Ihr braucht euch da kurzfristig keine Hoffnungen zu machen, denn allein vom Standpunkt aus, dass TSMC bis weit in 2019 nicht genug Kapazitäten haben wird, alle Anfragen zu bedienen, wird Navi (also eher Mainstream, als quasi Polaris-Nachfolger) erst gestartet werden können, wenn die CPU-Sparte (Zen 2) eine gewisse Traktion im Markt hat und AMD dann bestellen muss was sie bekommen können. Da kann man froh sein, wenn das richtig abhebt und dann bekommt AMD das auch entsprechend zurück. Die CPU-Sparte ist enorm wichtig und wenn AMD zusätzlich zu Vega 20 weiterhin gut in ML und Software investiert sehe ich im HPC- und Profimarkt jetzt nicht so schwarz wie einige hier. NV ist preislich einfach extrem teuer, da gibt es immer einen Platz um sich zu positionieren und das weiß auch AMD.

Dass es im Gaming-Markt schwierig wird, ist allein deshalb schon klar, weil NV bereits zuviel Vorsprung hatte und AMD auf absehbare Zeit da nicht dagegen ankommt, NV hat nicht ohne Grund den 12nm-Prozess bis an den Rand des Machbaren ausgefahren, und so weit wird der 7nm-Zug dann 2020 auch nichtmehr weg sein.

Was jetzt bei AMD einfach stimmt ist die Ausrichtung auf lange Sicht, und wenn ML und Software ordentlich mit R&D weiterlaufen, gibt es da immer irgendwo Platz, solange die CPU-Sparte weiter so funktioniert, wie aktuell.

Navi wird das Angebot erweitern, ich würde meine Erwartungen aber nicht zu hoch schrauben.

Digidi
2018-09-15, 23:27:45
.

Dass es im Gaming-Markt schwierig wird, ist allein deshalb schon klar, weil NV bereits zuviel Vorsprung hatte und AMD auf absehbare Zeit da nicht dagegen ankommt, NV hat nicht ohne Grund den 12nm-Prozess bis an den Rand des Machbaren ausgefahren, und so weit wird der 7nm-Zug dann 2020 auch nichtmehr weg sein.


Abwarten bei Intel hätte man auch nicht gedacht das AMD da konkurrenzfähige CPUs hat. Jetzt überflügeln sie sogar Intel wegen der MCM Idee. Man brauch nur eine Gute Idee und es wird gut!

Setsul
2018-09-16, 10:49:52
MCMs haben das nicht gerettet. Bulldozer hatte auch MCMs und hat kein Land gesehen, weil die Architektur schlecht war. Zen ist einfach eine gute Architektur, die wäre mit oder ohne MCM erfolgreich.
Core 2 Quad mit MCM war auch nicht auf magische Weise besser als Core iX Nehalem ohne MCM.


Bei GPUs gibts auch keine magische Lösung. AMD hat seit Jahren einfach Probleme größere Architekturverbesserungen zu implementieren und braucht auch zu lange um die Treiber auf ein gutes Niveau zu bringen. Das kostet einfach alles Geld. Jetzt sollten sie etwas mehr Geld haben und damit auch Chancen aufzuholen anstatt langsam immer weiter zurückzufallen.

Das Problem ist das solche Sachen langfristig geplant werden.
Letztendlich hat AMD alles auf Zen gesetzt. Wenn sie davon ausgegangen sind, dass sie jetzt deswegen Geld haben werden, dann könnte Navi natürlich eine größere Verbesserung sein.
Aber das gleiche hat man auch bei Vega gedacht. Es kann durchaus sein, dass AMD noch eine Generation braucht bevor sie anfangen aufzuholen und bis dahin nur gut genug sein müssen um die Konsolendeals zu behalten.

Digidi
2018-09-16, 12:12:31
MCMs haben das nicht gerettet. Bulldozer hatte auch MCMs und hat kein Land gesehen, weil die Architektur schlecht war. Zen ist einfach eine gute Architektur, die wäre mit oder ohne MCM erfolgreich.
Core 2 Quad mit MCM war auch nicht auf magische Weise besser als Core iX Nehalem ohne MCM.


.

MCM ist ein Multi Chip Modul das nicht auf einem Die ist. Der Trick ist es die kerne auf einzelne Dies aufzuteilen. AMD knallt 4x200m² auf einen Chip Intel muss hierfür mindestens eine 600mm²Chip auflegen der sehr dicht bepackt ist.

AMD kann seine Chips also leichter kühlen, haben dadurch eine bessen Verbrauch und können beim Vollausbau mit höhre Kerneanzahl besser takten. Dabei sind die Produktionskosten sehr niedrig weil man 4x200mm² billiger produzieren kann als einen 600mm²Chip

=Floi=
2018-09-16, 12:27:40
Er sagt doch das gleiche, aber Fabric trägt hier seinen teil dazu bei.
C2Q ist damals am FSB verhungert.

MCM im grafikbereich bräuchte einen erheblich höheren durchsatz.

Complicated
2018-09-16, 14:01:37
MCM sorgt allerdings dafür die Kosten niedrig zu halten und eben den Markt über den Preis attackieren zu könne.

Setsul
2018-09-16, 14:23:34
MCM ist ein Multi Chip Modul das nicht auf einem Die ist. Der Trick ist es die kerne auf einzelne Dies aufzuteilen.

Versucht du gerade die Definition von MCM zu erklären oder glaubst du, dass es MCMs gibt die nur aus einem Die bestehen? Die Formulierung ist etwas komisch.


Du verstehst außerdem immernoch das Problem nicht.
C2Q und Zen sind gut weil die Architektur gut ist, völlig unabhängig vom MCM.
Bulldozer hatte MCMs, aber die 2x315mm² MCMs wurden trotzdem von Intel CPUs mit EINEM 300mm² Die überfahren weil die Architektur/Implementierung scheiße war. Das wäre nicht anders ausgegangen wenn Bulldozer monolithische 600mm² Dies gehäbt hätte.


MCMs sind bei GPUs ungleich schwieriger, deshalb gibt es bis jetzt noch keine. Aber auch bei GPUs können MCMs nicht auf magische Weise eine schlechte Architektur besser machen.
Yieldrates, Kosten und Kühlung sind nett, aber kosmetisch. Niedrigere Kosten sind toll, aber das ist bei GPU MCMs eventuell gar nicht direkt gegeben (eventuell braucht man einen Interposer und senkt nur die Fixkosten, nicht die Stückkosten). Yieldrates sind auch toll, aber wirken sich mehr auf die Kosten als auf die Leistung aus.
Wenn man eine Architektur hat die 10% langsamer ist und dann kann man mit MCMs etwas besseren Takt bekommen auf Kosten des Verbrauchs dann ist das interessant. Oder man reduziert die Kosten und ist dadurch konkurrenzfähig.
Aber erstmal muss man eine Architektur haben die auf 10% herankommt.

Vega 10 müht sich bei 50% größerem Die und mehr Vebrauch gegen GP104 ab. Das Problem kann MCM nicht lösen.

Bei GPUs braucht man viel mehr Bandbreite zwischen den Chips. MCMs werden die Leistung verringern, nicht erhöhen. Es geht hier nur darum die Produktionskosten zu senken. Dann kann man einfach mehr Einheiten/Fläche verbauen und wieder auf monolithische Leistung zurückkommen. Aber dafür muss die Effizienz und auch die Flächeneffizienz stimmen. Wenn die Architektur 50% mehr Fläche und Strom braucht, bringt das MCM nichts mehr.

Digidi
2018-09-16, 14:36:03
Versucht du gerade die Definition von MCM zu erklären oder glaubst du, dass es MCMs gibt die nur aus einem Die bestehen? Die Formulierung ist etwas komisch.


Du verstehst außerdem immernoch das Problem nicht.
C2Q und Zen sind gut weil die Architektur gut ist, völlig unabhängig vom MCM.
Bulldozer hatte MCMs, aber die 2x315mm² MCMs wurden trotzdem von Intel CPUs mit EINEM 300mm² Die überfahren weil die Architektur/Implementierung scheiße war. Das wäre nicht anders ausgegangen wenn Bulldozer monolithische 600mm² Dies gehäbt hätte.



Du verstehst nich das der schlüssel zum erfolg mcm ist und das AMD das jetzt natürlich Architektonisch gut gelöst hat.

Unicous
2018-09-16, 14:38:11
2 Kerne auf einem Die? Was ist das für ein Schmarrn?:freak:

LOL und schnell alles wegeditieren, nachdem man merkt was für einen Müll man geschrieben hat.;D

Screemer
2018-09-16, 14:39:53
Hatte es auch gelesen und mich nur so :confused: gedacht.

Digidi
2018-09-16, 14:40:52
2 Kerne auf einem Die? Was ist das für ein Schmarrn?:freak:

LOL und schnell alles wegeditieren, nachdem man merkt was für einen Müll man geschrieben hat.;D
Jo ich hab den 16 Kern Bulldozer vergessen der war natürlich auf 2 die die Kerne aufgeteil und zeigt eigentlich das AMD mit sowas früh Erfahrung hatte. Auch wenn Bulldozer schrott war (Was mittlerweile auch nicht mehr so ganz stimmt) hat man hier den schlüssel zum erfolg gelegt. Man hat MCM beibehalten und es an den wichtigen Punkten verbessert.

Unicous
2018-09-16, 14:45:49
Ich weiß ehrlich gesagt nicht auf was du hinaus willst, schon bei K10 hatte AMD Opteron MCMs mit insgesamt 8 Kernen.

Setsul
2018-09-16, 16:23:24
@Unicous:
Das ist wirklich das beste Beispiel.
K10 war ok. K10 mit MCM war ok.
Bulldozer war schrott. Bulldozer mit MCM war schrott.
Zen ist gut. Zen mit MCM ist gut.

Damit sollte eigentlich klar sein welchen Einfluss MCM oder nicht MCM hat. Praktisch keinen.

Digidi
2018-09-16, 16:29:31
@Unicous:
Das ist wirklich das beste Beispiel.
K10 war ok. K10 mit MCM war ok.
Bulldozer war schrott. Bulldozer mit MCM war schrott.
Zen ist gut. Zen mit MCM ist gut.

Damit sollte eigentlich klar sein welchen Einfluss MCM oder nicht MCM hat. Praktisch keinen.

Das sagt nur aus das MCM keinen Einfluss auf die Leistung hat, aber beim Preis macht und ruaskitzelbarer Performance wenn die Architektur gut ist kannst du mit MCM beim Preis und Leistung mehr rausholen.

Kriton
2018-09-16, 16:44:11
Ich versuche Das sagt nur aus das MCM keinen Einfluss auf die Leistung hat

und
kannst du mit MCM (...) Leistung mehr rausholen.

zueinander zu bringen. :confused:

Digidi
2018-09-16, 17:08:48
@Kriton

Es ist einfach physikalisch so das du z.B. wegen der geringeren Packdichte und der größeren Fläche auf 4 Dies Verteilt einfach den höhren Takt fahren kannst als wenn man z.B. 28 Kerne auf 600mm² zusammenquetscht.

Hast du eine erfolgreiche Architektur mit MCM und eine erfolgreiche Architektur ohne MCM wirst du bei mehr Kernen aus der MCM Architektur immer Mehr rausholen können.

MCM sagt aber nichts über die Architekturleistung an sich aus.

TGKlaus
2018-09-16, 17:12:42
Gibt es denn mittlerweile irgendwelche wahrscheinlichen Fakten zu NAVI.
Oder ist bisher alles reine Spekulation?

Unicous
2018-09-16, 17:26:59
Das sind Fakten: Navi ist ein GPU-Design der Firma AMD, das im 7nm Verfahren von der Firma TSMC gefertigt wird und im Jahre 2019 auf den Markt kommt.

reaperrr
2018-09-16, 17:45:08
Gibt es denn mittlerweile irgendwelche wahrscheinlichen Fakten zu NAVI.
Oder ist bisher alles reine Spekulation?
Nahezu alles Spekulation.

Die einzigen "wahrscheinlichen Fakten", die mir bekannt sind:
- 7nm bei TSMC, wahrscheinlich dritter 7nm-Chip nach V20 und Rome
- erster Navi-Chip (Navi10) wahrscheinlich 256bit SI, GDDR6, etwas kleiner als Polaris10 (unter 256bit brächte zu wenig VRAM u. Bandbreite, breiteres SI würde Chip und Kosten zu sehr aufblähen)
- Leistung mindestens in V64/GTX1080-Region
- wird u.a. auch in mindestens einer Konsole (vmtl. PS5) zum Einsatz kommen, dadurch haben Gerüchten zufolge zeitweise doppelt so viele Grafik-Ingenieure an Navi wie an Vega gearbeitet
- Mike Mantor von AMD hat ggü. Ian Cutress von Anandtech noch lange vor Vega-Release mal eher beiläufig erwähnt, dass Navi (und eben nicht Vega) der nächste größere Sprung wird

Locuza
2018-09-16, 18:17:39
Weitere wahrscheinliche Fakten.

- NGG (Next Gen Geometry) ist bei Navi aktiv, für Vega hat es AMD offensichtlich begraben:
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

- Die DCC wird besser und kann unter UAVs (Unordered Access Views) funktionieren.
Gfx10UseDccUav - "Shader writable surfaces(UAV)
https://forum.beyond3d.com/posts/2039357/

Der Abschnitt bezüglich ForceWaveBreak ist also interessant, möglicherweise kann die Auslastung pro Compute Unit gesteigert werden.

Ansonsten reaperrr:
- Mike Mantor von AMD hat ggü. Ian Cutress von Anandtech noch lange vor Vega-Release mal eher beiläufig erwähnt, dass Navi (und eben nicht Vega) der nächste größere Sprung wird
Steht das in einem Anandtech-Artikel, im Forum oder wo genau könnte man das auf die schnelle finden, wenn man selbst für Google aktuell zu faul ist? :)

w0mbat
2018-09-16, 18:35:19
Ich bin echt gespannt wie Navi wird. Auch Microsoft scheint mit AMD zu arbeiten, wahrscheinlich für die X-next.

Interessant wird auch, ob wir jemals Vega20 für Spieler sehen werden.

Hübie
2018-09-16, 19:15:00
Also wenn man sich überlegt wie teuer die Entwicklung eines Chips ist und wie klein der HPC Markt vom Umsatzvolumen her ist, wäre es zumindest wirtschaftlich betrachtet sinnvoll und wahrscheinlich, V20 auch für Spieler zu bringen.
Aber wir sprechen von AMD... :freak:

Blediator16
2018-09-16, 19:20:11
Also wenn man sich überlegt wie teuer die Entwicklung eines Chips ist und wie klein der HPC Markt vom Umsatzvolumen her ist, wäre es zumindest wirtschaftlich betrachtet sinnvoll und wahrscheinlich, V20 auch für Spieler zu bringen.
Aber wir sprechen von AMD... :freak:

Ich denke AMD macht das, wo sie am meisten sichere Kohle verdienen können. Wenn AMD als Preisbremse missbraucht wird, dann braucht man sich nicht wundern, wenn sie etwas sachter an die Sache rangehen. RTX Preise lassen grüßen.

Hübie
2018-09-16, 19:22:49
Ich verstehe deine Aussage im Kontext meiner Aussage nicht. Käufer gewinnt man mit Innovation, Marketing und Qualität

Locuza
2018-09-16, 19:26:49
Nah wie attraktiv wird ein 4xHBM2-Stack Produkt unter 7nm mit alter Technologie für Spieler sein?
Und wie finanziell sinnig wäre das für AMD?

V20 erscheint mir wie ein GP100/GV100 von Nvidia zu sehr für HPC/Data-Center-Kunden spezialisiert zu sein, mit zu hohen Fixkosten pro Produkt, um für den Gaming-Markt wirklich zu passen.
Würde Vega20 ohne Gaming-Konkurrenz erscheinen, dann hätte sich AMD wie Nvidia den Luxus leisten können für 1000 Dollar Premium-Zeug für die Enthusiasten zu verticken, dass ist aber nicht der Fall.

w0mbat
2018-09-16, 19:29:01
Vega20 ist AMDs erstes 7nm Produkt, da ist das Volumen bestimmt nicht sehr hoch. Im HPC segment kann AMD ganz sicher deutlich mehr verlangen als bei einer gaming GPU.

Und wenn Vega20 für Spieler kommen sollte, muss man auch die passenden Treiber zur Vefügung stellen. Das macht aber nur dann Sinn, wenn die ganzen neuen features, wie zB primitive shaders, NGG, etc. auch funktionieren. D.h. sehr viel mehr Treiber-Arbeit für eine einzige GPU, selbst bei Vega10 haben sie das ja nicht mehr geschafft.

Ich glaube AMD konzentriert sich für Spieler lieber voll auf Navi, dort kann man dann auch wieder mehr in den Treiber stecken.

grobi
2018-09-16, 19:46:00
Baut Navi auf der Vegaarch auf oder ist es wieder ein völlig neuer Ansatz?
Sorry für die Frage. Bin da nicht auf dem laufenden

mfg grobi

Locuza
2018-09-16, 19:51:37
Navi sollte in vielen Belangen auf die Vega-Arch aufbauen, letztendlich ist es auch egal ob Navi aufbaut oder einen neuen Ansatz verfolgt, solange das Endergebnis gut ausfällt.
Z.B. Bulldozers völlig neuer Ansatz war ja nicht die gerade erste Sahne.

oldgamer
2018-09-16, 19:57:11
- Leistung mindestens in V64/GTX1080-Region
Das kann kein Fakt sein, sondern ist reine Spekulation weil wir alle nicht wissen wie gut Navi wirklich performen wird.

Geplant ist sicher eine Leistung in der Liga, nur muss das zuerst einmal realisiert werden.

Hübie
2018-09-16, 20:03:25
Warum muss ich auch gerade an Volta denken? :D
Letztlich werden die gesamten Produktionskosten entscheiden ob man ggf. cut-down Varianten auf dem Gamer-Markt verkauft. Nötigenfalls wie NVIDIA unter dem Deckmantel der Semi-Profis...

reaperrr
2018-09-16, 20:20:34
Ansonsten reaperrr:

Steht das in einem Anandtech-Artikel, im Forum oder wo genau könnte man das auf die schnelle finden, wenn man selbst für Google aktuell zu faul ist? :)
Wenn ich das noch wüsste, hätte ich es dazugeschrieben :)

Über google hab ich es auch nicht gefunden, kann übrigens auch in einem Artikel-Kommentar oder auf Twitter gestanden haben.
Bin mir jetzt nicht mal mehr sicher, ob es wirklich der Ian war, aber definitiv entweder er oder Ryan.

Ging sinngemäß darum, dass Mike Mantor das obige in einem Gespräch erwähnt hat und der Autor erst dachte, dass Vega gemeint wäre und erst im Nachhinein festgestellt hat, dass MM wohl tatsächlich Navi (also die zum Gesprächs-Zeitpunkt übernächste Generation) gemeint hat.

Civtam
2018-09-16, 21:09:48
Wenn ich das noch wüsste, hätte ich es dazugeschrieben :)

Über google hab ich es auch nicht gefunden, kann übrigens auch in einem Artikel-Kommentar oder auf Twitter gestanden haben.
Bin mir jetzt nicht mal mehr sicher, ob es wirklich der Ian war, aber definitiv entweder er oder Ryan.

Ging sinngemäß darum, dass Mike Mantor das obige in einem Gespräch erwähnt hat und der Autor erst dachte, dass Vega gemeint wäre und erst im Nachhinein festgestellt hat, dass MM wohl tatsächlich Navi (also die zum Gesprächs-Zeitpunkt übernächste Generation) gemeint hat.
Das war in der Zeit ca. 3 Monate vor dem Vegarelease bis zum Release und wurde am Rande mal im Vegaspekuthread gepostet (wenn ich mich recht entsinne als Twitterzitat). Bin aber auch zu faul zum Suchen.

robbitop
2018-09-19, 17:09:27
Jetzt nach dem (imo enttäuschenden [was Performance in aktuellen Spielen angeht]) Turing Launch sehe ich gute Chancen für Navi 10. Selbst mit der Größe von Polaris lassen sich in 7 nm sicherlich 64 CUs realisieren. Das gekoppelt mit etwas mehr Takt (dank 7nm) und etwas besserer mArch, kann der Polarisnachfolger sich sicher mit der 2070 - wenn nicht sogar 2080 messen.
Da zumindest die 2080 einen stattlichen Preis hat, wäre das Gelegenheit für AMD mittels etwas besserem PL einige Karten abzusetzen, um wieder Budget für künftiges RnD einzusammeln, um wieder Stück für Stück ranzukommen. Auch für den Midrange Markt sicherlich interessant. :)

dildo4u
2018-09-19, 17:19:12
Die 1080 FE startete bei fast 800€ ich vermute mal das wir zum Navi Launch den selben Drop auf 500€ bekommen wie bei der 1080.

http://www.pcgameshardware.de/Pascal-Codename-265448/News/Geforce-GTX-1080-Preis-Founders-Edition-1195823/

Geächteter
2018-09-19, 17:35:51
Jetzt nach dem (imo enttäuschenden [was Performance in aktuellen Spielen angeht]) Turing Launch sehe ich gute Chancen für Navi 10. Selbst mit der Größe von Polaris lassen sich in 7 nm sicherlich 64 CUs realisieren. Das gekoppelt mit etwas mehr Takt (dank 7nm) und etwas besserer mArch, kann der Polarisnachfolger sich sicher mit der 2070 - wenn nicht sogar 2080 messen.

Wenn die 7 nm spruchreif für GPUs beim TSMC werden, ist auch nvidia wieder mit am Start. Sind ja nicht blöd.
Da sie aber jetzt nochmals die 16/12 nm bemühen/auslutschen, zeigt es, dass die Spruchreife noch ein bisschen in der Zukunft liegt. Wenn AMD nicht endlich ihre Architektur auf Vordermann bringt, sehen die in Zukunft keinen Stich, außer über den Preis. Nvidia ist in der Entwicklung agil wie ein Ninjakämpfer, während AMD die Behäbigkeit eines Öltankers hat.

robbitop
2018-09-19, 17:52:31
Navi kommt lt Gerüchten in H1 2019. Bei nv vergehen bis dato >18M bis zu einer neuen Gen.

AffenJack
2018-09-19, 17:56:02
Navi kommt lt Gerüchten in H1 2019. Bei nv vergehen bis dato >18M bis zu einer neuen Gen.

Navi kommt laut AMDs eigenen Aussagen ziemlich sicher in H2 19 und da vielleicht eher später. Die Gerüchte sind Müll.

Loeschzwerg
2018-09-19, 17:59:09
Zu spät um NV wirklich zu ärgern :(

Geächteter
2018-09-19, 18:05:13
Navi kommt laut AMDs eigenen Aussagen ziemlich sicher in H2 19 und da vielleicht eher später. Die Gerüchte sind Müll.
(y)

Vielleicht sollte man statt 'Gerüchten' lieber mal Logik, gesunden Menschenverstand und Extrapolationen in die Zukunft anhand von Erfahrungen aus der Vergangenheit bemühen.
Da stellt sich dann die Frage, warum AMD zuerst in 7 nm produzieren kann und darf und Nvidia nicht? Zahlt Nvidia weniger für Fertigungskapazitäten oder sind in der Entwicklung langsamer und schlechter als die bisherige rote No. 2?


Was an Gerüchten dran ist, sieht man ja wieder mal beim Bohei um den Turing-Launch. Ewig wurde im Vorfeld schon rumfantasiert, vom Hersteller Hypes und Mystery eingestreut und am Ende kam alles viel, viel später und noch viel ernüchternder.

aufkrawall
2018-09-19, 18:09:07
In den Zusammenhang würde doch das Gerücht passen, dass NV Turing für 10nm geplant hatte, oder nicht? Dann hätte es auch schon früher erscheinen können und der Abstand zu AMD 7nm 1. HJ 2019 wäre plausibel.

AffenJack
2018-09-19, 18:19:02
In den Zusammenhang würde doch das Gerücht passen, dass NV Turing für 10nm geplant hatte, oder nicht? Dann hätte es auch schon früher erscheinen können und der Abstand zu AMD 7nm 1. HJ 2019 wäre plausibel.

AMD hat doch schon klar gesagt, dass CPUs Priorität haben und zuerst auf 7nm kommen. Zu glauben, dass AMD in H1 genug Wafer kriegen wird um die gesamte Zen2 Produktion zu stemmen und nebenbei GPUs zu bauen ist einfach illusorisch. Apple, QC, Mediathek, Nvidia etc, jeder will bei TSMC 7nm Wafer und die Kapazitäten sind begrenzt. Die Wafer wird der kriegen, der am meisten Geld bietet. CPUs haben eher höhere Margen als GPUs, deshalb kann AMD auch hohe Waferpreise zahlen und sich wohl gute Wafermengen für Zen2 sichern. Wenn der CPU Markt versorgt ist, kann man über GPUs nachdenken. Vor H2 kann man das aber vergessen.

robbitop
2018-09-19, 18:19:23
Navi kommt laut AMDs eigenen Aussagen ziemlich sicher in H2 19 und da vielleicht eher später. Die Gerüchte sind Müll.

Das ist mir neu. Hast du hier eine Quelle? Iirc war navi10 ursprünglich für Ende 2018 geplant und ist in 2019 gerutscht?

Unrealistisch ist 7nm keinesfalls. Vega20 wird bereits jetzt in 7nm produziert. A12 millionenfach ebenso.

Geächteter
2018-09-19, 18:19:40
In den Zusammenhang würde doch das Gerücht passen, dass NV Turing für 10nm geplant hatte, oder nicht? Dann hätte es auch schon früher erscheinen können und der Abstand zu AMD 7nm 1. HJ 2019 wäre plausibel.
Kann auch nur zeigen dass die 12-nm-TMSC in der Massenfertigung wohl bis jetzt und in absehbarer Zeit wider Erwarten das wirtschaftlichste und effizienteste Verfahren ist, also ein Notanker und die Turing-Umsetzung technisch möglich und wirtschaftlich sinnvoll war.
Und dass AMD halt mit ihrer relativ ineffizienten Architektur in 12 nm oder 10 nm nix reißen können und notgedrungen auf 7 nm warten müssen und wohl auch die Zeit gleich für einen Architekturfrühsjahrsputz nutzen.
Wenn 7 nm möglich sind, werden wir beide Hersteller gleichzeitig am Start sehen oder die Grünen noch eher. Die sind halt der Benchmark.

AffenJack
2018-09-19, 18:22:03
Das ist mir neu. Hast du hier eine Quelle? Iirc war navi10 ursprünglich für Ende 2018 geplant und ist in 2019 gerutscht?

Unrealistisch ist 7nm keinesfalls. Vega20 wird bereits jetzt in 7nm produziert. A12 millionenfach ebenso.

Siehe: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11800928&postcount=913

7nm consumer GPU:

Q: And the absolute last question on the graphics side, 7 nanometer Vega coming to the data center side of it, you've talk about that before at the end of this year. When should we expect 7 nanometer to occur on the more traditional gaming…

A: We haven’t missed that piece. I think, if you look at it from what we have stated, we have 7 nanometer data center GPU launching later this year; we are sampling the 700 CPU this second half of ’18 and then launching in 2019; after that, we'll have the client piece of it; we haven’t been specific about the timing; and graphics will be coming out later than these products.


Dazu noch meine Begründung aus dem Post über dir:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11804631&postcount=959

Geächteter
2018-09-19, 18:27:27
Zu glauben, dass AMD in H1 genug Wafer kriegen wird um die gesamte Zen2 Produktion zu stemmen und nebenbei GPUs zu bauen ist einfach illusorisch. Apple, QC, Mediathek, Nvidia etc, jeder will bei TSMC 7nm Wafer und die Kapazitäten sind begrenzt.
Selbst Intel lagert ja dort aus. Im Prinzip gibt es jetzt nur noch Samsung und TSMC für Dritthersteller, Intel ist selbst aus der Fertigungsbahn geworfen worden und überlastet, gleichzeitig werden die Chips immer größer, die Herstellungsprozesse langwieriger und der Ausschuss größer.

iuno
2018-09-19, 18:36:56
Später als Jahreswechsel oder "irgendwann 2019" ist halt keine spezifische Angabe für h2 (oder sonst irgendwas).

dargo
2018-09-19, 19:48:23
Jetzt nach dem (imo enttäuschenden [was Performance in aktuellen Spielen angeht]) Turing Launch sehe ich gute Chancen für Navi 10. Selbst mit der Größe von Polaris lassen sich in 7 nm sicherlich 64 CUs realisieren. Das gekoppelt mit etwas mehr Takt (dank 7nm) und etwas besserer mArch, kann der Polarisnachfolger sich sicher mit der 2070 - wenn nicht sogar 2080 messen.
Da zumindest die 2080 einen stattlichen Preis hat, wäre das Gelegenheit für AMD mittels etwas besserem PL einige Karten abzusetzen, um wieder Budget für künftiges RnD einzusammeln, um wieder Stück für Stück ranzukommen. Auch für den Midrange Markt sicherlich interessant. :)
Das wäre etwas strange wenn ein ~232mm² AMD Chip mit einem 445-545mm² Nvidia Chip konkurieren würde. :freak:

Naitsabes
2018-09-19, 20:25:05
RV770 anyone?

Ich glaube aber selbst nicht daran :D

Daredevil
2018-09-19, 20:29:49
AMD hat auf jeden Fall die besten Karten in der Hand seit vielen Jahren, weil mit Vega das Grundgerüst schon seit einem Jahr steht.
Nvidia RTX ist zwar keine "schwäche", sondern einfach ein Experiment bzw. etwas neues, was nun einmal Einheiten kostet. Wenn AMD aber genau da eingrätscht und die Kunden bedient, denen RTX vollkommen egal ist, kann man da ordentlich was reißen.

Als hätte Lisa gewusst, dass Turing kein großer Sprung wird und deswegen direkt auf 7nm gesetzt um den Markt unterhalb von 900€ massiv zu attackieren. :D
Ich wünsche AMD wirklich, dass dieser Schachzug so funktioniert wie geplant.

robbitop
2018-09-19, 20:54:49
Siehe: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11800928&postcount=913




Dazu noch meine Begründung aus dem Post über dir:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11804631&postcount=959
Da steht aber nichts von H2 2019. Nichtmal entfernt. Also ist das auch nicht mehr als pure Mutmaßung. ;)

horn 12
2018-09-19, 20:57:03
Wird er und nun sind auch die Vegas dort wo AMD sie angesetzt hat und werden mehr gekauft denn je von Gamern.

Denen GTX 1080 zu alt, GTX 1080 TI zu teuer und RTX egal ist.

robbitop
2018-09-19, 20:57:17
Das wäre etwas strange wenn ein ~232mm² AMD Chip mit einem 445-545mm² Nvidia Chip konkurieren würde. :freak:

Kein RT, kein TC und 7 nm sind fast 2 fullnodesprünge. RV770 ist tatsächlich eine ein bisschen vergleichbare Situation. :)

Dino-Fossil
2018-09-19, 21:07:34
Nvidia RTX ist zwar keine "schwäche", sondern einfach ein Experiment bzw. etwas neues, was nun einmal Einheiten kostet. Wenn AMD aber genau da eingrätscht und die Kunden bedient, denen RTX vollkommen egal ist, kann man da ordentlich was reißen.

Ich denke nVidia hat Turing mit RT gebracht, eben weil sie genau wussten, dass AMD aktuell keinen Konter hat. Wenn man so ein Experiment starten will, dann jetzt.
Hätte AMD ähnlich schnelle Karten am Start (nur ohne RT, daher mit kleinerem Chip und günstiger), würde sich so mancher überlegen, ob er den nVidia-Aufpreis zahlen möchte für ein Feature, das relativ viel Performance frisst und nur von wenigen Titeln unterstützt wird, oder ob er lieber die ähnlich schnelle, aber günstigere AMD nimmt.
Nur hat AMD eben nichts und nVidia kann sich das Experiment leisten.

Alle Gerüchte bezüglich Navi deuten ja auch eher auf einen neuen Mid-Range-Chip.
Der mag Vega obsolet machen und gerade so mit der 2070 konkurieren, aber mit größeren Karten wird er sich vermutlich auch nicht anlegen.

AffenJack
2018-09-19, 21:21:28
Da steht aber nichts von H2 2019. Nichtmal entfernt. Also ist das auch nicht mehr als pure Mutmaßung. ;)

Deutlich mehr als ein Gerücht für das es nichtmal eine Quelle außer Hörensagen gibt, welches nur PCGH gehört haben will und niemand anders. Wir haben für die CPUs ja noch nichtmal Daten.

Kein RT, kein TC und 7 nm sind fast 2 fullnodesprünge. RV770 ist tatsächlich eine ein bisschen vergleichbare Situation. :)

Gilt nur für den Mobileprozess. HPC ist minimal mehr als 1 Fullnode.

robbitop
2018-09-19, 21:24:44
Je nach Auslegung wird sie auch mit der 2080 konkurrieren können.
Sofern sie 64CU hat (was natürlich spekulativ ist - aber dank 2 fullnodesprüngen mit etwa der Größe von Polaris mgl sein sollte) + etwas mehr rohleistungsnormierte Performance (sonst macht eine verbesserte mArch wenig Sinn) + mehr Takt durxh 7 nm sind die fehlenden 20-30 % zw vega 64 und tu104 einholbar.

Kann aber natürlich auch anders laufen. Potenzial wäre aber da...

robbitop
2018-09-19, 21:28:01
Deutlich mehr als ein Gerücht für das es nichtmal eine Quelle außer Hörensagen gibt, welches nur PCGH gehört haben will und niemand anders. Wir haben für die CPUs ja noch nichtmal Daten.


Ich finde, dass es nur auf gleicher Stufe steht. Reine Spekulation/ Mutmaßung.


Gilt nur für den Mobileprozess. HPC ist minimal mehr als 1 Fullnode.
Man liest im Moment viel von ungefähr doppelter Packdichte. Das würde an Transistorbudget reichen um in etwa 64 cus abzubilden.

Auch ist unklar ob der hpc Prozess zum Einsatz kommt. Selbst Ryzen nutzte nur den Standard 14lp Prozess, der von Samsung lizensiert wurde.

Locuza
2018-09-19, 21:54:23
AMDs Sprecher meinte 7nm GPU Produkte für Consumer kommen zum Schluss.
Zuerst kommt Vega20 in H2 2018, dann will man Rome/Zen2 für Server 2019 launchen und dann Ryzen/Zen2 für Consumer und danach 7nm GPU Produkte.
Super optimistisch gesehen könnte man die Meinung vertreten das AMD Rome, Ryzen und Navi in H1 reingepackt bekommt, aber Navi Ende Q2/Anfang Q3 ist aus meiner Sicht die Grenze wie weit man sich aus dem Fenster trauen sollte.

Ebenso weiß man auch gar nicht wie Navi ausfallen wird, also blind zu sagen wir könnten eine RV770 Situation vor uns haben, ist eben blind.
Wenn das blinde Huhn dann das Korn trifft war es reiner Zufall aus jetziger Perspektive gesehen.

robbitop
2018-09-19, 22:07:59
Es ist ein Spekulationsforum. ;)

Ich sprach von dem Potenzial, dass es also möglich wäre, diesmal nicht gegen eine 2xx€ Karte antreten zu müssen wie es Polaris tat. Ganz einfach weil Turing relativ wenig Mehrleistung ggü Pascal hat. Man hat ggf auch mal die Chance etwas Geld zu verdienen.
So unwahrscheinlich ist es nicht.
Wie gesagt: wenn das Ding in etwa so groß wie Polaris ist, sind 64cus möglich. Spekulation. Kombiniert mit etwas besserer mArch und etwas mehr Takt ist das Ding schnell 20...30% schneller als V10. Und damit in Schlagweite zu tu104.

H2 2019 kann natürlich sein. Aber ob das unbedingt „zu spät“ sein soll, für einen sinnvollen Markteintritt? Finde ich genauso gewagt.

HOT
2018-09-19, 22:44:24
Ein Navi10 mit 200mm² ist ein Chip in 14LPP mit >400mm². Ich bezweifel aber, dass der volle 64CUs hat. Da müsste man die CUs schon gewaltig zusätzlich abspecken. Wenn man das so macht, wie beim RV770 damals, gut, aber das ist bisher nicht bekannt, wenn man mal von den ominösen Patentschriften für klein-CUs und riesig-CUs absieht. Bis da näheres bekannt ist, rechne ich weiterhin mit 48CUs für Navi10. Ich fänds natürlich toll, wenn Navi 64CUs mitbringt in klein für Consumer und V20 dicke CUs für Profi. Ich glaubs nur nicht :D.

w0mbat
2018-09-19, 23:04:36
Ich glaube nicht, dass der schwache Turning Navi in irgendeiner Weise beeinflussen wird, dafür ist Navi noch zu weit weg. Was ich mit jetzt aber etwas besser vorstellen könnte, ist ein Vega20 für Spieler.

Wir wissen, dass eine 2080 "nur" ca. auf 1080 Ti level ist, eine RV Vega 64 schafft schon eine 1080. Eine potentielle Vega20 mit höherem Takt und funktionierenden Features könnte einer 2080 gefährlich werden. Und da wir uns hier im Preisbereich von um die 800€ bewegen, wäre das vielleicht sogar wirtschaftlich.

Hängt aber natürlich direkt am 7nm Volumen, bzw. den yields.

Käsetoast
2018-09-19, 23:08:20
Ich fänds natürlich toll, wenn Navi 64CUs mitbringt in klein für Consumer und V20 dicke CUs für Profi. Ich glaubs nur nicht :D.
Wenn Navi wirklich mit Blick auf die kommenden Konsolen entwickelt worden ist, dann wäre es denke ich schon möglich, dass man hier Computing Leistung opfert um im Gaming besser darzustehen und so alles was schlanker wird weil man keine hohe DP Leistung etc. mehr braucht. Der 7nm Vega ist da eventuell ein Indiz dafür, denn wenn mit Navi eine grundlegend bessere Architektur für HPC vor der Tür stünde, warum sollte man dann noch so einen Vega 7nm Stunt hinlegen?

Grundsätzlich hat AMD da eigentlich ganz gute Karten, da NVIDIA mit Turing zumindest momentan lediglich die sehr hohen Preissegmente bedient und ein "günstiger" TU106 oder dergleichen nicht wirklich in Sicht ist bzw. ein Turing ohne den ganzen RT Kram sich wahrscheinlich auch nicht sonderlich von Pascal absetzen kann, von dem zudem die Lager ja wohl übervoll sind, weswegen man da vielleicht auch gar nicht konkurrieren will. Mit einer guten Architektur und dem 7nm Prozess könnte man den 500 € Bereich und darunter vielleicht wieder für sich gewinnen - zumindest bis NVIDIA nachlegt...

Aber mal abwarten - so einen RV770 Stunt könnte ich mir aber durchaus vorstellen. So gewaltig groß müsste ein entsprechender 7nm Chip ja nicht sein und wenn man zunächst wirklich nur einen Chip plus den zugehörigen Salvage anbietet, so finde ich spätes H1 2019 auch gar nicht so unrealistisch. So zeigt man sich zur E3 bzw. später zur Gamescom dann halt mit Zen 2 und Navi als gute Partie. Man stelle sich mal vor - 2080 Ti Rasterizing Leistung zum halben Preis. Das wäre schon was, wobei das natürlich erst mit den großen Navis käme, mit denen ja wohl frühestens Ende 2019 zu rechnen ist...

HOT
2018-09-19, 23:12:00
Ohne GloFo halte ich Q1 oder 1Hj für ziemlich illusorisch. Erst kommt V20 in die Massenproduktion und dann Zen2. Erst wenn diese Märkte voll bedient sind wird man N10 bringen.

Dino-Fossil
2018-09-20, 00:04:07
Wenn Navi wirklich mit Blick auf die kommenden Konsolen entwickelt worden ist, dann wäre es denke ich schon möglich, dass man hier Computing Leistung opfert um im Gaming besser darzustehen und so alles was schlanker wird weil man keine hohe DP Leistung etc. mehr braucht. Der 7nm Vega ist da eventuell ein Indiz dafür, denn wenn mit Navi eine grundlegend bessere Architektur für HPC vor der Tür stünde, warum sollte man dann noch so einen Vega 7nm Stunt hinlegen?

Jein, GCN ist da ja eigentlich relativ flexibel und gerade für HPC sind die ganzen Gaming-Flaschenhälse eher unwichtig. Denn Rohleistung hat GCN und bei Compute-Anwendungen kann die sich auch entfalten, jedenfalls wenn die Software-Infrastruktur gegeben ist (AMD fehlt leider noch ein Stück weit sowas wie CUDA).
Wobei heute auch ein paar andere Sachen wichtiger werden (z.B. AI/neuronale Netze), ich denke da setzt dann auch V20 an. Navi würde daher wohl sowieso wenig fundamental besseres für HPC bringen.
Ob man dann aber auf so viel Verzichten kann, dass die CUs nur wegen Compute aufbläht? Bin ich mir nicht so sicher...

Nightspider
2018-09-20, 00:07:25
Mal eine blöde Frage:

Wenn es nicht um Gaming und Bildberechnung geht, könnte man für HPC/Server Andwendungen nicht auch wie bei Epic mehrere Dies zusammenstecken?
Also quasi kleine 7nm GPUs, davon 2 oder 4 Stück, auf einem Interposer zusammenwerkeln lassen?

Keine Ahnung ob das hier schon mal Thema war, kam mir gerade nur so spontan in den Sinn.


Die nächsten offiziellen Infos dürfte es erst in einem Monat geben bei den nächsten Quartalszahlen oder?

w0mbat
2018-09-20, 00:09:32
Ohne GloFo halte ich Q1 oder 1Hj für ziemlich illusorisch. Erst kommt V20 in die Massenproduktion und dann Zen2. Erst wenn diese Märkte voll bedient sind wird man N10 bringen.
GloFo's 7nm war auch vor der Einstellung nicht relevant für Q1 oder H1 2019.

robbitop
2018-09-20, 04:33:09
Mal eine blöde Frage:

Wenn es nicht um Gaming und Bildberechnung geht, könnte man für HPC/Server Andwendungen nicht auch wie bei Epic mehrere Dies zusammenstecken?
Also quasi kleine 7nm GPUs, davon 2 oder 4 Stück, auf einem Interposer zusammenwerkeln lassen?

Keine Ahnung ob das hier schon mal Thema war, kam mir gerade nur so spontan in den Sinn.


Die nächsten offiziellen Infos dürfte es erst in einem Monat geben bei den nächsten Quartalszahlen oder?
Für hpc scheint das möglich zu sein. Scheint sogar über nvlink zu reichen. Siehe dgx.

mboeller
2018-09-20, 07:52:12
...aber Navi Ende Q2/Anfang Q3 ist aus meiner Sicht die Grenze wie weit man sich aus dem Fenster trauen sollte.


Computex 2019?

mboeller
2018-09-20, 07:56:32
Ohne GloFo halte ich Q1 oder 1Hj für ziemlich illusorisch. Erst kommt V20 in die Massenproduktion und dann Zen2. Erst wenn diese Märkte voll bedient sind wird man N10 bringen.

mit GloFo wäre eher 2020 realistisch!

HOT
2018-09-20, 09:41:31
Leute, es geht um die Planung, nicht um GloFos Fertigung. Wenn GloFo den Großteil der Zen2-Chips beigesteuert hätte, könnte man mit Navi bei TSMC früher aus dem Quark kommen.

w0mbat
2018-09-20, 10:37:55
Aber da GloFo's 7nm Prozess ehr nur für 2H19 Entlastung gebracht hätte, ändert das für Navi in 1Q/1H nichts.

HOT
2018-09-20, 10:45:08
Ich schreib offensichtlich chinesisch. Also nochmal ganz langsam: Wenn GloFo einen Großteil der Zen2-Chips beigesteuert hätte, hätte man keine so große Massenfertigung bei TSMC aufziehen müssen dafür, ergo hätte man früher Kapazitäten frei gehabt, um auch Navi früher bringen zu können, allerdings wären dann consumer-Zen2-Chips kaum vor H2 denkbar gewesen. GloFo hätte sicherlich eh nur Zen2 gefertigt. Ist es jetzt klarer? Zen2 kommt jetzt vielleicht sogar etwas früher, als wenn GloFo mit im Boot gewesen wäre, aber dafür kommt Navi halt später. Die werden Navi erst anfangen, wenn der Markt für Prozessoren gesättigt ist. Das wiederum könnte schwierig werden, wenn Intel bis dahin halt nur 14nm-Schrott bringt. Verstehst du das Dilemma? Die werden Navi sicher irgendwann bringen, aber er hat schlicht keine große Priorität! AMD wird alles dem Zen2-Absatz unterordnen.

mboeller
2018-09-20, 10:47:33
Aber da GloFo's 7nm Prozess ehr nur für 2H19 Entlastung gebracht hätte, ändert das für Navi in 1Q/1H nichts.

2H/19 ist aber imho SEHR optimistisch! Der allererste 7nm Tape-out war für Q4/18 geplant (eine AMD CPU, siehe anandtech). Danach noch 12 Monate wenn alles ohne Probleme gut gelaufen wäre. Vor Q4/19 hätten wir IMHO keine 7nm CPUs von GF gesehen.

HOT
2018-09-20, 10:54:47
Das wär gegangen. Wenn GloFo die Massenfertigung bis 2019 hinbekommen hätte, braucht man vom Tapeout bis zum Release nicht mehr so lange, der Großteil der Arbeit an Zen2 ist eh bei TSMC erledigt worden. Da gehts ja nur noch im die Fertigstellung eines Chips auf einem anderen Prozess. Das ist aber alles eh Theorie, dazu kam es ja nicht mehr.

Der Zeitplan ist mit tödlicher Sicherheit wie folgt:

Q4 V20
Q1 19 Matisse für EPYC
Q2 19 Matisse für Consumer
Q4 19 N10
Q1 20 N14 und Renoir
Q2 20 Vermeer (AM4, EUV)
H2 20 N20 (EUV), Refreshes für N10/14 und Renoir in EUV.

Hübie
2018-09-20, 11:07:52
Oh, eine HOT-Prognose. :smile:

w0mbat
2018-09-20, 12:42:01
Ich schreib offensichtlich chinesisch.
Nein, ich verstehe dich glaube ich schon, du mich aber nicht :tongue:

GloFo's 7nm Prozess wäre ja frühestens Ende 2019 in die Pötte gekommen. D.h., erst dann hätte es Entlastungen bei TSMC geben können. Navi im 1H19 ist also undenkbar, mit oder ohne GloFo, da sich im 1H19 eh nichts ändert.

Klar könnte Navi im 2H19 vielleicht etwas früher kommen, wenn GloFo's 7nm Prozess dort angefangen hätte. Aber für das 1H19 ist es volkommen irrelevant.


2H/19 ist aber imho SEHR optimistisch! Der allererste 7nm Tape-out war für Q4/18 geplant (eine AMD CPU, siehe anandtech). Danach noch 12 Monate wenn alles ohne Probleme gut gelaufen wäre. Vor Q4/19 hätten wir IMHO keine 7nm CPUs von GF gesehen.

Genau, GloFo hat keinerlei Einfluss auf das 1H19 und selbst das 2H19 war noch ungewiss.

AffenJack
2018-09-20, 13:18:33
Der Zeitplan ist mit tödlicher Sicherheit wie folgt:

Q4 V20
Q1 19 Matisse für EPYC
Q2 19 Matisse für Consumer
Q4 19 N10
Q1 20 N14 und Renoir
Q2 20 Vermeer (AM4, EUV)
H2 20 N20 (EUV), Refreshes für N10/14 und Renoir in EUV.

Es kommt arg selten vor, dass ich deinen tödlich sicheren Zeitplänen zustimmen kann, aber im Moment würde ich hier ähnliches vermuten.

mboeller
2018-09-20, 13:43:39
Das wär gegangen. Wenn GloFo die Massenfertigung bis 2019 hinbekommen hätte, braucht man vom Tapeout bis zum Release nicht mehr so lange, der Großteil der Arbeit an Zen2 ist eh bei TSMC erledigt worden. Da gehts ja nur noch im die Fertigstellung eines Chips auf einem anderen Prozess. Das ist aber alles eh Theorie, dazu kam es ja nicht mehr.


ich glaube du verwechselst da was. GF hätte in Q4/2018 das allererste 7nm Tape-out überhaupt gehabt. Nicht das erste 7nm Tape-out für AMD.

Der Prozess war also noch am Anfang, vergleichbar mit TSMC vor ca. 1.5 Jahren

https://wccftech.com/tsmc-starts-prototype-7nm-chips-2018/

TSMC: erste 7nm Tape-outs in Q1-Q2/2017
GF: erstes 7nm Tape-out in Q4/2018

Der Prozess war bei GF noch lange nicht für eine Serienfertigung geeignet. Deshalb sind selbst Q4/19 für eine Serienfertigung eigentlich utopisch gewesen.

HOT
2018-09-20, 13:47:31
Bullshit. 7nm-Zen wär das 7nm-Tapeout von GloFo gewesen. Wenn GloFo die Massenfertigung ans Laufen bekommen hätte, hätte man ein halbes Jahr später den Prozessor in Händen gehalten. Noch ein paar Wochen Produktionsvorlauf maximal. Das war aber genau das Problem, AMD wäre eben der einzige Kunde gewesen. Daher stampfte man das Ganze ein, weil es für GloFo einfach zu teuer geworden wär. Der Prozessor ist ja bei TSMC entwickelt worden, GloFo hat die Transformation ja sogar dadurch erleichtert, dass man die Größe der Cache-Zellen angepasst hatte. Aber aus all dem wurde nichts. AMD wusste das mMn auch schon viel früher, von daher war das eh alles Oldnews. Zudem änderte sich ja danach auch noch der Markt, als klar wurde, dass es kein 10nm von Intel geben würde. All das führt dazu, dass AMD alles, aber auch alles, daran setzen wird, soviele Matisse wie irgendmöglich so früh wir irgend möglich zu produzieren. Vielleicht machen die eine Zusatzmaske jetzt für Samsung 7LPP, um die Produktion zu unterstützen, das wär auch noch ne Option. Ich würd wirklich nicht damit rechnen, dass AMD irgendwas abseits der Konsolen großartig an GPUs bringen wird, bis man mit Matisse ein Level erreicht hat, mit dem man alles bedienen kann.

AffenJack war ja auch bierernst gemeint :D.

Complicated
2018-09-20, 13:56:52
(AMD fehlt leider noch ein Stück weit sowas wie CUDA).

House of ROC: AMDs Alternative zu CUDA (https://www.heise.de/developer/artikel/House-of-ROC-AMDs-Alternative-zu-CUDA-3755863.html?seite=all)

mboeller
2018-09-20, 14:15:53
Bullshit.

Ja Bullshit, der GF-Typ hat einfach nur Schrott geredet im Interview


Later this year, GF will use immersion steppers to tape out its first 7-nm chip, an AMD processor. An IBM processor will follow with ASICs coming in 2019, said Patton.


https://www.eetimes.com/document.asp?doc_id=1333326&page_number=2

Dural
2018-09-20, 14:18:48
10 Jahre zu spät, Cuda hat sich schon längst etabliert.

aufkrawall
2018-09-20, 14:26:18
Das heißt trotzdem nicht, dass Intel und AMD Nvidia in Zukunft nicht angreifen könnten. Bzw. genau das wird passieren.