PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Dural
2018-09-20, 14:36:01
Das wird sehr schwer, gerade in diesem Bereich wird man das eigene Bewährte System nicht gleich von heute auf morgen auf dem Kopfstellen. Da geht es um weit mehr als eine Karte in den Slot zu stecken und die Software A oder eben B zu laden.

Dazu müsste AMD klar überlegene Hardware liefern, und das regelmässig.

aufkrawall
2018-09-20, 15:02:43
Ich seh da auch eher Intel mit der neuen GPU-Sparte als treibende Kraft (aggressive Rabatte...), aber AMD kann dann mit dem durch ROCm gelegten Fundament mit profitieren.

Dino-Fossil
2018-09-20, 16:28:04
House of ROC: AMDs Alternative zu CUDA (https://www.heise.de/developer/artikel/House-of-ROC-AMDs-Alternative-zu-CUDA-3755863.html?seite=all)

Ja, ist mir bekannt, halte ich auch für eine gute Initiative (deshalb ja "fehlt ein Stück weit"), jetzt müssen sie das aber etablieren und unter's Volk bekommen.
Sowas passiert nicht von heute auf morgen, ich sehe in meinem beruflichen Umfeld selbst immer wieder, dass CUDA in bestimmten Bereichen einfach der de-facto Standard ist und man von Dingen wie ROCm kaum bis nichts gehört hat.
Wobei da durchaus Interesse besteht, man muss halt abwarten wie sich das jetzt entwickelt. Ich hoffe AMD bleibt dran.

iuno
2018-09-20, 19:06:52
Auf der uralten leak-Roadmap loest bei den Pros Vega20 Hawaii ab und Navi10 dann Vega10 als "normaler" Beschleuniger inkl. ML ab. Also nicht das kleine inference Teil und auch nicht das mit viel FP64. Insofern wuerde ich nicht davon ausgehen, dass es besonders wenige CUs werden oder man die CUs in irgendeiner Form (ausser FP64) beschneiden soll.

N10 loest V10 also ueberall ab. Warum soll man dazu schon wieder an CUs sparen? Zur Abwechslung darf der Nachfolger auch mal wieder schneller und nicht nur effizienter werden. Zumal bei Navi scalabilty auf dem Programm steht, da wird dann ein N20 (oder was auch immer) hoffentlich mal ueber die 64 CUs hinaus kommen. Nvidia verbaut seit letztem Jahr in Volta 5.376 SP, waeren immerhin 84 CUs.

HOT
2018-09-20, 21:07:06
Das wär natürlich toll. Sowas würde den Markt ordentlich aufmischen.
Es wär ja auch möglich, dass man durch die Verzögerungen auch auf diese Idee gekommen ist, eben doch keinen richtigen Mainstreamchip zu machen sondern ne Nummer größer. Wir haben offenbar 3 Chips im Programm: N10, N14 und N20. Ich könnt mir vorstellen, dass das auch immer ne Nummer größer ist. Also N10 dann mit knapp 200mm² und 48 CUs, N14 dann deine 72-84 CUs und N20 die vollen 128 CUs.

OBrian
2018-09-20, 22:03:03
Zur Abwechslung darf der Nachfolger auch mal wieder schneller und nicht nur effizienter werden. Effizienz ist aber immer das allerwichtigste. In praktisch allen Klassen gibt es TDP-Bereiche, die man einhalten muss, weil der OEM die Karten sonst nicht verbaut, und innerhalb dieser TDP-Grenzen muss man dann möglichst viel Performance rausholen. Kosten darf es natürlich auch möglichst nichts. Wenn ich dann so eine sehr effiziente Architektur habe, dann kann ich damit einen so großen Chip bauen wie ich kann und das als High-End verkaufen, aber ohne gute Effizienz brauche ich da gar nicht erst dran zu denken, dann wird aus "so groß wie möglich" nur ein Konkurrent für den "Performance"-Chip des Mitbewerbers.

Man kann hoffen, dass die Chips für den Consumerbereich etwas effizienter bzgl. Gamingperformance arbeiten, wenn die die Profi-Rechenfähigkeiten nicht haben. Aber ob das so viel bringt, werden wir ja sehen.

Und nur 7 nm wird es auch nicht rausreißen. AMD ist im Optimalfall evtl. ein paar Monate früher dran als Nvidia mit 7 nm, aber dann haben beide exakt den gleichen Prozess, und die Chips stehen lange parallel im Markt, d.h. der Zeitvorteil ist gering und der Prozessvorteil kürzt sich komplett weg. Bleibt die Architektur. Da muss schon so eine Art Grafik-Zen kommen.

Aber AMD sollte sich auch mal überlegen, mit der Spannung sparsamer umzugehen. Wenn sie ein bischen binnen und dann die Chips, die höhere Spannung brauchen, als Sonderedition an irgendwelche OEMs verticken, dann könnte die "normale" Karte, die das Image prägt, deutlich sparsamer sein. So ein "Undervolting ab Werk" hätte Vega auch schon extrem gut getan.

HOT
2018-09-20, 22:31:39
Die 7nm reißen einiges raus. Ich find das immer noch lustig, dass der Prozess immer noch unterschätzt wird. Wenn du einen halbwegs dicken Navi nahe des Sweetspot laufen lässt, hat Turing nicht den Hauch einer Chance in Sachen Effizienz. So wird es nicht laufen, aber das ist eben eine Tatsache. Mit 12nm kannst du einfach nicht gegen 7nm anstinken. Und Polaris vs. Maxwell wird sich nicht noch mal wiederholen.

Complicated
2018-09-20, 23:07:00
Ich denke AMD hat das recht clever gemacht mit dem Transit in die 7nm. Da so viel Kapazität für Zen2 Dies benötigt wird, war eine GPU um die 200mm2 die beste Wahl um eine möglichst effiziente Ausbeute aus den verfügbaren Wafern raus zu holen.
Bei TSMC wird Zen2 Priorität vor Nvidia haben und diese wiederum dadurch deutlich länger keine ausreichende Wafer haben um dem frühen Navi10 größere Chips entgegen zu setzen. Navi10 muss lediglich GP102 Performance übertreffen. Nvidia wird es schwerer haben genügend Wafer für sein Lineup zu bekommen, wegen den größeren Chips und dadurch auch schlechteren Yields.
AMD auf der anderen Seite hat es gar nicht eilig eine größere 7nm GPU in den Markt zu entlassen, solange sie alle Wafer die sie bekommen mit Zen2 als Epyc vergolden. Dadurch könnte auch Nvidia Engpässe bekommen.

Locuza
2018-09-20, 23:57:44
Als ob sich AMD Priorität bei TSMC im Vergleich zu Nvidia einheimsen könnte.
Nvidia hat selber ein verdammt großes Volumen und leistet sich teilweise extra Spielchen wie 12NFF (Nvidia FinFET).
Die haben das Kleingeld, um sich die Kapazität zu sichern die sie brauchen.

Digidi
2018-09-21, 00:04:17
Als ob sich AMD Priorität bei TSMC im Vergleich zu Nvidia einheimsen könnte.
Nvidia hat selber ein verdammt großes Volumen und leistet sich teilweise extra Spielchen wie 12NFF (Nvidia FinFET).
Die haben das Kleingeld, um sich die Kapazität zu sichern die sie brauchen.

TSMC freut sich aber nicht nur ein paar große Abnehmer zu haben. NVIDIA kann so die Preise diktieren. Konkurrenz tut gut das wissen im Gegensatz zu Fanboys die Firmen.

|MatMan|
2018-09-21, 00:54:35
Hauptsache AMD wirbt nicht wieder mit "months ahead" und wird dann wieder von nVidia überholt!

Menace
2018-09-21, 06:19:11
Hauptsache AMD wirbt nicht wieder mit "months ahead" und wird dann wieder von nVidia überholt!

Hat das AMD im Vergleich zu Nvidia gesagt? Dann bitte mit Quelle.

Oder meinten sie months ahead im Vergleich zu intel?

Months ahead im Pro-Markt oder Spiele-Markt? :confused:

BiZiNiZz
2018-09-21, 07:11:09
Hat das AMD im Vergleich zu Nvidia gesagt? Dann bitte mit Quelle.

Oder meinten sie months ahead im Vergleich zu intel?

Months ahead im Pro-Markt oder Spiele-Markt? :confused:

Dieses Months ahead kam Monate vor dem Polaris Release und ein paar Wochen danach hat nVidia Pascal auf den Markt geworfen, müsstest mal den Polaris Speku Thread durchwühlen

Menace
2018-09-21, 07:20:01
Dieses Months ahead kam Monate vor dem Polaris Release und ein paar Wochen danach hat nVidia Pascal auf den Markt geworfen, müsstest mal den Polaris Speku Thread durchwühlen

Ah. Jetzt. Sorry, mein Fehler. Ich habe |MatMan| falsch interpretiert und er würde sich auf 7nm-Aussagen beziehen.

Edit: Wobei Marketing bei AMD (früher?) wirklich katastrophal war.

|MatMan|
2018-09-21, 08:32:33
Ja genau, ich meinte den Polaris Launch. War ja schließlich der letzte Prozesswechsel ;-)

Complicated
2018-09-21, 08:59:04
Als ob sich AMD Priorität bei TSMC im Vergleich zu Nvidia einheimsen könnte.
High-End CPU? Potentiel 20% des Servermarktes? Wo hat Nvidia etwas vergleichbares im Portfolio? AMD wird wohl mehr als doppelt so viele Wafer brauchen wie Nvidia. Und das schon ohne Ryzen 2 eingerechnet. Tendenz steigend. Bei Nvidia wird zwar mehr Umsatz im GPU-Markt erzielt, doch TSMC verkauft nicht mehr Wafer dadurch nur weil Nvidia die Preise anzieht. Nvidia verkauft immer weniger Lowend, wo die Stückzahlen sind.

HOT
2018-09-21, 09:20:26
Das ist sowieso blödsinn, da NV ja 16nm-Kapazitäten nach wie vor nutzt und mit AMD lange Zeit gar nicht in Konkurrenz tritt bei TSMC. Und TSMC ist so ein gigantischer Laden mit so vielen Großabnehmern, denen diktiert niemand irgendwas.

LadyWhirlwind
2018-09-21, 12:25:12
Auch ist z.B der mobile Markt auch sehr zyklisch. AMD bringt neue Produkte ja nicht umsonst in Frühling. Da ist der Peak der Holiday Season vorbei und damit auch mehr kapazitäten frei.

][immy
2018-09-21, 12:30:00
Nun, dank nvidias RTX und Tensor cores könnte es AMD diesmal vielleicht wirklich schaffen perfromance pro/mm² mit nvidia gleich zu ziehen, zumindest in "klassischen" Bereichen. Allerdings müsste AMD endlich mal den Verbrauch in den Griff bekommen der im vergleich zu Konkurrenz einfach gigantisch ist, wobei nvidia GPUs sogar noch höher takten, was für den Verbrauch normalerweise nicht grad förderlich ist.
Allerdings hält nvidia auch nichts davon ab, ein high-end GPU ohne Tensor cores und RTX rauszubringen in einem Jahr wenn es dort keine Fortschritte gibt, was wohl recht viel DIE-Fläche und damit kosten einsparen könnte.

Locuza
2018-09-21, 16:35:34
High-End CPU? Potentiel 20% des Servermarktes? Wo hat Nvidia etwas vergleichbares im Portfolio? AMD wird wohl mehr als doppelt so viele Wafer brauchen wie Nvidia. Und das schon ohne Ryzen 2 eingerechnet. Tendenz steigend. Bei Nvidia wird zwar mehr Umsatz im GPU-Markt erzielt, doch TSMC verkauft nicht mehr Wafer dadurch nur weil Nvidia die Preise anzieht. Nvidia verkauft immer weniger Lowend, wo die Stückzahlen sind.
Nvidia hat im ersten Fiskalquartal 2019 über 3,2Mrd. Umsatz gemacht und damit fast doppelt soviel wie AMD.

Nvidia ist Marktführer in etlichen Bereichen und jetzt soll AMD sich einfach Kapazität wegschnappen können, sodass Nvidia warten muss und doof aus der Wäsche gucken?
Im Notfall bezahlt Nvidia mehr und fertig ist die Soße.

AMD hat ein großes Wachstumspotential, aber man sollte jetzt nicht so tun, als ob Nvidias Wafer-Ausstoß gering wäre und denen das nötige Kleingeld fehlen würde, um sich die nötigen Waferkapazitäten zu sichern.

hilo
2018-09-21, 17:20:46
Nvidia hat doch Samsung ins Spiel gebracht. Warum sollten sie das tun, wenn sie bei TSMC gesetzt wären? Samsung hat noch nicht mal Erfahrung mit einem so großen Chip, soweit ich weiß. Ich glaube auch nicht, daß Nvidia Lust hat, Phantasiepreise zu zahlen, nur um sich Kapazitäten nachträglich zu sichern, die AMD doch bestimmt preiswerter bekommen hat, als das Ganze noch ein wesentlich risikoreicheres Engagement war. Also eine "gemähte Wiese" ist das nicht für Nvidia.

ndrs
2018-09-21, 17:46:36
Nvidia hat im ersten Fiskalquartal 2019 über 3,2Mrd. Umsatz gemacht und damit fast doppelt soviel wie AMD.
Der Zusammenhang zwischen Umsatz mit benötigten Waferkapazitäten ist an dieser Stelle nicht so optimal. Ein Raven Ridge geht aktuell bei 35€ los, ein Ryzen bei knapp 80. Der Endkundenpreis ist natürlich wesentlich höher als der Umsatz in AMDs Büchern Beide haben (genaue Zahlen hab ich grad nicht im Kopf) um die 200mm^2.

Wieviel Umsatz mag wohl nVidia mit einem 200mm^2 Produkt machen? Man müsste schon zuverlässige Zahlen über die ausgelieferten Stückzahlen haben, um hier schlüssig argumentieren zu können.

HOT
2018-09-21, 18:58:19
Nvidia hat im ersten Fiskalquartal 2019 über 3,2Mrd. Umsatz gemacht und damit fast doppelt soviel wie AMD.

Nvidia ist Marktführer in etlichen Bereichen und jetzt soll AMD sich einfach Kapazität wegschnappen können, sodass Nvidia warten muss und doof aus der Wäsche gucken?
Im Notfall bezahlt Nvidia mehr und fertig ist die Soße.

AMD hat ein großes Wachstumspotential, aber man sollte jetzt nicht so tun, als ob Nvidias Wafer-Ausstoß gering wäre und denen das nötige Kleingeld fehlen würde, um sich die nötigen Waferkapazitäten zu sichern.
Was soll der Quatsch? NV belegt 16/12nm, AMD 7nm. Das konkurriert gar nicht miteinander. Und wenn AMD sogar gegen Apple genug 7nm-Ressourcen abbekommt, wird das gegen NV erst recht klappen :freak:. Bis NV soweit ist mit 7nm ist AMD schon ein Jahr im Geschäft.

Complicated
2018-09-21, 19:48:42
AMD interessieren nicht Nvidias Anteile. Der Servermarkt ist 22 Mrd. Groß und 20 % davon kann AMD in den nächsten 2 Jahren erreichen die Margen sind höher als bei GPU (im Durchschnitt) und die 7nm Vega20 ist ebenfalls im Bereich der hohen Margen (Datacenter da macht Nvidia 500 Mio im Quartal)

Warum solllte AMD versuchen Nvidia Anteile, die ca. 10% von Intels Markt ausmachen, abzujagen? Sie haben ganz andere Märkte die Nvidia nie zu sehen bekommt mit dem derzeitigen Portfolio. Die 7nm Knappheit wird durch CPU verursacht und nicht durch GPUs.

Locuza
2018-09-21, 19:59:18
Ja, Nvidia als GPU-Marktführer in mehreren Bereichen, die über das Fiskaljahr 2018 ~5,3 Mrd. Umsatz im Gaming Markt erwirtschaftet haben und deren Data-Center Bereich stetig wächst und ebenso Vorreiter bei AI-Systems ist, wird demnächst wohl weinend vor dem Fenster stehen wenn es um 7nm Kapazität geht, weil AMD der Big Boss bei TSMC alles weg gebucht hat und Nvidia preislich nicht mit bieten konnte.

Whatever.

hilo
2018-09-21, 21:11:15
Da (https://www.pcgamesn.com/amd-navi-gpu-release-date-performance?amp=) glaubt jemand tatsächlich, daß Navi im ersten Halbjahr 2019 erscheinen wird. Allerdings der Satz "However, Navi will likely be pretty adept with the Vulkan API, and should be a little more efficient than Vega thanks to the 7nm process." hat mir dann doch ein Schmunzeln abgerungen...
Na ja, glaube ich, wenn ich es sehe (also den Erscheinungstermin).

Edit: ist im wesentlichen bloß Spekulation gemischt mit dem bekannten Interview mit David Wang

Platos
2018-09-21, 22:43:40
Was für eine (theoretische) Perfomancesteigerung kann man sich eig. von 7nm vs. 12nm TSMC vorstellen? Also nicht der erstmalige 16nm Prozess sondern eben 12nm vs 7nm. Ich meinte im 3dCenter mal was von +55% gelesen zu haben bei gleicher Fläche und Stromverbrauch.

Bei diesen riesen nvidida Chips wird es aber vermutlich dann nicht 55% sein, da die das nächste mal sicher etwas kleinere Chips wollen (gerade bei 7nm eig. zwingend).

Bei gleicher Chipfläche und Stromverbrauch.

Und wenn man bedenkt, dass nvdida vermutlich nicht nochmals so riesen Chips bringt, wird die Mehrperfomance vlt. gar nicht mehr sooo gut ausfallen.

reaperrr
2018-09-21, 23:14:40
Was für eine (theoretische) Perfomancesteigerung kann man sich eig. von 7nm vs. 12nm TSMC vorstellen? Also nicht der erstmalige 16nm Prozess sondern eben 12nm vs 7nm. Ich meinte im 3dCenter mal was von +55% gelesen zu haben bei gleicher Fläche und Stromverbrauch.

Bei diesen riesen nvidida Chips wird es aber vermutlich dann nicht 55% sein, da die das nächste mal sicher etwas kleinere Chips wollen (gerade bei 7nm eig. zwingend).

Bei gleicher Chipfläche und Stromverbrauch.

Und wenn man bedenkt, dass nvdida vermutlich nicht nochmals so riesen Chips bringt, wird die Mehrperfomance vlt. gar nicht mehr sooo gut ausfallen.

Also bei gleicher Fläche und Verbrauch sollte theoretisch auch fast die doppelte Performance drin sein, da 7nm grob die doppelte Packdichte von 12nm erreichen sollte.
Wobei ich denke, dass dies in der Praxis etwas durch die Speicherbandbreite gebremst wird, die lässt sich, da Turing ja schon GDDR6 nutzt, nur noch durch deutlich breitere Interfaces verdoppeln, und dann kommt es mit der Fläche nicht mehr hin.

Aber in Hinsicht auf absolute Performancesteigerung erwarte ich, dass es erstmal eine Pascal-ähnliche Zwischenstufe geben wird.
TU104 ist für einen xx104 geradezu gigantisch, meine Prognose für den ersten 7nm-xx104 wäre daher, dass ähnlich wie bei GP104 gegenüber dem Vorgänger einfach nur 2 SM je GPC dazukommen und der Chiptakt um ca. 20% steigt, und sich sonst nur Kleinigkeiten verbessern.
Das sollte immerhin für 2080Ti-Leistung in einem 300-350mm²-Chip reichen.

OBrian
2018-09-21, 23:24:11
Natürlich ist 7 nm besser als 12 nm, das steht ja wohl außer Frage. Aber nur weil Nvidia jetzt erstmal auf 12 nm wechselt und deswegen etwas später auf 7 nm als AMD, die so schnell wie möglich auf 7 nm gehen, heißt das ja nicht, dass Nvidia nicht nachziehen wird. Die haben evtl. etwas weniger Druck, das ist alles.

Aber was will AMD denn machen, sobald Nvidia auch auf 7 nm wechselt? Und das wird nicht ewig dauern, vielleicht ein halbes Jahr oder so. Nvidia wird dann mit einer ggü. Turing verbesserten Architektur kommen, so einen Schritt müsste AMD dann auch machen, innerhalb 7 nm, also von Navi auf "Navi 2" oder wie auch immer das heißen soll, aber beides stellt dann auch nur den alten Abstand wieder her.

Wenn Navi nur durch 7 nm besser wird als Vega, dann wird das nicht reichen, dann ist AMD ganz schnell wieder da, wo sie jetzt sind, sobald Nvidia auch auf 7 nm geht. Man kann sich nicht darauf ausruhen, mit Prozessvorteil seinen Architekturnachteil auszubügeln, 7-nm-Chips gegen die 12-nm-Chips der Konkurrenz gerade so anstinken zu können. Das gibt ihnen eine kleine Weile Entlastung, aber da muss mehr kommen.

hilo
2018-09-22, 00:20:37
"Man kann sich nicht darauf ausruhen, mit Prozessvorteil seinen Architekturnachteil auszubügeln [...]"

Zumal shrinks kostbarer (im Wortsinne) und seltener werden dürften. Lisa Su meinte ja schon, daß uns 7nm eine ganze Weile begleiten werden, da müssen also notgedrungen immer öfter vor allem die Architekturverbesserungen es reißen. Vielleicht hilft ja AMDs bisher ungeklärte ominöse scalability in dieser Richtung.

basix
2018-09-22, 11:08:21
Vermutlich wird es ja in etwa so mit 7nm aussehen:

V20 in Q4/18
Zen 2 in Q1/19
Nvidia HPC Chip zur GTC 2019 (Mitte März)
Navi Q2-Q3 2019
Nvidia 7nm Gaming Chip Q3-Q4 2019
Zen 2 + Navi APU Q3-Q4 2019 (MCM?)


Das Navi erst 2020 kommt halte ich für Blödsinn. Es wäre meiner Meinung nach wichtig, das AMD bei den APUs Gas gibt. Weil dort werden sie Mitte nächstes Jahr eine Lücke im Portfolio haben im Vergleich zu Server und Desktop CPUs. Eine 7nm APU macht meiner Meinung nach nur mit Navi Sinn. Deswegen müsste eine diskrete Navi GPU vor der APU kommen. Eigentlich hören sich die ganzen Gerüchte um 8C Chiplets plus MCM Konstrukt bei EPYC 2 sinnvoll an. Macht man eine vergleichsweise kleine Navi GPU und verwendet diese in einer APU auf die selbe Weise (ähnlich Kabylake-G aber ohne HBM), reduziert das massiv den Entwicklungsaufwand als auch die Time-to-Market. Raven Ridge hat meiner Meinung nach daran gekrankt, dass er erst nach der Holiday-Season erschienen ist und man den Weihnachtsmarkt nicht mitnehmen konnte, wo meistens all die neuen Notebooks vorgestellt werden. Ich denke, das will AMD dieses Mal vermeiden. Ein 4-8C Zen 2 Chiplet + eine stark Teildefekte/deaktivierte Navi GPU (was den Yield extrem hochtreiben sollte, da man sicher 50% der Shader deaktivieren könnte) wäre ein ziemlich performantes Konstrukt. Im Low-End Bereich könnte man alternativ immer noch den billig zu produzierenden RR verkaufen, aber in den teuren und margenträchtigen Ultrabooks sowie im High-End Bereich käme dann die 7nm Generation rein. Da 7nm anfangs nicht sehr hohe Yields haben wird, wäre das meiner Meinung nach die perfekte Lösung, um trotzdem möglichst alle produzierte DIE verwertbar zu machen als auch die Entwicklungskosten und Time-to-Market tief zu halten.

robbitop
2018-09-22, 11:12:11
Chiplets sind aber nicht gerade günstig. Insbesondere wenn SI und hbm Zum Einsatz kommen. Für den APU Markt ggf zu teuer.

HOT
2018-09-22, 11:23:48
"Man kann sich nicht darauf ausruhen, mit Prozessvorteil seinen Architekturnachteil auszubügeln [...]"

Zumal shrinks kostbarer (im Wortsinne) und seltener werden dürften. Lisa Su meinte ja schon, daß uns 7nm eine ganze Weile begleiten werden, da müssen also notgedrungen immer öfter vor allem die Architekturverbesserungen es reißen. Vielleicht hilft ja AMDs bisher ungeklärte ominöse scalability in dieser Richtung.
Wenn die Maske nicht gleich bleiben kann, wie bei 12nm, dann gibts Shrinks einfach nicht mehr. Sowas lohnt sich einfach nicht mehr.

Und NV mit 7nm ist in 2019 wirklich völlig illusorisch im Gamingbereich. Die haben jetzt grad mal die TU104 auf den Markt gebracht und bringen im Laufe 2019 die kleineren TUs auf den Markt. NV wird, allein schon aus Yield-Gründen, garantiert erst 7nm mit EUV machen und das dauert auf jeden Fall bis 2020. Ich würd mal mit Q3 2020 rechnen für den nächsten 104er frühestens. Erst da wird NV mit AMD-Marktanteilen in 7nm konkurrieren, in dem Falle Zen3 (was denke ich einfach ein Zen2 mit EUV sein wird).
Apere (AM100) wird sicherlich viel früher erscheinen, denn den wird NV auch in DUV machen, die brauchen auch langsam nen Nachfolger für GV100. März ist da sicherlich ne gute Prognose. Vielleicht wird der ja auch 7LPP Samsung und kommt im 2.HJ.

AMD:
N10 Q3 2019
N14 Q4 2019 oder Q1 2020
N20 Q3 oder 4 2020 (7 EUV)

NV:
XX104 Q3 2020
XX102/106 Q4 2020
XX107/8 Q2 2021 in 6LPP

Die Zyklen werden länger.
Kepler -> Maxwell2: 1 1/2 Jahre
Maxwell2 -> Pascal: etwas weniger als 2 Jahre
Pascal -> Turing: etwas mehr als 2 Jahre
Turing -> 7nm-EUV-Nachfolger: Mindestens 2 Jahre; Im Hinterkopf behalten, dass für Turing eigentlich 10nm vorgesehen waren, das sieht man allein schon an der Chipsgröße.

basix
2018-09-22, 11:44:12
Chiplets sind aber nicht gerade günstig. Insbesondere wenn SI und hbm Zum Einsatz kommen. Für den APU Markt ggf zu teuer.

Vielleicht ist Chiplets das falsche Wort. Evtl. ist MCM akkurater.

Es wird eben kein HBM zum Einsatz kommen. Navi wird auf GDDR6 setzen und in APUs auf DDR4. Den Memory-Controller Traffic kann man über Infinity Fabric leiten. GPUs sind da nicht so Latenz-kritisch. Da EPYC auch ohne SI funktioniert, muss es also nicht zwingend einen SI haben. Bei APUs hält sich die Speicherbandbreite ja in Grenzen, wenn man nur Dual-Channel DDR4 verwendet und entsprechend sollte der Energieverbruach auch OK sein.

robbitop
2018-09-22, 11:48:56
N14+Matisse? Wäre nicht uninteressant. Aber ich denke , dass Renoir (ende 2019) winfach nur eine herkömmliche APU mit Zen2 und Navi in 7nm sein wird. Interessant wäre aber so ein Produkt schon. Auch für etwas mehr Performance:)

HOT
2018-09-22, 11:52:03
Jo bei Renoir sind sicherlich 8 Zen2-Kerne und 14 CUs zu erwarten und das monolithisch. Vielleicht entsteht in Zusammenarbeit mit China dann eher wieder eine weitere Groß-APU wie Fenghuang. Die werden ja auch nicht untätig sein.
N14 halte ich für ein Zwischenmodell zwischen N10 und N20. Was anderes macht da eigentlich keinen Sinn. Eine kleinere Variante hätte N11 geheißen und dafür gibts ja Polaris 30. Und die ganzen Mobile-Klamotten sind ja gescheitert. P22 wenn man es genau nimmt eigentlich auch. Vega Mobile ist mMn genauso gecancelt worden wie V11. Da kommt nix mehr.

Also:
P12/21 (RX 630/40/50)
P30 (RX 660/65)
N10 (RX 670/75)
N14 (RX 680/85)
N20 (RX 690/95)

so wird das Lineup aussehen. N10 und N14 werden sich auch für Notebooks eignen, das passt schon. Kleinere braucht man eh nur noch für Desktop, da kann man also bei 12nm bleiben. Intel hat bis dahin eigene potente Lösungen in dem Bereich und erst recht mobile, AMD bricht dieser Markt abseits der eigenen APUs also sowieso weg. Hat auch überhaupt nicht funktioniert, die werden das nicht weiter versuchen. für Mobile ausschließlich interessant sind eigentlich nur Fenghuang, Renoir und ein evtl. Fenghuang2 in 7nm.

basix
2018-09-22, 11:59:25
Vermutlich wird es ein herkömmliche APU, das ist richtig. Aber momentan gibt es ja EPYC 2 Gerüchte zu 8x8C + Base DIE. Könnte AMD den selben Ansatz für Consumer verwenden (vielleicht mit stark entschlacktem Base DIE ohne Server Features), könnte man mehr oder minder beliebig Module aus CPU + GPU zusammenstecken. Sagen wir über 3x xGMI könnte man 16C + 1x GPU im Desktop bringen. Im Notebookmarkt dann nur mit 8C und kleinerer GPU. Das hätte an mehreren Fronten Vorteile. Den einzigen Nachteil sehe ich in potentiell höherem Stromverbrauch sowie der Packaging Kompexität.

fondness
2018-09-22, 12:47:37
AMD interessieren nicht Nvidias Anteile. Der Servermarkt ist 22 Mrd. Groß und 20 % davon kann AMD in den nächsten 2 Jahren erreichen die Margen sind höher als bei GPU (im Durchschnitt) und die 7nm Vega20 ist ebenfalls im Bereich der hohen Margen (Datacenter da macht Nvidia 500 Mio im Quartal)

Warum solllte AMD versuchen Nvidia Anteile, die ca. 10% von Intels Markt ausmachen, abzujagen? Sie haben ganz andere Märkte die Nvidia nie zu sehen bekommt mit dem derzeitigen Portfolio. Die 7nm Knappheit wird durch CPU verursacht und nicht durch GPUs.

AMD muss erstmal froh sein, wenn sie für die entfallene GF-Fertigung so schnell Ersatz von TSMC bekommen und wenn das nicht zu deutlichen Verzögerungen und/oder Lieferproblemen führt. Ich schätze, dass AMD und NV aktuell ungefähr gleich viel Wafer benötigen, NV verkauft ihr Silizium aber zu deutlich höheren Preisen im Schnitt.

mboeller
2018-09-22, 13:02:20
AMD muss erstmal froh sein, wenn sie für die entfallene GF-Fertigung so schnell Ersatz von TSMC bekommen und wenn das nicht zu deutlichen Verzögerungen und/oder Lieferproblemen führt. Ich schätze, dass AMD und NV aktuell ungefähr gleich viel Wafer benötigen, NV verkauft ihr Silizium aber zu deutlich höheren Preisen im Schnitt.


welche Fertigung entfällt denn....

fondness
2018-09-22, 13:16:04
welche Fertigung entfällt denn....

?
Die 7nm Fertigung von GF entfällt. Das wären bis zu 60.000 300-mm-Wafer pro Monat sobald man die 14nm Fertigung nicht mehr verwendet. Vermutlich also alles was AMD für APUs und womöglich auch noch andere Produkte vorgesehen hatte. Ob man dafür bei TSMC so kurzfristig Ersatz bekommt muss sich erstmal zeigen.

Schnitzl
2018-09-22, 13:36:05
Jo bei Renoir sind sicherlich 8 Zen2-Kerne und 14 CUs zu erwarten und das monolithisch. Vielleicht entsteht in Zusammenarbeit mit China dann eher wieder eine weitere Groß-APU wie Fenghuang. Die werden ja auch nicht untätig sein.
N14 halte ich für ein Zwischenmodell zwischen N10 und N20. Was anderes macht da eigentlich keinen Sinn. Eine kleinere Variante hätte N11 geheißen und dafür gibts ja Polaris 30. Und die ganzen Mobile-Klamotten sind ja gescheitert. P22 wenn man es genau nimmt eigentlich auch. Vega Mobile ist mMn genauso gecancelt worden wie V11. Da kommt nix mehr.

Also:
P12/21 (RX 630/40/50)
P30 (RX 660/65)
N10 (RX 670/75)
N14 (RX 680/85)
N20 (RX 690/95)

so wird das Lineup aussehen. N10 und N14 werden sich auch für Notebooks eignen, das passt schon. Kleinere braucht man eh nur noch für Desktop, da kann man also bei 12nm bleiben. Intel hat bis dahin eigene potente Lösungen in dem Bereich und erst recht mobile, AMD bricht dieser Markt abseits der eigenen APUs also sowieso weg. Hat auch überhaupt nicht funktioniert, die werden das nicht weiter versuchen. für Mobile ausschließlich interessant sind eigentlich nur Fenghuang, Renoir und ein evtl. Fenghuang2 in 7nm.
ich bezweifle dass AMD in der Lage ist so viele verschiedene Chips zu entwickeln.
wenn ich mal spekulieren darf:

P30 (RX 650/660)
N10 (RX 670/680)
N14 (Navi(?)xx,yy)
evtl. N20 später dann

oder nur ein Navi, der dann wie Vega umgebaut wird zum Profichip?

spotz
2018-09-22, 13:57:26
?
Die 7nm Fertigung von GF entfällt. Das wären bis zu 60.000 300-mm-Wafer pro Monat sobald man die 14nm Fertigung nicht mehr verwendet. Vermutlich also alles was AMD für APUs und womöglich auch noch andere Produkte vorgesehen hatte. Ob man dafür bei TSMC so kurzfristig Ersatz bekommt muss sich erstmal zeigen.
Stünde nicht auch Samsung als Partner für AMD und Nvidia zur Verfügung? Soweit ich weiß lässt Nvidia jetzt schon einen Teil ihrer Pascal Chips dort fertigen. Das könnte AMD doch auch machen, jetzt wo Glofo ausfällt. Ich vermute mal das Samsung bei der 7nm Fertigung ähnlich weit ist wie Glofo. Außerdem fertigen die in 10nm und 8nm (verbessertes 10nm).

megachip800
2018-09-22, 14:04:09
Bietet Navi eigentlich Tilebase u. Deffered Renderng technolgien an?

Linmoum
2018-09-22, 14:12:24
?
Die 7nm Fertigung von GF entfällt. Das wären bis zu 60.000 300-mm-Wafer pro Monat sobald man die 14nm Fertigung nicht mehr verwendet. Vermutlich also alles was AMD für APUs und womöglich auch noch andere Produkte vorgesehen hatte. Ob man dafür bei TSMC so kurzfristig Ersatz bekommt muss sich erstmal zeigen.
Da braucht es nicht kurzfristigen Ersatz. Es hat schon seinen Grund, warum bei GloFo genau ein einziges Tapeout geplant war und das für Q4 2018. Der Rest war eben auch schon weit vorher für TSMC eingeplant.

Das popelige bisschen, was GloFo da an Kapazitäten zur Verfügung gehabt hätte, da eben auch noch massig 14nm gebraucht werden... Ganz davon abgesehen, dass sie sowieso massiv im Zeitplan hinter TSMC lagen.

mboeller
2018-09-22, 15:00:43
?
Die 7nm Fertigung von GF entfällt. Das wären bis zu 60.000 300-mm-Wafer pro Monat sobald man die 14nm Fertigung nicht mehr verwendet. .

... irgendwann 2020; also völlig nutzlos

HOT
2018-09-22, 15:36:50
ich bezweifle dass AMD in der Lage ist so viele verschiedene Chips zu entwickeln.
wenn ich mal spekulieren darf:

P30 (RX 650/660)
N10 (RX 670/680)
N14 (Navi(?)xx,yy)
evtl. N20 später dann

oder nur ein Navi, der dann wie Vega umgebaut wird zum Profichip?

Siehe Zeitplan. Klar wird man die 3 Chips fertigstellen, man braucht ja auch alle 3.

Dann eher RX670/680 N10

und später dann RX780/90 N14 und RX770/60 N10 - N20 könnte dann ein RX Navi 128 mit 16GB HBM3 @ 1024 GT/s (2 Stapel) werden.

N10 würde ich sagen hat 36 und 48 CUs, 12GB 192bit GDDR6 14 und 16GT/s, <200mm².
N14 würd ich auf 64 und 80 CUs mit 16GB 256Bit GDDR6 16-18 GT/s tippen, ~320mm².
N20 dann 96 und 128 CUs mit 16GB HBM3 ~450mm²

horn 12
2018-09-22, 16:00:42
AMD Bringt RayTracing und die Primitive Shader zum Laufen, Wetten!

reaperrr
2018-09-22, 16:37:11
Siehe Zeitplan. Klar wird man die 3 Chips fertigstellen, man braucht ja auch alle 3.

Dann eher RX670/680 N10

und später dann RX780/90 N14 und RX770/60 N10 - N20 könnte dann ein RX Navi 128 mit 16GB HBM3 @ 1024 GT/s (2 Stapel) werden.

N10 würde ich sagen hat 36 und 48 CUs, 12GB 192bit GDDR6 14 und 16GT/s, <200mm².
N14 würd ich auf 64 und 80 CUs mit 16GB 256Bit GDDR6 16-18 GT/s tippen, ~320mm².
N20 dann 96 und 128 CUs mit 16GB HBM3 ~450mm²
Ich tippe eher:

N10: 48 CUs (falls größere Verbesserungen) oder 64 CUs (falls kaum Änderungen), 256bit SI, 8GB GDDR6 12 und 14 Gbps, <230mm². Ersetzt Vega10.
N14: 24-32 CUs, 128 bit SI, 4GB GDDR6 12 und 14 Gbps, <130mm². Ersetzt P10 (leistungsmäßig, preislich eher RX 560).
N20: sehe ich ähnlich wie du, aber so stark wird der Salvage-Part nicht beschnitten, max. 8-12 CUs weniger als der Vollausbau.

MadPenguin
2018-09-22, 17:07:48
In jedem 2. Interview spricht AMD vom allin in 7nm. Nehme an, dass schon vor einiger Zeit die möglichen Kontingenten für sich reserviert worden sind.

pixeljetstream
2018-09-22, 17:12:06
AMD Bringt RayTracing und die Primitive Shader zum Laufen, Wetten!

Denke ich auch. Im Grunde müssen sie auch bloß bis irgendwo zwischen 2070-2080 mithalten, da die sub 500€ Region für Marketshare interessanter ist und der + neue Konsolen schon Bedeutung hätten. Für mehr denke ich fehlen aber die Ressourcen und der Abstand zum Aufholen ist zu groß. Wirtschaftlich wird's aber immer noch eng weil so günstig wird 7nm anfangs sicher nicht.
Aber für die Konsumenten wird 2019/2020 dann preislich interessanter, weil mehr Auswahl.

AlterSack
2018-09-22, 18:02:03
Vorausgestzt AMD löst bei Navi das Skalierungsproblem, wären allein
dadurch mindestens 30%, eher 40% mehr Frames gegenüber Vega drin.
Vega64 ist etwa 60% schneller als eine RX580, sollte aber
eigentlich annähernd doppelt so schnell sein. Insofern lohnte
sich sogar ein 12nm Navi64. Könnte AMD zusätzlich noch seine
Architektur um 10-15% schneller machen und durch 7nm
20% Takt rausholen, darf sich jeder selbst ausmalen wo ein Navi64
stehen könnte. Das werden auch keine 300€-Karten, ..eher gegen 600€.
Für den Preisbereich von 250-300€ wird wohl Polaris noch einige
Zeit herhalten müssen. Vllt. basieren die Gerüchte um einen
12nm Refresh von Polaris darauf.

https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_die_grafikkarten_von_lowend_bis_highend_im_benchmark

Raff
2018-09-22, 18:34:37
Eine GPU mit doppelter ALU-Menge skaliert nur in Ausnahmefällen (wie reiner Compute-Last) zu +100 Prozent gegenüber einem Kern mit der halben ALU-Menge. Anders sieht das bei verdoppeltem Takt aus, das verhält sich linear und hat nicht das Problem, dass idR nicht alle leistungsrelevanten Module verdoppelt werden. Dennoch stimme ich dir zu, dass die Skalierung – beim Spielen – wesentlich besser sein könnte; das lässt sich nicht von der Hand weisen. Nvidia hat das bei Pascal bereits gut im Griff.

MfG,
Raff

pixeljetstream
2018-09-22, 18:53:01
Imo sollten sie aber sub 500€ anpeilen. Weil direkt die oberen Turings anzugreifen ist imo weniger erfolgsversprechend. Den Haupttrumpf den sie ausspielen können ist etwas zu haben was "günstig" ist und nah an der Konsole, somit ähnliche Performance-Charakteristik und weniger Aufwand bei Portierung etc.
Beim letzten Mal ging es wegen mangelnder Apis schief (GCN als dx12 Chip in dx11 ära), diesmal ist die Situation aber anders. Bin biased aber ich kann mir nicht vorstellen dass in ihrer Situation mehr drin ist. Mehr Potential sehe ich erst in der Generation danach, weil dann das Geld der Konsolen fließt und man auch mit Zen2 flüssiger sein sollte wieder größer zu investieren.

iuno
2018-09-22, 19:34:08
Dennoch stimme ich dir zu, dass die Skalierung – beim Spielen – wesentlich besser sein könnte; das lässt sich nicht von der Hand weisen. Nvidia hat das bei Pascal bereits gut im Griff.

Ich denke das "Problem" ist herbeigeredet. Nvidia skaliert zwar Rasterizer, TMUs, ROPs, SPs, SI an sich besser durchs lineup, daran kann AMD natuerlich arbeiten, es koennte aber auch einfach nur daran liegen, dass AMD deutlich weniger Chips pro Generation auflegt. Ausserdem ist das Ergebnis momentan trotzdem aehnlich. GP104 ist bis auf ROPs und SI, wobei da der Takt den Unterschied noch mindert, ein doppelter GP106. V64 hat ggue. P10 nur doppelt so viele ROPs und sonst keinen Faktor 2. Dafuer ist bei Vega der Takt deutlich hoeher. Im Endeffekt sind beide groesseren nur ~60% vor den kleineren, obwohl es nach den reinen Daten jeweils deutlich mehr waere. Dass das nicht linear skaliert sagst du ja selber. Das ist aber weder bei AMD noch bei Nvidia annaehernd so.

w0mbat
2018-09-22, 20:14:10
Ich hoffe zum Black Friday wird es ne gute 2070 für ~550€ geben, dann hab ich meine neue GPU. Auf Navi warten will ich nicht und der eventuelle Polaris refresh wird wohl nicht deutlich schneller als meine R9 290.

aufkrawall
2018-09-22, 20:38:31
Im Endeffekt sind beide groesseren nur ~60% vor den kleineren, obwohl es nach den reinen Daten jeweils deutlich mehr waere.
In WQHD sind es in aktuellen Spielen eigentlich eher +70-75% bei 1060 vs. 1080:
https://www.youtube.com/watch?v=NAL7HXuZLWY
https://www.youtube.com/watch?v=y0_QGcJ3FHM

Kriton
2018-09-23, 00:41:34
N14 halte ich für ein Zwischenmodell zwischen N10 und N20. Was anderes macht da eigentlich keinen Sinn. Eine kleinere Variante hätte N11 geheißen und dafür gibts ja Polaris 30.

Die Nummerierung der Codenamen bei AMD basiert doch auf dem Entwicklungsstart und nicht auf der Leistung.

iuno
2018-09-23, 01:34:51
In WQHD sind es in aktuellen Spielen eigentlich eher +70-75% bei 1060 vs. 1080:
https://www.youtube.com/watch?v=NAL7HXuZLWY
https://www.youtube.com/watch?v=y0_QGcJ3FHM
Ist halt bloed dass dort Sinnloses im HUD steht wie GPU Load aber keine Taktraten. Das sind laut Tomshardware (https://www.tomshardware.com/reviews/best-nvidia-geforce-gtx-1080-graphics-cards,4725-8.html) Test (https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1060-graphics-card-roundup,4724-9.html) recht hochtaktende Karten, sowohl 1060 als auch 1080 vergleichbar und mit jeweils knapp 2 GHz bzw. guten 1,9 unter dauerhafter Spielelast. Ich habe vorhin die Werte der Referenzkarten im CB Performancerating mit deren gemessenen Taktraten verglichen und da liegen die beiden fast 200 MHz zugunsten der 1060 auseinander. Ist ja klar, dass der Abstand in dem Video demgegenueber groesser wird. Daher verschiebt sich durch deine Videos auch nichts am Verhaeltnis und an meiner urspruenglichen Aussage. Zumal du ja beispielsweise verschweigst dass die Vega in FC auch ueberdurchschnittlich schneller ist als eine 580 ;p

HOT
2018-09-23, 09:43:39
Die Nummerierung der Codenamen bei AMD basiert doch auf dem Entwicklungsstart und nicht auf der Leistung.

Das ist schon klar. Es geht aber eben darum, dass die nicht im Doppelpack entwickelt wurden wie Polaris 10/11. Daher ist es extrem unwahrscheinlich, dass das ein kleinerer Chip ist, zumal eben Polaris nochmals aufgelegt wird und der genau unter N10 passt. N14 muss größer sein. N10 ist auch gleichzeitig die Notebookvariante, kleiner braucht man eh nicht, da Intel kleiner eh selber liefern kann. Und AMD hat darunter 2 (!) APU-Klassen. Kleiner ist völlig unnötig.
N14 hat man dazwischengeschoben, weil die Lücke einfach sehr groß war zwischen N10 und N20 und die Erfahrungen mit HBM eben nicht die postivsten. Also baut man einen Chip mit GDDR6, der dazwischen passt und den Großteil des Marktes abgreifen kann.

N10 wird irgendwo zwischen TU107 und TU106 rauskommen, P30 landet zwischen TU108 und TU107. Dank 12nm läuft P30 dann viel näher am Sweetspot, dass man mit 120W TDP rechnen kann.

fondness
2018-09-23, 11:12:37
Ich denke das "Problem" ist herbeigeredet. Nvidia skaliert zwar Rasterizer, TMUs, ROPs, SPs, SI an sich besser durchs lineup, daran kann AMD natuerlich arbeiten, es koennte aber auch einfach nur daran liegen, dass AMD deutlich weniger Chips pro Generation auflegt. Ausserdem ist das Ergebnis momentan trotzdem aehnlich. GP104 ist bis auf ROPs und SI, wobei da der Takt den Unterschied noch mindert, ein doppelter GP106. V64 hat ggue. P10 nur doppelt so viele ROPs und sonst keinen Faktor 2. Dafuer ist bei Vega der Takt deutlich hoeher. Im Endeffekt sind beide groesseren nur ~60% vor den kleineren, obwohl es nach den reinen Daten jeweils deutlich mehr waere. Dass das nicht linear skaliert sagst du ja selber. Das ist aber weder bei AMD noch bei Nvidia annaehernd so.

Der Vergleich hinkt. Vega ist eine neue Architektur mit vielen Verbesserungen im Vergleich zu Polaris. Trotzdem schafft man nicht mal die Skalierung von NV bei identischer µArch. Das es hier ein Problem gibt ist evident, offensichtlich will man dieses mit Navi auch adressieren.

][immy
2018-09-23, 12:18:52
Eine GPU mit doppelter ALU-Menge skaliert nur in Ausnahmefällen (wie reiner Compute-Last) zu +100 Prozent gegenüber einem Kern mit der halben ALU-Menge. Anders sieht das bei verdoppeltem Takt aus, das verhält sich linear und hat nicht das Problem, dass idR nicht alle leistungsrelevanten Module verdoppelt werden. Dennoch stimme ich dir zu, dass die Skalierung – beim Spielen – wesentlich besser sein könnte; das lässt sich nicht von der Hand weisen. Nvidia hat das bei Pascal bereits gut im Griff.

MfG,
Raff
Ich frage mich aber langsam, ob das nicht so florierende High-End bei AMD eventuell auch was mit HBM Speicher zu tun hat. Die theoretische Leistung der AMD Karten kann sich sehen lassen, die praktische ist aber weit von dem entfernt. Und der Preis dürfte durch den HBM-Speicher auch nicht grad niedrig sein.
Und die letzten High-End Versuche waren alle auf HBM Basis, welche mehr oder minder enttäuscht haben. Die RX580/480 sind an sich relativ gut für ihren Preisbereich gewesen, aber Vega scheint sich auch von diesen nicht so wirklich absetzen können, trotz eindeutig überlegener Hardware. Klar haben sie nen Abstand aber der Abstand ist bei weitem nicht so groß wie die Hardware es vermuten lassen würde.
Auch nvidia hat bisher nicht auf HBM gesetzt. Nicht das ich meinen würde, das es nur daran liegen würde, aber es dürfte gute Gründe haben, das nvidia lieber auf GDDR5x/6 gesetzt hat, anstelle dieser HBM Experimente.


Das die Architektur auch noch ihre Bremsen hat, merkt man ja schon am Verbrauch im vergleich zur Konkurrenz.
Wobei ich mich besonders bei nvidia frage, wie sie es geschafft haben, den Takt der GPUs so stark zu erhöhen, ohne das der Verbrauch durch die Decke geschossen ist. Bei AMD skaliert der Verbrauch mit dem Takt ja ins unermessliche.

Schnitzl
2018-09-23, 12:34:58
Der Vergleich hinkt. Vega ist eine neue Architektur mit vielen Verbesserungen im Vergleich zu Polaris. Trotzdem schafft man nicht mal die Skalierung von NV bei identischer µArch. Das es hier ein Problem gibt ist evident, offensichtlich will man dieses mit Navi auch adressieren.
kommt jetzt bestimmt falsch rüber, aber wollte AMD das nicht schon mit Polaris und Vega?
ne Kyro 2018 wäre jetzt cool :freak:

robbitop
2018-09-23, 12:41:42
Nein das war lt Roadmap niicht Inhalt von Polaris und Vega. Dort ging es eher darum aus den ALUs mehr Leistung zu holen und mehr aus der Bandbreite zu holen. Skalierung war schon immer erst navi.

Raff
2018-09-23, 12:55:58
[immy;11808031']Ich frage mich aber langsam, ob das nicht so florierende High-End bei AMD eventuell auch was mit HBM Speicher zu tun hat. Die theoretische Leistung der AMD Karten kann sich sehen lassen, die praktische ist aber weit von dem entfernt. Und der Preis dürfte durch den HBM-Speicher auch nicht grad niedrig sein.
Und die letzten High-End Versuche waren alle auf HBM Basis, welche mehr oder minder enttäuscht haben. Die RX580/480 sind an sich relativ gut für ihren Preisbereich gewesen, aber Vega scheint sich auch von diesen nicht so wirklich absetzen können, trotz eindeutig überlegener Hardware. Klar haben sie nen Abstand aber der Abstand ist bei weitem nicht so groß wie die Hardware es vermuten lassen würde.
Auch nvidia hat bisher nicht auf HBM gesetzt. Nicht das ich meinen würde, das es nur daran liegen würde, aber es dürfte gute Gründe haben, das nvidia lieber auf GDDR5x/6 gesetzt hat, anstelle dieser HBM Experimente.


Das die Architektur auch noch ihre Bremsen hat, merkt man ja schon am Verbrauch im vergleich zur Konkurrenz.
Wobei ich mich besonders bei nvidia frage, wie sie es geschafft haben, den Takt der GPUs so stark zu erhöhen, ohne das der Verbrauch durch die Decke geschossen ist. Bei AMD skaliert der Verbrauch mit dem Takt ja ins unermessliche.

AMD bewirbt auch bei Vega die Flächen- und Energie-Ersparnis gegenüber GDDR-Speicher (IIRC ggü. GDDR5). Man kann daher davon ausgehen, dass hier wirklich ein paar Watt gespart werden können, da der verwendete HBM nebst Controller nicht hoch taktet. Testen kann man das leider nicht. Hardware-Probleme, die Fiji betreffen und in Vega nicht beseitigt wurden, würde ich mal ausschließen.

Die Leistungsprobleme betreffen ja auch "nur" Spiele, bei Compute sind die Chips bärenstark. Was da genau limitiert, weiß AMD bestimmt. Die Frage ist nur, warum man nicht in der Lage ist, das zu beseitigen. Zu geringes Budget, Kompromisse, Zeitdruck? Hoffen wir, dass Navi die Flaschenhälse so stark weitet, dass die Architektur einen großen Schritt macht.

MfG,
Raff

Digidi
2018-09-23, 13:17:16
Das Limit kennt AMD und das ist Geometrie, das hat auch NVIDIA erkannt und deshalb haben beide meshhader und primitive shader. Sowie Task Shader und Surface Shader.

Was mich wundert wenn primitive Shader bei Vega auf Hardwareebene defekt ist, wäre das doch bestimmt bei den APUs und Vega20 gefixt worden?

reaperrr
2018-09-23, 13:20:39
Die Leistungsprobleme betreffen ja auch "nur" Spiele, bei Compute sind die Chips bärenstark. Was da genau limitiert, weiß AMD bestimmt. Die Frage ist nur, warum man nicht in der Lage ist, das zu beseitigen. Zu geringes Budget, Kompromisse, Zeitdruck? Hoffen wir, dass Navi die Flaschenhälse so stark weitet, dass die Architektur einen großen Schritt macht.

MfG,
Raff
Ich tippe nach wie vor auf das 4-ShaderEngine-Limit.

Es ist einfach auffällig, dass AMD mittlerweile selbst bei Chips wie dem KBL-G-Chip volle 4 SEs verbaut und P10 mit nur 36 CUs und 32 ROPs bereits ~30% mehr Takt reichen, um an Fiji XT ranzukommen.

Ich denke, je weiter eine CU physisch vom Frontend weg ist, desto weniger Real-Performance fügt diese hinzu.
Ein hypothetischer Vega mit 60 CUs verteilt auf 6 SEs währe pro MHz sehr wahrscheinlich schneller als V10, jedenfalls in Spielen.
Ist halt die Frage, wieviel sie am GCN-Grundkonzept ändern müssten, damit mehr als 4 SEs überhaupt möglich sind, denn vom physischen Layout her scheint GCN da generell wesentlich unflexibler zu sein als Nvidia's GPC/SM-Ansatz.


Was mich wundert wenn primitive Shader bei Vega auf Hardwareebene defekt ist, wäre das doch bestimmt bei den APUs und Vega20 gefixt worden?
Warum? Die APU war zeitlich zu nah an V10, mal ganz abgesehen davon, dass der Nutzen dort extrem gering gewesen wäre.
Und V20 ist nicht für Spieler, da ist der PS völlig egal.
Zu guter letzt: Ob er wirklich defekt ist, wissen wir doch gar nicht, das ist im Grunde reine Spekulation die eben daraus entstanden ist, dass AMD dazu nix mehr rausgerückt hat.
Kann nämlich auch sein, dass sie kurzfristig beschlossen haben, PS/NGG einfach erst a) in ausgereifterer Form und b) mit einer generell konkurrenzfähigeren Architektur zu bringen, damit der Effekt größer ist.

Raff
2018-09-23, 13:21:09
Das Limit kennt AMD und das ist Geometrie, das hat auch NVIDIA erkannt und deshalb haben beide meshhader und primitive shader. Sowie Task Shader und Surface Shader.

Im Gegensatz zu AMD hat Nvidia diesem Flaschenhals aber viel mehr Transistoraufwand gewidmet und ihn somit geweitet. Software ist wichtig, aber man kann sich leider nicht darauf verlassen, dass diese neue Funktionen direkt implementiert. Schon gar nicht, wenn man die Vorarbeit im Treiber oder beim Developer Support streicht.

MfG,
Raff

Digidi
2018-09-23, 13:22:40
4 Pipline sind ausreichend. Es muss halt viel gecullt werden und da fehlt es AMD gerade...

Das Frontend sieht gar nicht mal so schlecht aus dafür das Pascal 6 Rasterizer hat...
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/

V20 ist zwar nicht für Spieler aber gerade CAD Programme haben einen unersättlichen Polycount. Die Beispiele bei Meshhader waren alle aus der Industrie.

@Raff
War es nicht Vega wo man sich fragte wo all die Transistoren hingeflogen sind. Ich glaube der Aufwand ist bei beiden gleich groß

pixeljetstream
2018-09-23, 14:28:15
was meinst Du mit Aufwand ist bei beiden gleich groß?
imo zielt v20 eher aufs datacenter, statt CAD workstation GPU

im übrigen ist dein verlinkter Benchmark eher ein Argument das für Raff's Position spricht. Die Vega kann ihre deutlich stärkere Bandbreite nicht nutzen (100% culling ist ja bei guter Skalierung 100% Bandbreiten limitiert). Um wirklich zu sehen was die Architektur kann müsste man vermutlich auch die Workstationkarten in dem Fall testen (Quadro vs RadeonPro), weil die bestimmt weiter optimiert sind für den Anwendungsfall.

amdfanuwe
2018-09-23, 14:29:13
Ich denke mal, Vega ist ein in den Markt geworfener HPC Experimentalchip. Raja hat sich ja auch beschwert, dass Ressourcen abgezogen wurden, der hatte sich noch anderes mit Vega im Sinn. Aber irgendwann kommt das Management und sagt: es reicht jetzt für den Verkauf. Vega reichte ja auch erstmal als Konkurrenz zur 1070 und 1080. Trotz der Macken konnte AMD damit erst mal wieder Fahne zeigen in dem Leistungsbereich. Für HPC bietet Vega auch ein paar Features die ihn für bestimmte Einsatzbereiche konkurrenzfähig machen.
Also, raus mit dem Ding und mal was verdienen.
Bedenkt eben auch mal die Umstände, als Vega entwickelt wurde. Kein Geld, eingeschränkte Ressourcen...

AMD weiß sicherlich, woran es Vega mangelt, wo die Gamingperformance auf der Strecke bleibt. Es dauert aber ein paar Jahre, bis entsprechendes Entwickelt und auf den Markt entlassen werden kann.
Navi als Gamingchip könnte da ein ganz anderes Kaliber werden mit ausgereiftem Gaming Design ohne HPC experimental Ballast.
Im Moment sieht es wieder gut aus für AMD, es ist wieder Geld da. Kann halt noch ein paar Jahre dauern, bis AMD bei den Gamingkarten Nvidia wirklich Konkurrenz macht. Wer weiß, was da in der Entwicklung steckt und wer weiß, wie es bei Nvidia weitergeht. Spannend bleibt es jedenfalls.
Lassen wir uns Überraschen.

Der_Korken
2018-09-23, 14:47:17
was meinst Du mit Aufwand ist bei beiden gleich groß?
imo zielt v20 eher aufs datacenter, statt CAD workstation GPU

Das war wohl auf den Anstieg der Transistoren von Fiji auf V10 bezogen. Gleiche Anzahl CUs mit kaum besserer Performance als Fiji (rohleistungsnormiert!), aber 40% mehr Transistoren. Dass die alle in mehr Takt geflossen sind, kann wohl kaum des Rätsels Lösung sein, da es bei Maxwell/Pascal keine Anstiege in der Größenordnung gab und Polaris auch schon deutlich höher als die 28nm GCNs taktet, ohne dass da groß Transistoren dazugekommen sind. Das wirft eben schon die Frage auf, ob in Vega nicht noch jede Menge Änderungen stecken, die letztlich nicht fertig gestellt wurden oder nicht die gewünschte Performance erreichten.

iuno
2018-09-23, 15:11:16
Trotzdem schafft man nicht mal die Skalierung von NV bei identischer µArch. Das es hier ein Problem gibt ist evident, offensichtlich will man dieses mit Navi auch adressieren.
Immer noch eine haltlose Behauptung. Eine 1080 liegt bei CB im FHD Index 61% vor der 1060, bei RX580 zu V64 sind es 57%. In WQHD sind es 67 bzw. 65%. Das schenkt sich also ueberhaupt nichts, obwohl bei Nvidia im Verhaeltnis die Hardware staerker skaliert. Ihr suggeriert dass da wahnsinnig was zu holen waere, was aber nicht der Fall ist. AMD muss einfach immer noch mehr pro Einheit holen und insgesamt mehr Einheiten verbauen koennen um wieder an die Spitze ranzukommen. Dass die grossen Chips verhaeltnismaessig viel schlechter laufen stimmt ueberhaupt nicht.

Das Limit kennt AMD und das ist Geometrie, das hat auch NVIDIA erkannt und deshalb haben beide meshhader und primitive shader. Sowie Task Shader und Surface Shader.

Was mich wundert wenn primitive Shader bei Vega auf Hardwareebene defekt ist, wäre das doch bestimmt bei den APUs und Vega20 gefixt worden?
Nvidia hat Problem so jetzt aber noch nicht, sonst waere ein GP106 mit nur zwei Rasterizern nicht auf dem Niveau von P10. Klar kann das helfen, aber AMD sollte in der Hinsicht erstmal das erstmal das aufholen, was Maxwell vorgelegt hat.
Und wer behauptet schon wieder dass primitive shader in Vega10 kaputt seien?

reaperrr
2018-09-23, 16:12:51
Gleiche Anzahl CUs mit kaum besserer Performance als Fiji (rohleistungsnormiert!), aber 40% mehr Transistoren. Dass die alle in mehr Takt geflossen sind, kann wohl kaum des Rätsels Lösung sein
Doch, das ist der Hauptgrund.

AMD haben selbst gesagt, dass der Großteil des zusätzlichen Transistor-Budgets in die höhere Taktbarkeit geflossen ist. Die Vega-CUs sind knapp 34% größer als Polaris-CUs und werden wohl auch ~34% mehr Transistoren haben, und der Hauptzweck besteht darin, den Spannungsbedarf zu senken und damit die Effizienz zu erhöhen.
Dazu ggü. Fiji dann noch 50% mehr L1-Cache und 100% mehr L2-Cache und du bist ganz schnell bei 40% mehr Transistoren.

da es bei Maxwell/Pascal keine Anstiege in der Größenordnung gab
Bei Maxwell gab es den nur deshalb nicht, weil Kepler im Grunde relativ ineffizient war, mit dem krummen 192-ALU/SM-Design und doppelt so vielen TMUs je SM. Da haben sie viel einsparen können, das sie dann in mehr Takt/Effizienz stecken konnten ohne den Chip überproportional aufzublähen. Bei GP104 sind ebenfalls fast 40% Transistoren dazugekommen, zwar auch durch 20% mehr SM aber im Gegensatz zu V10 bleib z.B. der L2-Cache auf Vorgänger-Niveau.

Dass AMD für Vega noch etwas mehr Transistoren in die Taktbarkeit investieren musste als NV bei Pascal kann schon sein, aber so groß ist der Unterschied nicht.
Das Bild wird auch ein bisschen durch Vega10 verfälscht, der von den Specs für 14nm einfach nicht optimal konfiguriert ist.
Zumindest GTX-1070-Leistung hätte man mit der Vega-uArch durchaus in <300mm² erreichen können (da sind ja selbst OC-580 nicht weit von weg), V10 verbraucht durch seine Transistorzahl aber zuviel Saft pro MHz, und in effizienteren Taktbereichen werden die CUs zu sehr durch Front- und Backend ausgebremst.

und Polaris auch schon deutlich höher als die 28nm GCNs taktet, ohne dass da groß Transistoren dazugekommen sind
Wir reden hier auch von 232mm² in einem FinFET-Prozess gegenüber ~360mm² in 28nm-planar (P10 vs. Tonga). Und alles ab RX 480 aufwärts ist viel stärker über den "Sweet-Spot" hinausgeprügelt, als es bei Tonga je gemacht wurde.

aufkrawall
2018-09-23, 17:10:17
DXVK hat jetzt einen state cache, mit dem gecachete/vorkompilierte Shader nicht durch Treiber-Updates neu kompiliert werden müssen:
https://github.com/doitsujin/dxvk/commit/b9ff234da5a18c7313451204895fa95334e857aa

Außerdem empfiehlt doitsujin ein esync-fähiges Wine für geringeren Overhead:
https://github.com/doitsujin/dxvk/wiki
Man muss dafür noch zusätzlich Umgebungsvariable setzen und Einstellungen in systemd vornehmen.

pixeljetstream
2018-09-23, 17:15:08
@aufkrawall, falscher thread?

Der_Korken
2018-09-23, 17:41:29
Doch, das ist der Hauptgrund.

AMD haben selbst gesagt, dass der Großteil des zusätzlichen Transistor-Budgets in die höhere Taktbarkeit geflossen ist. Die Vega-CUs sind knapp 34% größer als Polaris-CUs und werden wohl auch ~34% mehr Transistoren haben, und der Hauptzweck besteht darin, den Spannungsbedarf zu senken und damit die Effizienz zu erhöhen.
Dazu ggü. Fiji dann noch 50% mehr L1-Cache und 100% mehr L2-Cache und du bist ganz schnell bei 40% mehr Transistoren.


Dann war die Designentscheidung aber ein ziemlicher Fail, denn wenn man was ändert, will man entweder das Design verbreitern (ist hier nicht passiert) oder mehr Leistung pro Transistor (und nicht weniger) oder pro Watt (schwer zu vergleichen weil 14 vs 28nm).


Bei Maxwell gab es den nur deshalb nicht, weil Kepler im Grunde relativ ineffizient war, mit dem krummen 192-ALU/SM-Design und doppelt so vielen TMUs je SM. Da haben sie viel einsparen können, das sie dann in mehr Takt/Effizienz stecken konnten ohne den Chip überproportional aufzublähen. Bei GP104 sind ebenfalls fast 40% Transistoren dazugekommen, zwar auch durch 20% mehr SM aber im Gegensatz zu V10 bleib z.B. der L2-Cache auf Vorgänger-Niveau.


25% mehr GP104 ;)
Aber auch bei Kepler->Maxwell ist das Verhältnis Transistoren zu ALUs nicht viel schlechter geworden. Von GK104 auf GM104 waren es +50% Transitoren für +33% ALUs. Wenn man beide Schritte zusammennimmt, kommt GP104 auf 20% mehr Transistoren pro ALU. Das "kaputte" Design von Kepler steckt in der höheren "IPC" von Maxwell schon mit drin. Klar ist das nicht nichts, aber insgesamt hat Vega den größeren Mehraufwand und trotzdem weniger Mehrtakt rausgeholt als die Nvidia-Gens.

Wir reden hier auch von 232mm² in einem FinFET-Prozess gegenüber ~360mm² in 28nm-planar (P10 vs. Tonga). Und alles ab RX 480 aufwärts ist viel stärker über den "Sweet-Spot" hinausgeprügelt, als es bei Tonga je gemacht wurde.

Die Chipgröße hat sich bisher kaum in der Taktbarkeit der Chips niedergeschlagen, sondern eher die GCN Gen. Pitcarin und Tahiti gingen beide ungefähr gleich gut. Tonga und Fiji auch, wenn auch insgesamt schlechter als die erste Gen. Oder anders: Ich glaube nicht, dass sich ein "doppelter" P20 spürbar schlechter takten lassen würde als ein einzelner, sofern die Kühlung nicht limitiert.

Ich will mich nicht hinstellen und sagen, dass ich alles besser wüsste. Ich versuche nur mit den bisherigen Daten und Zahlen Vergleiche anzustellen. Deswegen ist mein Schluss, dass Vega entweder ein schlechtes Design ist oder es ungenutztes Potenzial im Chip gibt, der erst mit Navi zum tragen kommt. In beiden Fällen würde Navi deutlich besser als Vega sein. Irgendwann muss AMD auch mal wieder ein Design gelingen :D

Menace
2018-09-23, 18:25:19
Dann war die Designentscheidung aber ein ziemlicher Fail, denn wenn man was ändert, will man entweder das Design verbreitern (ist hier nicht passiert) oder mehr Leistung pro Transistor (und nicht weniger) oder pro Watt (schwer zu vergleichen weil 14 vs 28nm).


Jedesmal wenn ich da nachfrage, bekomme ich keine Antwort. Vega ist ja mehr als nur Vega 64 und 56.

Wenn es ein fail ist, ...


warum wird eine Vega-Variante bei intel verbaut
scheinen diese Variationen auch bei den APUs gut zu laufen
haben in OpenCl-Anwendungen Pascal ordentlich vermöbelt
wurde Vega-Design von Lisa Su vor allem als Wunsch angekündigt, im Profi-Bereich Umsatz zu generien.


Letzter Punkt könnte natürlich auch sein, dass man halt irgendwie noch das Design schönreden wollte.

Der_Korken
2018-09-23, 19:44:23
Jedesmal wenn ich da nachfrage, bekomme ich keine Antwort. Vega ist ja mehr als nur Vega 64 und 56.

OK, das stimmt, ich meinte in meinen Posts aber tatsächlich V10 im Vergleich zu Fiji, nicht unbedingt Vega im Allgemeinen. Was die APUs und Co. angeht: Vielleicht hat AMD zu spät gemerkt, dass das Design nicht schnell genug wird, als man noch was hätte ändern können und/oder man wollte möglichst viele Chips auf dem Feature Level von Vega haben. Ist natürlich wild spekuliert.

iuno
2018-09-23, 21:51:02
warum wird eine Vega-Variante bei intel verbaut

"Vega M" ist Polaris.
Was natuerlich trotzdem kein Grund dafuer ist, dass Vega grundsaetzlich ein Fail sein soll.

Digidi
2018-09-23, 22:17:23
Im Gegensatz zu AMD hat Nvidia diesem Flaschenhals aber viel mehr Transistoraufwand gewidmet und ihn somit geweitet. Software ist wichtig, aber man kann sich leider nicht darauf verlassen, dass diese neue Funktionen direkt implementiert. Schon gar nicht, wenn man die Vorarbeit im Treiber oder beim Developer Support streicht.

MfG,
Raff


@Raff wann kommen den Beyond3d Ergebnisse von euch?

Hatte ich auch im Vega Thread. AMD den Flanschenhals bei Geometrie glaube ich nicht, das untere ist meine Vega 64.

Interessant ist auch das bei 4k noch mals der Polygonendurchsatz steigt. AMD hat mal selbst irgendwo gesagt das höhere Auflösung günstiger ist für den Rasterizer weil er dann besser Arbeitet. Am besten wäre ich glaube ich 16 Pixel für 1 Polygon. Bei 8k schlagen dann schon die Shader auf das gemüt bei DX12 bei Vulkan skaliert das noch weiter.

pixeljetstream
2018-09-23, 23:14:12
@Digidi der benchmark misst nicht den Polygondurchsatz, da geht es um API & front-end bottlenecks, weil jede box ein eigener drawcall ist.

weiß eigentlich jemand was der beyond3d genau misst? (ich finde dazu nix außer dass er speziell lizensiert werden muss und closed source etc.)

Digidi
2018-09-23, 23:17:09
@Digidi der benchmark misst nicht den Polygondurchsatz, da geht es um API & front-end bottlenecks, weil jede box ein eigener drawcall ist.


Lies dir mal den Test genau durch:
https://s3.amazonaws.com/download-aws.futuremark.com/3dmark-technical-guide.pdf

der jagt pro call ca. 120 Polygonen durch. bei 24.000.000 Drawcalls sind wir da bei 2 Polygonen pro Takt! Das sind schon ganz schön kleine Polygonen im Test. Ich vermute mal das der Rasterizer vor dem Drawcall Limit kozt!

Ich hab auch Rys mal dazu befragt zur Beyond3d Suite:
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-144#post-1991425

pixeljetstream
2018-09-24, 00:11:33
120 dreiecke pro drawcall ist imo zu wenig bei großen GPUs, da kann man immer noch schnell front-end limitiert sein. Der beyond test ist da besser weil er viel mehr dreiecke pro drawcall nimmt (da früher der api overhead ja noch schlimmer war).

danke für die links

Digidi
2018-09-24, 00:13:43
120 dreiecke pro drawcall ist imo zu wenig bei großen GPUs, da kann man immer noch schnell front-end limitiert sein. Der beyond test ist da besser weil er viel mehr dreiecke pro drawcall nimmt (da früher der api overhead ja noch schlimmer war).

danke für die links

Und auch im Byond3d Test sieht es für Vega nicht schlecht aus, solange man nicht 100% cullt.

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/

Wobei ich Rys da nicht ganz verstanden hat. Er übermittelt die ganze Geometrie bei beiden an die GPU aber wie aktiviert er da culling und kein culling und wie gehen 50% culling?

pixeljetstream
2018-09-24, 01:03:21
Zu den 120: bei Fermi wurde eine Raster engine mit 1 Dreieck pro clock angegeben. Gehen wir Mal davon aus dass NV nicht schlechter wurde. Dann wären die kleinen Boxen bei 6 GPCs mit 20 clocks durch. Eigentlich sogar mit 10 weil die Hälfte der Dreiecke backface geculled sind. Das heißt das front-end was den drawcall dekodieren, verwalten etc. muss, müsste einen drawcall in 10 clocks mindestens hinbekommen. Was schon sehr flott wäre.

Vor dem rasterizer sitzen die viewport/culling engines (die der primitive shader entlasten sollte). Die sind immer nen Faktor flotter als der Rasterizer weil wir ja im Schnitt die Hälfte, wenn nicht deutlich mehr verwerfen. Bei CAD können es locker 90% der Dreiecke sein.

Mit dem 100% culled testet er also die Geschwindigkeit bis dorthin. Der Rasterizer springt dann gar nicht erst an.
Man schiebt sagen wir 50% raus aus dem frustum oder halt backface culling an.

Die Art dieser Tests zielen darauf ab zu sehen wie gut die hw hier ausgewogen ist/wie flott die Peak Leistung...

Digidi
2018-09-24, 01:09:15
Danke Pixeljetstram. Die Viewport und Culling Engines sind die in Hardware oder emuliert?

pixeljetstream
2018-09-24, 01:57:28
In Hardware. Mittels Mesh Shader (und vermutlich auch Primitive Shader) kann man weniger Arbeit an sie schicken, weil man im shader schon vorfiltert.

spike.sp.
2018-10-08, 19:13:27
Kann man eigentlich schon ungefähr sagen ob AMD mit Navi der 2080/2080Ti leistingsmässig nachziehen kann?

N0Thing
2018-10-08, 19:20:29
Kann man noch nicht, man weiß noch gar nichts handfestes über Navi. Gerüchteweise soll Navi nur ein Midrange-Chips werden, vergleichbar mit Polaris, in dem Fall dann eher GTX 1080(Ti) Performance.

AffenJack
2018-10-08, 19:29:14
Wir wissen noch absolut gar nix über Navi, auch die Aussagen, dass Navi nur Midrange wird, würde ich zum aktuellen Zeitpunkt mal als nix anderes als pures raten titulieren. Aber Navi kommt eben auch allerfrühestens zur Computex, wahrscheinlich eher in fast 1 Jahr. CES 2019 dürften wir auf der Keynote erste Infos und einen groben Zeitplan kriegen.

AlterSack
2018-10-08, 20:13:40
ja falls sie das skalierungsproblem gelöst haben, 20-30% takt zu den
rund 1400 mhz einer luft-vega drauflegen können und vllt. noch 10-15%
an architekturverbesserungen, also ipc drauflegen, wird es automatisch
nicht nur mittelklasse...

w0mbat
2018-10-21, 14:05:27
https://www.fudzilla.com/news/graphics/47435-amd-has-7nm-navi-gpu-up-and-running-in-its-lab
Our sources also suggested that the 7nm GPU looks better than expected. Unfortunately, our source did not go into specifics so we do not know if this means that yields are good or that the actual 7nm GPU is giving a performance/power consumption. Bear in mind that these are some of the first details coming regarding the 7nm Navi GPU, in addition to earlier rumors suggesting that we could see the GTX 1080 performance-level at $250 price range.

iuno
2018-10-21, 14:16:24
Das klingt doch nicht uebel. Leistung waere dort, wo man sie schon laneger erwartet hat, Preis natuerlich interessant.
Trotzdem wird es sicherlich wieder enttaeuschte Gesichter geben, wenn man dann "nur" auf Niveau einer 2070 ist ;D

mboeller
2018-10-21, 15:18:36
Das klingt doch nicht uebel. Leistung waere dort, wo man sie schon laneger erwartet hat, Preis natuerlich interessant.
Trotzdem wird es sicherlich wieder enttaeuschte Gesichter geben, wenn man dann "nur" auf Niveau einer 2070 ist ;D


1080 nicht 1080Ti

iuno
2018-10-21, 15:21:14
Ja, deshalb auch 2070 und nicht 2080.

Leonidas
2018-10-22, 13:24:23
Ich schreib offensichtlich chinesisch. Also nochmal ganz langsam: Wenn GloFo einen Großteil der Zen2-Chips beigesteuert hätte, hätte man keine so große Massenfertigung bei TSMC aufziehen müssen dafür, ergo hätte man früher Kapazitäten frei gehabt, um auch Navi früher bringen zu können, allerdings wären dann consumer-Zen2-Chips kaum vor H2 denkbar gewesen. GloFo hätte sicherlich eh nur Zen2 gefertigt. Ist es jetzt klarer? Zen2 kommt jetzt vielleicht sogar etwas früher, als wenn GloFo mit im Boot gewesen wäre, aber dafür kommt Navi halt später. Die werden Navi erst anfangen, wenn der Markt für Prozessoren gesättigt ist. Das wiederum könnte schwierig werden, wenn Intel bis dahin halt nur 14nm-Schrott bringt. Verstehst du das Dilemma? Die werden Navi sicher irgendwann bringen, aber er hat schlicht keine große Priorität! AMD wird alles dem Zen2-Absatz unterordnen.


Vielleicht "bißchen" aggresiv geschrieben, aber sehr logisch das ganze. Und voll den Finger in die Wunde: Fertigungskapazitäten in neuen Verfahren fallen nicht vom Baum, sondern muß man sorgsam verteilen. Alles gleichzeitig bekommt man damit nicht hin.




Vermutlich wird es ja in etwa so mit 7nm aussehen:

V20 in Q4/18
Zen 2 in Q1/19
Nvidia HPC Chip zur GTC 2019 (Mitte März)
Navi Q2-Q3 2019
Nvidia 7nm Gaming Chip Q3-Q4 2019
Zen 2 + Navi APU Q3-Q4 2019 (MCM?)



Stimme zu. Mit einer Differenz: Zen 2 kommt erst für Epyc und später für Consumer. AMD wird sicherlich den Epyc-Launch machen, bevor die Massenfertigung ausreichend gut für den Desktop-Launch läuft - einfach um groß aufzutrumpfen. Demzufolge müssen sie die Desktop-Varianten einfach später bringen. Eventuell gibt es zudem wirklich noch die zwei Zen-2-Dies und das kleinere käme dann automatisch später. Epyc hat bei AMD jetzt einfach Vorfahrt, damit kann man Analysten beeindrucken.

PS: Zen-2-APU sicherlich erst Anfang 2020. AMD steckt momentan die APUs immer in die nächstes-Jahr-Serie, ergo hat man da keinen Druck mehr für das Jahr 2019.

vinacis_vivids
2018-10-22, 13:49:34
AMD produziert Epyc nicht für Analysten sondern schlicht und einfach um den technischen Fortschritt voran zu treiben. Geld ist nicht das Endziel.

Birdman
2018-10-22, 14:01:53
in addition to earlier rumors suggesting that we could see the GTX 1080 performance-level at $250 price range.
Halte ich für FUD, denn wieso sollte AMD eine solche Performance für 250$ verschleudern, wenn die Leute bereit sind 500$ (siehe akuelle 1080er Preise) hierfür hinzulegen?

w0mbat
2018-10-22, 14:03:57
1. Kommt Navi wohl erst in ca. einem Jahr, also wird sich bis dahin das Preisniveau noch ändern.
2. Muss AMD immer günstiger sein.

dildo4u
2018-10-22, 14:08:54
Halte ich für FUD, denn wieso sollte AMD eine solche Performance für 250$ verschleudern, wenn die Leute bereit sind 500$ (siehe akuelle 1080er Preise) hierfür hinzulegen?
Natürlich ist das Blödsinn da sie dafür HBM2 oder GDDR6 brauchen.
Polaris wird jetzt ja zum 3 mal neu aufgesetzt um was "Neues" um 250$ zu haben.

Birdman
2018-10-22, 14:09:08
1) nVidia wird das Preisniveau sicher nicht halbieren
2) Wieso? Waren sie bei Vega auch nicht und Polaris war maximal auf dem Papier etwas günstiger und auch das nur ~5%

HOT
2018-10-22, 15:34:21
Vielleicht "bißchen" aggresiv geschrieben, aber sehr logisch das ganze. Und voll den Finger in die Wunde: Fertigungskapazitäten in neuen Verfahren fallen nicht vom Baum, sondern muß man sorgsam verteilen. Alles gleichzeitig bekommt man damit nicht hin.

[...]

War aufgrund des Kontextes etwas "aufgebracht" :D.

Sollte Intel die 10nm jetzt wirklich canceln könnte das die Grafikchips noch weiter verzögern. Dann sollte man, sollte sich das Preisniveau von Vega irgendwie halten lassen, mMn besser von 2020 ausgehen. Die HBM-Situation entspannt sich ja offenbar zusehends, da die 56er wieder SKHynix bekommen dürften und in 2019 Micron den Markt ebenfalls betritt. Zudem arbeiten alle Anbieter sicherlich an der 3. HBM2-Generation. Für AMD ist N10 nicht überlebenswichtig.
Es könnte einen kleinen Ausweg geben, nämlich dann, wenn N10, anders als V20, tatsächlich im Mobilprozess gefertigt wird. Wie gesagt hat AMD das bisher aber auch nie gemacht und ich bin mir nicht sicher ob das funktioniert. Damit bekäme man aber die 64CUs in 200mm².

Ich wage es schonmal nach P30 einen V30 zu prophezeien ;D.

nairune
2018-10-22, 15:59:23
Halte ich für FUD, denn wieso sollte AMD eine solche Performance für 250$ verschleudern, wenn die Leute bereit sind 500$ (siehe akuelle 1080er Preise) hierfür hinzulegen?

Na weil alle interessiert sein werden, die keine 500 Taler für eine Grafikkarte ausgeben. So funktioniert das doch seit eh und jeh.

Leonidas
2018-10-22, 16:44:31
AMD produziert Epyc nicht für Analysten sondern schlicht und einfach um den technischen Fortschritt voran zu treiben. Geld ist nicht das Endziel.


Wieso sollte Geld nicht das Endziel für ein börsennotiertes Unternehmen sein?


Ich denke, man sollte zudem den Effekt nicht unterschätzen, was Unternehmen alles zur Hochtreibung ihres eigenen Börsenkurses unternehmen. In vielen Fällen wird diese Variante vorgezogen, egal ob man besser konventionell das eigene Geschäft ankurbeln und damit letztlich bessere Zahlen vorlegen sollte. Aber Vorstände werden nun einmal anhand von Börsenkursen bewertet und bekommen auch Teile des Gehalts gekoppelt an den Börsenkurs. Die Motivation, für Analysten anstatt für das Unternehmen zu arbeiten, ist im Spitzen-Managment durchaus vorhanden.

basix
2018-10-22, 18:52:46
Falls Navi 1080er Performance erreicht (ich erwarte zwar eher 1080 Ti, einfach ein Bauchgefühl) könnten schon 350 Euro verlangt werden. Die Frage ist, was Nividia macht. Für GP104 könnten sie die Preise mittlerweile auf <350 Euro senken und immer noch Gewinn machen. Dann gerät AMD wieder unter Preisdruck. Da Navi erst in irgendwo in 9-12 Monate kommt tendiere ich auch eher auf 250-300 Euro mit 8GB GDDR6. Vielleicht noch eine 16GB Version für 350+ Euro.

unl34shed
2018-10-22, 20:39:55
Warum nur 350€ wenn Nvidia die gleiche Leistung aktuell für über 500€ verkauft und auch Vega64 aktuell auch für weit mehr als 350€ weggeht.

aufkrawall
2018-10-22, 20:48:25
~1080 wäre etwas weniger als 480/1060 x2. So viel hatte Nvidia die letzten Jahre ca. jeweils mit Tick + Tock zusammen genommen geschafft. Erscheint mir nicht realistisch, AMD mehr zuzutrauen. Eher hatte AMD jedes Mal die Erwartungen enttäuscht (mal mehr, mal weniger). ;)

unl34shed
2018-10-22, 21:26:05
1080 Performance haben sie doch schon mit Vega und sollte Navi ebenfalls 4096 Shader haben, wie spekuliert, sehe ich das nicht so unrealistisch.

basix
2018-10-22, 21:43:13
Warum nur 350€ wenn Nvidia die gleiche Leistung aktuell für über 500€ verkauft und auch Vega64 aktuell auch für weit mehr als 350€ weggeht.

Vielleicht weil eine 1080er im Mai 2016 released worden ist und Navi somit wohl mehr als drei Jahre später erscheint? Eine nur 20% langsamere 1070er gab es im September 2016 für <450 Euro zu kaufen (siehe https://www.heise.de/preisvergleich/gigabyte-geforce-gtx-1070-g1-gaming-8g-gv-n1070g1-gaming-8gd-a1450713.html). Also wenn 3(!) Jahre später eine GPU nur +20% auf eine 1070er drauf legt und nicht -30% günstiger ist, wäre der Preispunkt unattraktiv. Siehe Turing als analoges Beispiel. Die Mondpreise einer 1080er und V56 / V64 und auch anderer Karten haben ihre Gründe sind aber eigentlich nicht marktgerecht (bezogen auf Consumer).

Ausserdem haben AMDs Karten und CPUs mometan sehr attraktive MSPRs (mit Ausnahme Vega, da reell zu höherem Preis verkauft). Vega ist mit der grossen GPU und HBM2 einfach sehr teuer in der Herstellung. Doch wenn heute eine V56 inkl. Assassin's Creed Odyssey schon für 400 Euro über den Ladentisch gehen kann, wird wohl ein Chip mit nicht mal halber Fläche und GDDR6 anstatt HBM2 wohl nochmals ein wenig günstiger anzubieten sein, ohne Marge spendieren zu müssen ;)

~1080 wäre etwas weniger als 480/1060 x2. So viel hatte Nvidia die letzten Jahre ca. jeweils mit Tick + Tock zusammen genommen geschafft. Erscheint mir nicht realistisch, AMD mehr zuzutrauen. Eher hatte AMD jedes Mal die Erwartungen enttäuscht (mal mehr, mal weniger). ;)
Da habe ich drei Punkte:
- Vega skaliert nicht wahnsinnig gut (siehe V64 vs. V56). Wird die Bremse gelöst sieht es schon besser aus.
- 14nm auf 7nm ist auf dem Papier der deutlich grössere Sprung als 28nm auf 14nm
- Primitive Shader. Mit Navi soll das endlich kommen. Dazu gibt es Patente mit automatisch generierten Primitive Shadern.

Ravenhearth
2018-10-22, 21:45:48
Warum nur 350€ wenn Nvidia die gleiche Leistung aktuell für über 500€ verkauft und auch Vega64 aktuell auch für weit mehr als 350€ weggeht.
Wenn sie einen 200mm² kleinen Chip (oder etwas größer) mit vmtl. 256 Bit für 500€ verkaufen, ist das einfach nicht besonders attraktiv, absolute Leistung hin oder her. Turing wird ja schon kritisiert, dass zB die 2070 nur wenig schneller ist als die 1080 zum gleichen Preis. Wenn AMD das Spiel mit 7nm fortsetzt, werden sie dadurch auch keine Kunden gewinnen. Von einer neuen Generation, insbesondere wenn ein neuer Node involviert ist, erwarten die Leute halt mehr Perf/€, so war das immer und anders geht es auch nicht. Die Leute rüsten nicht plötzlich auf, nur weil es die gleiche Leistung wie vorher zum gleichen Preis wie vorher gibt.

vinacis_vivids
2018-10-22, 22:20:34
Wieso sollte Geld nicht das Endziel für ein börsennotiertes Unternehmen sein?


Ich denke, man sollte zudem den Effekt nicht unterschätzen, was Unternehmen alles zur Hochtreibung ihres eigenen Börsenkurses unternehmen. In vielen Fällen wird diese Variante vorgezogen, egal ob man besser konventionell das eigene Geschäft ankurbeln und damit letztlich bessere Zahlen vorlegen sollte. Aber Vorstände werden nun einmal anhand von Börsenkursen bewertet und bekommen auch Teile des Gehalts gekoppelt an den Börsenkurs. Die Motivation, für Analysten anstatt für das Unternehmen zu arbeiten, ist im Spitzen-Managment durchaus vorhanden.

Dann hast du noch nie in einem technologischen Unternehmen gearbeitet.

Wäre Geld das Endziel, wäre AMD im Geld-,Banken,- und (Krypto)Währungsgeschäften tätig. Auch Lisa Su betont immer wieder die eigenen technologischen Leistungen und Produkte sowie deren Funktionalität. Geld spielt dabei eine wichtige Rolle, das ist wahr, dennoch steht es nicht im Vordergrund. Daher hat AMD (über die Jahre) auch gelernt das ganze Tamtam um Geld (Zukäufe, interner Aktienhandel usw.) zu unterlassen. Die technologischen Kooperationen sind nicht durch Geld entstanden, sondern durch die Technik an sich und das drumherum.

Für weitere Diskussion gibs den anderen Thread.

DK999
2018-10-23, 11:54:06
Warum nur 350€ wenn Nvidia die gleiche Leistung aktuell für über 500€ verkauft und auch Vega64 aktuell auch für weit mehr als 350€ weggeht.
AMD braucht Marktanteile und kann mit dem kleinen Chip sicherlich etwas Druck machen. Wenn sie mit den Preisen mit gehen, wird die Dominanz nicht gebrochen.

robbitop
2018-10-23, 13:51:34
Automatisierte Primitive Shader: wer weiss ob das bei modernen Renderpipelines immer transparent und vor allem gewinnbringend funktioniert. Selbst nv (mit wesentlich mehr RnD) macht das über eine Schnittstelle die vom Entwickler angesprochen werden muss.

AMD muss vor allem die mArch was Skalierbarkeit, Datareuse (Bandbreiteeneffizienz! und auch Energiebedarf - jede Offchipkommunikation kostet mehr Energie als onchip) und Kontrolllogik angeht überarbeiten. Auch wäre ein besserer shadercompiler sicher sinnvoll.

Die Frage ist, wie viel davon in Navi gelandet ist und was erst in der nextgen march kommt.

Sony/MS kommen sicher mit weniger Kontrolllogik in HW klar, da die SW ja nur auf eine HW Basis optimiert werden muss. Das Optimierungspotenzial ist bei gcn in SW ziemlich groß.

1080 Performance sollte dank 7nm in 200 sqmm schon möglich sein. Ein reiner V64 shrink wäre ja bereits in etwa in der Region. Taktrate ist in 7nm sicherlich besser dank weniger Leistungsaufnahme. Hgf kommen noch ein paar mArch Verbesserungen dazu, die mehr Perf/W und mehr Perf/Transistor bringen.

Die 2070 wird man schon etwa anpeilen...

HOT
2018-10-23, 13:55:28
Na ja in jedem Fall wird N10 NGG haben, was ja in den neuen Konsolen eingesetzt wird und somit mit Sicherheit ebenfalls Einzug in DX12 und Vulkan haben wird. Selbst wenn die automatisierten Primitive Shader nicht so funktionieren sollten, wird Navis NGG sicherlich Nutzen finden.

maximus_hertus
2018-10-23, 14:35:13
Warum nur 350€ wenn Nvidia die gleiche Leistung aktuell für über 500€ verkauft und auch Vega64 aktuell auch für weit mehr als 350€ weggeht.

In 9-12 Monaten gibt es die 2070 sicherlich für gut unter 500 Euro, möglicherweise 450 oder weniger. Dazu der nV-"Bonus", Raytracing und Co. Max 399 für ein Navi @ Vega 64 Niveau, mehr wird wohl nicht gehen.

Auf der anderen Seite brauchen wir uns jetzt nicht die Köpfe darüber zerbrachen (Navi-Preis), da der Chip bzw. die Karte noch so ewig weit weg ist und noch so viel passieren kann.

AMDoderNvidia
2018-10-23, 18:46:26
- Primitive Shader. Mit Navi soll das endlich kommen. Dazu gibt es Patente mit automatisch generierten Primitive Shadern.

Kommt das dann auch automatisch für die Vega-Karten? Ich hoffe, dass zumindest AMD im Treiber einen Weg findet, um das Ansprechen der Navi-Primitive-Shader es auch auf Vega-Karten zur Ausführung bringen wird. Wäre ziemlich cool, wenn sowas auf treiberebene mit drin wäre.

AffenJack
2018-10-23, 18:50:39
Kommt das dann auch automatisch für die Vega-Karten? Ich hoffe, dass zumindest AMD im Treiber einen Weg findet, um das Ansprechen der Navi-Primitive-Shader es auch auf Vega-Karten zur Ausführung bringen wird. Wäre ziemlich cool, wenn sowas auf treiberebene mit drin wäre.

Kannst vergessen, Primitive Shader auf Vega ist wohl eher Tod und Navi dürfte eine erweiterte Version davon haben.

basix
2018-10-23, 19:22:56
Nice wäre es, aber es wäre auch eine grosse Überraschung. Allerhöchstens für V20. Hier gibt es aber ebenfalls 2x Wenn: Wenn er für Gamer kommt und wenn NGG gefixt. Beides relativ unwahrscheinlich.

Screemer
2018-10-23, 20:34:21
Da kommt nix mehr für Vega. Ngg wird unter linux nur noch für gfx10 implementiert. Wird auch unter Windows nicht anders sein.

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

dargo
2018-10-23, 21:02:28
Max 399 für ein Navi @ Vega 64 Niveau, mehr wird wohl nicht gehen.

Das wäre aber schon etwas enttäuschend. In einem Jahr würde ich schon einen Navi @V64 + X% erwarten der eher bei 250-300€ mitspielt. Ich meine das Ding dürfte ca. halb so groß sein (vergleichbar zum jetzigen Polaris) und mit 8GB GDDR6 hätte man auch beim Preis mehr Spielraum nach unten.

reaperrr
2018-10-23, 21:21:18
Das wäre aber schon etwas enttäuschend. In einem Jahr würde ich schon einen Navi @V64 + X% erwarten der eher bei 250-300€ mitspielt. Ich meine das Ding dürfte ca. halb so groß sein (vergleichbar zum jetzigen Polaris) und mit 8GB GDDR6 hätte man auch beim Preis mehr Spielraum nach unten.
Die Fixkosten für das Designen der Chips und erstellen der Masken gehen mit 7nm nochmal drastisch hoch, und TSMC wird für 7nm-Wafer auch ne ordentliche Stange mehr Geld verlangen als GloFo für 14/12nm, bei anfänglich auch noch höheren Defektraten.
Soll heißen: Ein ~200-230mm² 7nm-Chip wird zumindest die ersten Monate fast so teuer herzustellen sein wie derzeit ein Vega10.

Und die pro-GB-Preise von GDDR6 sollen aktuell auch kaum günstiger als die von HBM2 sein, wobei zumindest das in 9 Monaten schon etwas besser aussehen könnte.

Viel günstiger als eine Vega56 (oder RTX 2070) wird eine Navi-Karte zumindest die ersten Wochen oder gar Monate nicht herzustellen sein.

dargo
2018-10-23, 21:27:04
Und die pro-GB-Preise von GDDR6 sollen aktuell auch kaum günstiger als die von HBM2 sein, wobei zumindest das in 9 Monaten schon etwas besser aussehen könnte.

Quelle?
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Nvidia-Turing-AMD-Navi-GDDR6-Preise-1260719/
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Geforce-2018-Kosten-fuer-GDDR6-RAM-sollen-moderat-steigen-1256228/
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46390-preise-fuer-gddr-speicher-und-hbm-analysiert.html

yummy_candy
2018-10-23, 21:33:22
Mal etwas ganz anderes. Es gibt für Zen PBO und Precision Boost. Wäre es nicht möglich, für GCN etwas ähnliches zu fabrizieren? Also im Prinzip Auto OC je nach Kühlung, Spannung und TDP?

vinacis_vivids
2018-10-23, 21:34:41
@dargo
Ehrlich gesagt kann ich mir den Preis von 250-300€ für Navi 10 nicht vorstellen. Polaris wird jetzt zum dritten mal gerefresht und die Preise sind nie gefallen. Allenfalls kann AMD den Preis halten, spricht 400/600€ für salvage/full-Chip bei Navi10 > Vega10 Leistung. Ein größerer 7nm-Chip kann dann im Bereich 1000-1500€ angreifen.

dargo
2018-10-23, 21:39:31
Das ist doch Quatsch. Polaris 20 fängt aktuell bei 209€ mit 8GB GDDR5 an! Die ganzen Polarispreise vorher hat nur der Miningboom kaputt gemacht.

PS: Salvage mit 4GB sehe ich gerade einen Tiefstpreis von 145€.
https://www.amazon.de/dp/B071YL98NM?smid=A1X0M9U5WW1195&linkCode=df0&creative=22510&creativeASIN=B071YL98NM&childASIN=B071YL98NM&tag=geizhals10-21&ascsubtag=pILCsMwSyLsN5pUsojnsfg

Mit 8GB GDDR5 dann halt 23€ mehr.
https://geizhals.de/msi-radeon-rx-570-armor-8g-oc-v341-236r-a1610150.html?hloc=at&hloc=de

vinacis_vivids
2018-10-23, 21:45:47
Mining gehört nunmal dazu:
https://www.planet3dnow.de/cms/40849-arbitrade-ltd-selects-amd-radeon-rx-vega-56-nano-gpus-for-its-cryptocurrency-mining/

Polaris 20 Preisrange (MF) ist gerade bei 170-330€. Deine 250-300€ für Navi10 sind quatsch. Dazu müsste Polaris 20 dann auf 100-150€ fallen und das wird sicher nicht passieren.

dargo
2018-10-23, 21:54:49
Wüsste nicht was dagegen spricht. Wir reden hier noch von ca. einem Jahr bis es soweit ist. Unter P20 gibt es aktuell den P21. Und dort ist das P/L im Vergleich einfach nur katastrophal.
https://geizhals.de/?cat=gra16_512&xf=9808_11704+-+RX+560

Das Ding ist für diese Preise komplett fehl am Platz bei einer RX570 4GB ab 145€. Ähnliches könnte dann mit P30 passieren wenn Navi10 da ist. P30 bei ca. halber Leistung, aber nicht zum halben Preis. Die andere Option wäre man lässt Polaris einfach EOL, falls es einen Navi11 geben wird.

reaperrr
2018-10-24, 02:08:04
Quelle?
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Nvidia-Turing-AMD-Navi-GDDR6-Preise-1260719/
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Geforce-2018-Kosten-fuer-GDDR6-RAM-sollen-moderat-steigen-1256228/
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46390-preise-fuer-gddr-speicher-und-hbm-analysiert.html
Wenn ich mir das bei den ganzen News, Gerüchten, Twitter-Feeds usw. die ich regelmäßig durchstöber merken könnte, würde ich es dir sagen :)

Aber wenn du dir die von dir verlinkten News anguckst, wirst du feststellen, dass die angegebenen GDDR6-Preise pro GB bei der aktuellsten News aus Juli - die anderen beiden waren aus Mai - 180 € für 8GB entsprechen, also ne Ecke mehr als im Mai für HBM2 verlangt wurde.
Klar wird der auch hochgegangen sein, aber vielleicht nicht im selben Maße. Bei GDDR6 ist schließlich durch Turing die Nachfrage sprunghaft gestiegen.

Leonidas
2018-10-24, 05:47:30
Mal etwas ganz anderes. Es gibt für Zen PBO und Precision Boost. Wäre es nicht möglich, für GCN etwas ähnliches zu fabrizieren? Also im Prinzip Auto OC je nach Kühlung, Spannung und TDP?


Faktisch machen das alle Desktop-Grafikkarten ja bereits. Sie regeln sich nur anhand der TDP weg - was Desktop-CPUs nicht machen. Aber an diese Hürde kommt der Grafikchip-Entwickler schwer vorbei: Keiner kann eine Midrange-Karte mit Verbrauch 250-300W ankündigen.

horn 12
2018-10-25, 06:47:21
"Joseph Moore - Morgan Stanley & Co. LLC

Okay. Great. And then with regards to the 7-nanometer, I know you're going to talk more about this as at the product launch. But can you talk about what 7-nanometer itself gives you? Do you expect there to be ..."

"Lisa T. Su - Advanced Micro Devices, Inc.

Yes, and we will go through this in a lot more detail on November 6. But at a high level, I think 7-nanometer gives us better density. So, for a given system, we can put more cores on it. It gives us better power, so that gives us total cost of ownership. And it does give us better performance as well."

Advanced Micro Devices (AMD) Q3 2018 Results - Earnings Call Transcript | Seeking Alpha
https://seekingalpha.com/article/4214112-advanced-micro-devices-amd-q3-2018-results-earnings-call-transcript?page=10

vom 05. bis 08. Novenber is die VMworld 2018 Europe ... vllt gibts da ja was Neuen zu Vega 20

AMD Events and Tradeshows
https://www.amd.com/de-de/who-we-are/corporate-information/events

Locuza
2018-10-25, 08:16:26
Su: first half of 2019 will not be that strong for graphics, but number of launches coming up.

Effektiv ist das zweite Halbjahr 2019 für Navi bestätigt.

~ Minute 36 bei der Telefonkonferenz.
http://ir.amd.com/events/event-details/q3-2018-amd-earnings-call

mboeller
2018-10-25, 12:52:48
Su: first half of 2019 will not be that strong for graphics, but number of launches coming up.

Effektiv ist das zweite Halbjahr 2019 für Navi bestätigt.

~ Minute 36 bei der Telefonkonferenz.
http://ir.amd.com/events/event-details/q3-2018-amd-earnings-call


Computex 2019... sag ich doch schon seit "Jahren" :)

DrumDub
2018-10-25, 13:58:09
Computex 2019... sag ich doch schon seit "Jahren" :) dann bin ich mal gespannt ... noch 215 tage warten.

DK999
2018-10-25, 14:19:38
Effektiv ist das zweite Halbjahr 2019 für Navi bestätigt.

Und da fliegen sie dahin, meine schönen Aufrüst-Pläne :frown:
Dann hoffe ich mal, dass mich Informationshäppchen bei der Stange halten und ich nicht doch zur gebrauchten Vega 64 / 1080 Ti greife.

Das Navi durch die Mitarbeit von Sony vom Compute-Ballast befreit wurde, hat aber noch keine weiteren Belege bekommen nehme ich an?

aufkrawall
2018-10-25, 14:24:31
Wäre mir neu, dass es Konsens wäre, dass GCN generell "Compute-Ballast" hätte.

DK999
2018-10-25, 15:31:56
Nicht?
Dachte AMD hätte ein Ungleichgewicht aus CUs und ROPs, was die starke GPGPU Performance und durchschnittliche Spieleleistung erklärt.
Sonst erleuchtet mich, woher die Differenz zwischen diesen beiden Anwendungsfällen?:smile:

Ravenhearth
2018-10-25, 16:00:03
Su: first half of 2019 will not be that strong for graphics, but number of launches coming up.

Effektiv ist das zweite Halbjahr 2019 für Navi bestätigt.

~ Minute 36 bei der Telefonkonferenz.
http://ir.amd.com/events/event-details/q3-2018-amd-earnings-call
Das kann man so interpretieren, muss man aber nicht. Sie redet schließlich von Geschäftszahlen, die im 1.Hj hinsichtlich Grafik nicht so gut ausfallen sollen. Das heißt aber nicht, dass Navi dann nicht schon launcht. Der kann bspw. gegen Ende des Halbjahres kommen, also im Juni, was aber dann natürlich erst im 2.Hj finanziell durchschlägt.

lowkres
2018-10-25, 16:12:36
Das kann man so interpretieren, muss man aber nicht. Sie redet schließlich von Geschäftszahlen, die im 1.Hj hinsichtlich Grafik nicht so gut ausfallen sollen. Das heißt aber nicht, dass Navi dann nicht schon launcht. Der kann bspw. gegen Ende des Halbjahres kommen, also im Juni, was aber dann natürlich erst im 2.Hj finanziell durchschlägt.

Das kann natürlich auch eintreffen. Die Frage wird erstmal sein, wann TSMC die 7nm Produktion für AMD liefern kann. Ich denke noch immer das Zen2 Vorrang hat gegenüber Navi und das es eben auch erst im 2.H erscheinen wird. Naja Tee trinken und warten.:wink:

megachip800
2018-10-25, 19:39:29
Also ist Navi keine echte Next Gen gpu sondern nur ein Polaris refresh??

reaperrr
2018-10-25, 19:58:06
Nicht?
Dachte AMD hätte ein Ungleichgewicht aus CUs und ROPs, was die starke GPGPU Performance und durchschnittliche Spieleleistung erklärt.
Sonst erleuchtet mich, woher die Differenz zwischen diesen beiden Anwendungsfällen?:smile:
Das liegt nicht an einem bestimmten Punkt (wobei die ROPs schon eine Rolle spielen), sondern an einer Reihe von kleineren Punkten.

1) NV-Architekturen vor Volta/Turing hatten einfach noch einige Schwächen in der Compute-Architektur an sich, unabhängig vom TFLOP-Durchsatz.

2) GCN schleppt immer noch eine Reihe von Spiele-bezogenen Architektur-Defiziten ggü. den NV-Architekturen mit sich rum, die teils schon ewig bestehen:

- nur 4 Z/Stencil-Ops pro Takt pro ROP (seit RV770, vorher noch weniger), bei NV sind's schon seit G80 deren 8, was zusammen mit den höheren Taktraten bei gleicher ROP-Zahl mal eben fast den dreifachen Z/Stencil-Durchsatz pro Takt bedeutet (hilft z.B. bei großen Stencil-Shadowmaps)
- keine dedizierten Textur-Sampler (läuft seit Cypress/Radeon 5000 über die regulären ALUs), während Nvidia bei dedizierten SFUs für diese Aufgabe geblieben ist, und dadurch spätestens seit Kepler deutlich weniger Performance durch 16xAF einbüßt
- auch wenn's weiter eher ein Nischen-Feature ist, bei der Tesselation-Performance pro ShaderEngine im Vergleich zu einem NV-GPC mit 4-6 SM hinkt AMD mehr oder weniger konstant 2-3 Generationen hinterher
- nach wie vor viel schwächere DCC bei schwarzen (Alpha-?)Texturen
- allgemein deutlich schwächer beim Culling/Tiling, also frühzeitigem Verwerfen von Arbeiten an unsichtbaren/verdeckten Elementen
- durch die beiden o.g. Punkte zusammen immer noch deutlich höherer Bandbreitenbedarf pro FLOP, was aber eben nur bei (komplexeren) 3D-Szenen und nicht bei reinem Compute durchschlägt
- durch den höheren Bandbreitenbedarf a) breitere Interfaces nötig (oder teurer HBM2), und b) mehr Speicherzugriffe, beides zusammen treibt den Verbrauch hoch, was im Endeffekt den TDP-Spielraum für den Rest des Chips reduziert (meine RX470 erreicht nur allein durch Senkung der MC-Spannung von 1V auf 925mV in Unigine-Valley locker ~100-150 MHz mehr Durchschnittstakt...)
- der ShaderEngine-Ansatz skaliert offenbar sowohl von der Auslastung, als auch dem Energiebedarf für Datenbewegung einfach schlechter mit zusätzlichen CUs als NV's GPC mit zusätzlichen SM, und ist zusätzlich auch noch deutlich unflexiber was Layout und Anzahl der jeweiligen (aktiven) Einheiten angeht
- (wesentlich) ineffizienterer Shader-Compiler, AMD's eigener Treiber holt ne ganze Ecke weniger aus der gleichen Einheitenzahl, als die Konsolen

vinacis_vivids
2018-10-25, 20:40:58
Also ist Navi keine echte Next Gen gpu sondern nur ein Polaris refresh??

Polaris "refresh" ist Polaris30 12nm

Navi10 ist die (weltweit) erste 7nm Gaming GPU. Refresh bezieht sich dann auf den ersten Blick eher auf die vermutlich 3584 bzw. 4096SP breite Struktur von Vega10/Fiji.

Leistungsmäßig wird sich Navi10 wahrscheinlich leicht über Vega10 einordnen. Komplett neu wird Navi10 nicht sein, da viele Elemente der vorherigen GCN-Generationen vererbt werden.

Gipsel
2018-10-25, 21:11:19
Mal eine kleine Korrektur:
- keine dedizierten Textur-Sampler (läuft seit Cypress/Radeon 5000 über die regulären ALUs), während Nvidia bei dedizierten SFUs für diese Aufgabe geblieben ist, und dadurch spätestens seit Kepler deutlich weniger Performance durch 16xAF einbüßt
Die Textur-Sampler gibt es natürlich auch bei AMD. Und das machen auch nicht die SFUs bei nV. Was Du vermutlich meinst, ist die Interpolation von Vertexparametern in jedem Pixel (z.B. Texturkoordinaten).
Und das ist auch nicht das Problem bei AF (oder generell bandbreitenintensiven Aufgaben), weil es bei AMD über LDS und vALU läuft und das dann Compute-Leistung kostet (wenn bei nV die SFUs mit der Interpolation von Vertexparametern beschäftigt ist, können die Dinger auch nichts anderes machen, stehen also für andere Berechnungen [SFUs sind auch für einige normale Shaderinstruktionen zuständig] nicht zur Verfügung), die in den Fällen dann selten limitiert (sondern eben die Bandbreite). Und relativ am größten ist der Overhead für die Interpolation übrigens bei Shadern, die kaum was machen. Bei 16xAF hat man damit absolut gesehen nicht mehr zu tun als bei einem bilinearen Filter oder gar nur Pointsampling, relativ gesehen dann also eher weniger. Das Textursampling und die -filterung geschieht ja bei beiden (nV und AMD) in dedizierten Einheiten (den TMUs bzw. genauer den Sampler- und Filtereinheiten darin).
Wichtiger für die AF-Performance (oder generell der Filterperformance, insbesondere mit FP16-Datenformaten) könnte sein, daß der L1-Cache bei nV unter geeigneten Umständen schlicht die doppelte Bandbreite liefern kann. ;)

Raff
2018-10-25, 21:22:32
Leistungsmäßig wird sich Navi10 wahrscheinlich leicht über Vega10 einordnen. Komplett neu wird Navi10 nicht sein, da viele Elemente der vorherigen GCN-Generationen vererbt werden.

Und was dauert dann da so lange? Ich hoffe sehr, dass Navi mehr ist als ein weiterer GCN-Aufguss.

MfG,
Raff

Gipsel
2018-10-25, 21:27:32
Ich hoffe sehr, dass Navi mehr ist als ein weiterer GCN-Aufguss.Ich wiederhole mich vermutlich, aber ich denke immer noch, daß die GCN-Architektur der CUs noch nicht überholt ist (was nicht bedeutet, daß man da nicht Feintuning betreiben kann). Die Schwachstellen liegen zum Großteil wohl auf höherer Ebene der Architektur.

Linmoum
2018-10-25, 21:30:22
7nm dauert da so lange. Da Navi in der Prioritätenliste logischerweise hinter V20 und Zen2 rangiert, haben letzte entsprechend klar den Vorang.

vinacis_vivids
2018-10-25, 21:52:46
Und was dauert dann da so lange? Ich hoffe sehr, dass Navi mehr ist als ein weiterer GCN-Aufguss.

MfG,
Raff

Dauert so lange weil
1. 7nm nun allein von TSMC gestemmt werden muss und GloFo ausgeschieden ist.
2. 7nm Vega20 und Zen2 für HPC-Bereich Vorrang haben.
3. 7nm Gaming-GPU über Preis-Leistung geht und AMD für die Masse bezahlbare Grafikkarten anbieten möchte.
4. 14nm GPUs (Vega, Polaris) erfolgreich sind.
5. 7nm APU`s für die PS5 Vorrang haben.

Navi10 wird weiter GCN-Elemente besitzen, wieso auch nicht? Der Erfolg bzw. operative Gewinn gibt AMD recht. Ein großer 7nm Chip allein für Dekstop-GPU-Gaming fürs prestige und Balkenlänge wird AMD vorerst nicht bringen. Wäre reine Ressourcenverschwendung, die man sich nicht leisten kann und will obwohl es technologisch möglich ist.

Vermutlich wird Navi10 Vega10 ähneln und PS in Verbindung mit LL-API dann zur vollen Entfaltung bringen, wovon auch die ganze GCN-Familie und insbesondere Vega uArch profitiert (fine wine).

Eine gänzlich andere Strategie als die Konkurrenz, die Pascal versucht fallen zu lassen um die RTX-Reihe (mit mäßigenErfolg) zu pushen.

Angesichts der aktuell geringen Leistungssprünge von singel-GPUs müssen neue Konzepte via mGPU entwickelt werden. Und die dauern nunmal.

AlterSack
2018-10-25, 21:57:03
wenn man die ganzen von reaperrr aufgezählten nachteile betrachtet,
muss man amd gratulieren, dass sie überhaupt ein fps rausbekommen.:wink:

so schlecht ist die gcn architektur nun auch nicht.
mal anhand der mittelklasse geschaut, da bei vega viel fläche
für einen geringen realen taktvorteil verschwendet wird.
gtx1060 ~200mm², rx 580 ~ 230 mm² ...entspricht rund
15% mehr fläche von polaris20 zur nv-gpu. takt gtx1060 ~1900 mhz.
...polaris20 ~ 1400mhz. heisst, die 1060 hat einen taktvorteil zur polaris
von gut 40%. Bei der Spieleleistung liegen die Konkurrenten
in etwa gleichauf. für mich als laien sieht das so aus, als zöge nv
seine hohe leistung vorwiegend aus den um grössenordnungen
höheren taktraten.

Ravenhearth
2018-10-25, 22:24:26
Und was dauert dann da so lange? Ich hoffe sehr, dass Navi mehr ist als ein weiterer GCN-Aufguss.

MfG,
Raff
Wie schon gesagt, 7nm dauert da so lange. Produkte mit vermutlich niedrigerem Volume und höherer Marge wie Vega20 und Epyc 2 haben Vorrang.


5. 7nm APU`s für die PS5 Vorrang haben.
Su hat gesagt, sie erwartet für 2019 abfallende Umsätze aus Semi-Custom wegen dem Alter der Konsolen, und ab 2020 dann wieder einen deutlichen Zuwachs. *hust* Das könnte darauf hindeuten *hust* dass neue Konsolen 2020 kommen *hust*

wenn man die ganzen von reaperrr aufgezählten nachteile betrachtet,
muss man amd gratulieren, dass sie überhaupt ein fps rausbekommen.:wink:

so schlecht ist die gcn architektur nun auch nicht.
mal anhand der mittelklasse geschaut, da bei vega viel fläche
für einen geringen realen taktvorteil verschwendet wird.
gtx1060 ~200mm², rx 580 ~ 230 mm² ...entspricht rund
15% mehr fläche von polaris20 zur nv-gpu. takt gtx1060 ~1900 mhz.
...polaris20 ~ 1400mhz. heisst, die 1060 hat einen taktvorteil zur polaris
von gut 40%. Bei der Spieleleistung liegen die Konkurrenten
in etwa gleichauf. für mich als laien sieht das so aus, als zöge nv
seine hohe leistung vorwiegend aus den um grössenordnungen
höheren taktraten.
Ja, AMD quetscht relativ viel Rohleistung auf kleine Fläche und auch bezogen auf tatsächliche Spieleleistung ist Polaris10 im Vergleich mit GP106 konkurrenzfähig. Aber: Guck dir mal den Verbrauch an.
Außerdem ist GP106 sicher nicht das beste Beispiel. GP104 ist verglichen mit Polaris10 nur ein Drittel größer, aber um zwei Drittel schneller in Spielen und hat in etwa den gleichen Verbrauch. Bei Vega wirds schlimmer. Vega10 ist im Vergleich mit GP104 etwa 50% größer, braucht wesentlich mehr Strom (trotz HBM), hat 50% mehr Bandbreite... und ist im Schnitt nicht schneller in Spielen. Ups.
Polaris/Vega liegen bei der Energieeffizienz etwa auf dem Niveau von Maxwell. Der war 28nm. Also einen ganzen Fullnode zurück. Wenn Navi etwas schneller als Vega10 ist und 180W verbraucht, wie mal in diesem Thread konservativ (realistisch?) spekuliert wurde, hat AMD 3 Jahre später und 7nm sei Dank quasi ne GTX 1080...
Da muss sich einiges an der Architektur tun.

dargo
2018-10-25, 22:48:19
5. 7nm APU`s für die PS5 Vorrang haben.

Das ist Quatsch. Navi10 kommt vor der PS5 mindestens ein Jahr.

Leonidas
2018-10-26, 08:48:40
Wenn 2020 die SoC-Umsätze wieder anziehen sollen, dann eher nicht, dann eher zeitgleich.

AlterSack
2018-10-26, 09:01:08
Ja, AMD quetscht relativ viel Rohleistung auf kleine Fläche und auch bezogen auf tatsächliche Spieleleistung ist Polaris10 im Vergleich mit GP106 konkurrenzfähig. Aber: Guck dir mal den Verbrauch an.
Außerdem ist GP106 sicher nicht das beste Beispiel. GP104 ist verglichen mit Polaris10 nur ein Drittel größer, aber um zwei Drittel schneller in Spielen und hat in etwa den gleichen Verbrauch. Bei Vega wirds schlimmer. Vega10 ist im Vergleich mit GP104 etwa 50% größer, braucht wesentlich mehr Strom (trotz HBM), hat 50% mehr Bandbreite... und ist im Schnitt nicht schneller in Spielen. Ups.
Polaris/Vega liegen bei der Energieeffizienz etwa auf dem Niveau von Maxwell. Der war 28nm. Also einen ganzen Fullnode zurück. Wenn Navi etwas schneller als Vega10 ist und 180W verbraucht, wie mal in diesem Thread konservativ (realistisch?) spekuliert wurde, hat AMD 3 Jahre später und 7nm sei Dank quasi ne GTX 1080...
Da muss sich einiges an der Architektur tun.

vega hab ich aus obengenannten gründen rausgenommen.
der war nicht unbedingt ein fortschritt. warum auch ein polaris soviel verbraucht, ist die frage (unter anderem breitere speicheranbindung und der schon oben angesprochene höhere bandbreitenbedarf?) ...und auch, ob amd dies bei navi mit dem neuen fertiger in den griff bekommt. sollte navi einige der probleme in den griffbekommen, vllt. 15% mehr leistung pro takt erzielen, sowie taktraten um 2 Ghz schaffen, spielt navi eine liga höher als prognostiziert, zumindest solange, bis nv mit 7nm produkten kommt.

HOT
2018-10-26, 09:48:12
Vega fehlen vor allem die MHz. Die Breite und Effizienz ist eigentlich ok, aber die Leistung durch den Takt halt nicht. Für ein komplett geändertes und breiteres Design um mehr Takt zu ermöglichen ermöglicht Vega halt kaum mehr Takt, da wird das große Problem liegen. Das eskaliert eben sehr stark ab gewissem Takt, aber eben auch nicht über jeden Workload, was für eine relativ schlechte Optimierung spricht. Die hatten eben zu wenig Leute um das Design auszuoptimieren.

][immy
2018-10-26, 10:21:09
Vega fehlen vor allem die MHz. Die Breite und Effizienz ist eigentlich ok, aber die Leistung durch den Takt halt nicht. Für ein komplett geändertes und breiteres Design um mehr Takt zu ermöglichen ermöglicht Vega halt kaum mehr Takt, da wird das große Problem liegen. Das eskaliert eben sehr stark ab gewissem Takt, aber eben auch nicht über jeden Workload, was für eine relativ schlechte Optimierung spricht. Die hatten eben zu wenig Leute um das Design auszuoptimieren.
Das Hauptproblem dürfte doch nach wie vor sein, das AMD es immer noch nicht schafft ihre Chips bei spielen vernünftig auszulasten. Ist ja nicht so als wenn nicht genügend Rechenleistung da wäre, es ist einfach so, das diese teilweise einfach nur mit z.B. async compute überhaupt genutzt werden kann.
Hier muss AMD dringend was tun. Async compute mildert das problem ja nur.
Abgesehen davon, das der Verbrauch bei AMD wirklich schlecht ist im vergleich zu Konkurrenz.
Ich würde jetzt GCN nicht verteufeln, aber die aktuellen GCN chips haben definitiv Skalierungsschwierigkeiten. Vega und Polaris liegen viel zu nah beieinander und das obwohl Vega den sehr viel größeren Chip und sehr viel mehr Bandbreite hat. Die Architektur wird immer ineffizienter je größer sie wird. Hier muss AMD wirklich mal die Schwachstellen identifizieren und entsprechende stellen verbreitern bzw. beheben. Denn die Leistung ist ja da, sie kann einfach nicht auf die Straße gebracht werden.

Dural
2018-10-26, 10:24:47
Navi10 ist die (weltweit) erste 7nm Gaming GPU


sagt wer?

Complicated
2018-10-26, 16:19:01
Gab doch erst einen Benchmark-Leak auf Vega20 mit einem Spiel. Wurde das verifiziert?

Ravenhearth
2018-10-26, 17:00:24
Wenn 2020 die SoC-Umsätze wieder anziehen sollen, dann eher nicht, dann eher zeitgleich.
Wie kommst du darauf? Su erwartet höhere Umsätze bei GPUs ab H2 2019, bei Semi Custom ab 2020. Ist doch offensichtlich, dass die nicht zeitgleich kommen. Sonst hätte sie für 2019 auch keine abnehmenden Umsätze aus Semi Custom vorhergesagt. "2020" heißt einfach IRGENDWANN in dem Jahr. Könnte also so laufen wie 2013, die Konsolen erscheinen gegen Ende des Jahres, aber AMD verkauft aufgrund der Vorlaufzeiten die Chips ab dem 3. Quartal, wo diese dann auch schon zu Buche schlagen. Kämen die Konsolen schon 2019, müssten die Umsätze dadurch auch ab H2 2019 durchschlagen, aber das ist durch AMDs Aussagen definitiv ausgeschlossen.

Leonidas
2018-10-27, 09:21:28
Mein Fehler, die Aussage hätte genau umgedreht lauten müssen.

BeetleatWar1977
2018-10-27, 09:53:14
Gab doch erst einen Benchmark-Leak auf Vega20 mit einem Spiel. Wurde das verifiziert?
Final Fantasy XV - aber obs stimmt?

http://benchmark.finalfantasyxv.com/result/?i=501047045bd4170c34eb6&Resolution=3840x2160&Quality=High

mal mit meiner 56er auf 1620/1106 und 220W PT als Vergleich....

Edit: Der Linuxkernel sagt:

{0x1002, 0x66AF, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20|AMD_EXP_HW_SUPPORT},

basix
2018-10-27, 13:34:00
Was V20 im Gaming macht ist eigentlich wurscht, ausser sie schafft es mindestens eine 1080Ti / 2080 zu schlagen. Dann wäre ein Release als Gaming Karte interessant. Viel spannender ist die Frage, wie sich Navi machen wird. 1080? 1080 Ti? 2080 Ti? Theoretisch alles im Bereich des Möglichen. Nur weiss niemand irgendwas :D

HOT
2018-10-27, 13:53:56
Na, Lisa Su hat ja schon eingegrenzt, dass da vorerst nichts für High-End kommt, also alles über 2070 wird mit Sicherheit keinen Gegner bekommen. N10 kann man maximal mit 2070-Leistung erwarten, vielleicht sogar darunter, je nachdem wie wenig CUs das Teil letztendlich hat. Ich würd das vorerst grob von V64-Leistung ausgehen, vllt. einen Tacken mehr, weils "gut läuft".

basix
2018-10-27, 14:21:26
Ja das schon. Aber RX 580 auf GTX 1080 sind "nur" +60%. Da könnte deutlich mehr drin liegen. Oder die Karte verbraucht nur 120W, das wäre auch nicht schlecht.

Ravenhearth
2018-10-27, 14:38:31
Ich denke auch, dass man bei Navi von RTX 2070-Leistung und -Verbrauch ausgehen kann. Das wären so 70-80% über der RX 580 bei ca. 180W. Das ist von einem Shrink von V10 auf 7nm mit paar Architekturverbesserungen mindestens zu erwarten. Etwas mehr ist nicht ausgeschlossen, aber besser man bleibt vorerst realistisch. Die "Innovation" dürfte eher beim Preis stattfinden.

Achill
2018-10-27, 15:15:18
Final Fantasy XV - aber obs stimmt?

http://benchmark.finalfantasyxv.com/result/?i=501047045bd4170c34eb6&Resolution=3840x2160&Quality=High

mal mit meiner 56er auf 1620/1106 und 220W PT als Vergleich....

Edit: Der Linuxkernel sagt:


Hmm bin auch skeptisch was das Ergebnis für "Vega20" angeht, ich schaffe jetzt schon mehr. Bei mir sind es unter 2160p@High: 3588 (http://benchmark.finalfantasyxv.com/result/?i=5573044065bd46073e0fb3&Resolution=3840x2160&Quality=High) und 2160p@Standard: 4263 (http://benchmark.finalfantasyxv.com/result/?i=8958580715bd466cdb4ad7&Resolution=3840x2160&Quality=Middle)

Ravenhearth
2018-10-27, 15:18:52
Unoptimierter Treiber? Niedriger Takt? Who knows.

iuno
2018-10-27, 15:31:52
Ich denke auch, dass man bei Navi von RTX 2070-Leistung und -Verbrauch ausgehen kann. Das wären so 70-80% über der RX 580 bei ca. 180W.
Das waere allerdings fast schon so eine "schlechte" Effizienz wie eine 1080 schon drei Jahre frueher gezeigt hat. Und halt auch nicht viel besser als Vega. Klar, waere ein deutlicher Fortschritt ggue. Polaris, aber imho schon etwas wenig fuer 7nm.

dildo4u
2018-10-27, 15:46:42
Der Workstation Treiber wird einfach keine Optimierungen für FF15 drinn haben gucke mal wo die WX 9100 liegt.

Ravenhearth
2018-10-27, 15:56:34
Das waere allerdings fast schon so eine "schlechte" Effizienz wie eine 1080 schon drei Jahre frueher gezeigt hat. Und halt auch nicht viel besser als Vega. Klar, waere ein deutlicher Fortschritt ggue. Polaris, aber imho schon etwas wenig fuer 7nm.
Nicht viel besser als Vega? Die Vega 64 braucht 300W trotz HBM. 180W mit GDDR6 wären bezogen auf den Chip vielleicht die doppelte Effizienz. Das läge im Rahmen der Erwartungen für 7nm. AMD liegt bei der Effizienz halt etwa einen Fullnode zurück, ihre 14nm-GPUs sind grob auf Maxwell-Niveau.

dildo4u
2018-10-27, 16:09:39
Jup das wäre schon ein Sprung wie der von Bulldozer zu Ryzen.

Ravenhearth
2018-10-27, 16:14:11
Bei Ryzen hat man aber auch eine neue Architektur entwickelt, und nicht einfach nur Bulldozer mit kleinen Änderungen geshrinkt, sodass der Sprung bei der Effizienz noch viel größer war... Vielleicht wird AMDs GPU-Generation in 2020 eher wie Ryzen.

basix
2018-10-27, 16:23:40
Nur sollte man berücksichtigen, dass Polaris als auch Vega über dem Sweet Spot betrieben werden. Ändert man nur schon das bingt das zwischen 25-40% Effizienz. Zum Beispiel V64 im Power Save BIOS mit 60W weniger Verbrauch und nur 4% Leistungsverlust; 100W weniger und nur 7% Leistungsverlust (siehe https://www.computerbase.de/2017-09/radeon-rx-vega-bios-power-test/#abschnitt_die_auswirkungen_vom_bios_und_treiber). Und das sind faktisch "Out-of-the-Box" Ergebnisse ohne manuelles OC und UV. Dann ist man inkl. 7nm schon bei 250...300% Effizienz verglichen zu Vega und Polaris ;)

Man kann es auch so sehen: Polaris hat 8 GBit/s Speicher. Navi wird wahrscheinlich 14 GBit/s Speicher bekommen, mit Glück auch 16 GBit/s. Das sind +75...100% Speicherbandbreite. AMD wird wohl keine Speicherbandbreite verschenken wollen, deswegen ist das vermutlich auch das Performance-Ziel. Das wäre irgendwo zwischen 1080er und 1080 Ti und mit 8GB auch noch einigermassen OK. Diese Performance bei einem Stromverbrauch von ca. 120-130W sehe ich als realistisch an. Ausnahme wäre halt wieder, wenn der Chip hochgeprügelt werden muss. Vermutlich bringt AMD zudem noch eine verbesserte Speicherkompression / Bandbreiteneffizienz. Also könnten auch 14 GBit/s Speicher für +100% Performance reichen.

Ravenhearth
2018-10-27, 16:46:29
Okay, das hatte ich vergessen. Danke. Nur 4% langsamer bei 25% weniger Verbrauch wtf?! Falls AMD bei Navi ausnahmsweise den vernünftigen Weg geht, dann wären auch unter 150W drin, bei praktisch identischer Performance. Vorausgesetzt, man prügelt den Chip nicht hoch, nur um ein paar Prozent besser als die 2070 dazustehen.

iuno
2018-10-27, 16:55:18
Nicht viel besser als Vega? Die Vega 64 braucht 300W trotz HBM.
Ja, mit scheiss preset. Mit 200W ist die Karte nicht annaehernd so viel nicht langsamer im Gesamtdurchschnitt.

Platos
2018-10-27, 17:21:43
Nicht annähernd so nicht langsamer ??

Agesehen von Leuten wie wir hier, wird eine Grafikkarte meistens unübertaktet/im Auslieferungszustand genutzt. Und gerade das ändern von Spannungen werden noch weniger machen.

Ravenhearth
2018-10-27, 17:26:19
Ja, mit scheiss preset. Mit 200W ist die Karte nicht annaehernd so viel nicht langsamer im Gesamtdurchschnitt.
Ja, ich habs gesehen. Wenn man das mal 1:1 auf Navi überträgt (was natürlich nicht so einfach möglich ist, aber seis drum), dann hat AMD bei Navi beispielsweise die Wahl zwischen einer Karte die 180W verbraucht und einer mit 120W und 7% weniger Performance. Rein hypothetisch. Ich wäre für Variante 2.

iuno
2018-10-27, 17:33:35
Nicht annähernd so nicht langsamer ??

Agesehen von Leuten wie wir hier, wird eine Grafikkarte meistens unübertaktet/im Auslieferungszustand genutzt. Und gerade das ändern von Spannungen werden noch weniger machen.
Nicht annaehernd 1/3.
S.o., das ist ohne manuelles tweaking von Spannung oder Takt, man muss nur das richtige Profil auswaehlen.

Ich wäre für Variante 2.
Ich auch, aber das zugegebenermassen schon seit Jahren vergeblich. Die Nano war vielleicht die einzige Karte, die dem irgendwie nahe kam und da auch nur, weil man mit der Groesse ein anderes Argument fuer den hohen Preis hatte. Vega haette es dann sein koennen. Da waren die Presets wenigstens dabei aber da die Karte so teuer war leider kein Standard. Nicht mal bei V56

Platos
2018-10-27, 17:45:46
Ohne Untervolten verliert man auch ordentlich Leistung.

basix
2018-10-27, 17:50:46
Ohne Untervolten verliert man auch ordentlich Leistung.

Sieh dir den CB Link von oben an. -7% Leistung bei -30% Leistungsaufnahme (209W vs. 300W). Das mit Power Save BIOS #2 anstatt Standard Konfiguration.

Daredevil
2018-10-27, 18:12:13
Du musst dafür ja keine Bios Switches umlegen, was ebenfalls quatsch ist für den Endkunden.
Dafür reicht ja schon eine Software Einstellung im Wattman ( reguliert das Power Target ) und damit ist die Sache gegessen.

Bei der Vega 56 ist "Balanced" in der tat Balanced, da 165 Watt im Referenz Design.
Wäre schon, wenn bei der Vega 64 Balanced ebenfalls in der nähe der 165 Watt ( ASIC ) ist und nicht gleich auf 220 Watt hochprescht.... bei gleichem Kühler.

basix
2018-10-27, 18:20:02
Es ging beim BIOS nur um einen Referenzwert ;) Am besten kommt die Karte ja so aus dem Karton für Max Mustermann. Für uns spielt es ja nicht so eine Rolle, ausser dass die Reviews deutlich negativer aussehen und somit weniger AMD freundlich (unnötigerweise). Seit GCN / Kepler UV ich alle Karten. Zwar nur indirekt per OC + reduziertes Power Target aber so macht es am meisten Sinn. Mit 150W ist meine 2080 Ti noch ca. 88% so schnell wie eine FE. Somit -12% Leistung bei -43% Energieverbrauch.

Platos
2018-10-27, 18:26:08
Auch wenn es "nur" 7% sind, wirft es die Vega64 trotzdem nochmals gleich eine Klasse weiter nach unten. Dann ist man immerhin etwa bei ca. 7-10% weniger Leistung bei ca. 20% mehr Stromverbrauch. Mit den 20% mehr Stromverbrauch kann man bei der Konkurrenz gleich noch ein wenig übertakten und dann läuft es bei gleichem Stromverbrauch eher auf 12-15% heraus.

Ist jetzt aber ein wenig OT und auch unwichtig, hier gehts ja um Navi. Für ein Midrangechip muss AMD schon etwas brauchbares bringen. RTX 2070 Perfomance bei 150w müssen drinn sein. Alles andere wäre lächerlich für 7nm

Platos
2018-10-27, 18:35:26
und somit weniger AMD freundlich (unnötigerweise). Seit GCN / Kepler UV ich alle Karten.

Das ist eben nicht unnötigerweise. Die Redaktionen bewerten das Produkt so, wie es ausgeleifert wird und das ist auch richtig so. Für OC gibt es zusätzliche Tests und die Power-Modis wurden ja auch getestet.

Somit war auch ersichtlich damals, dass das Produkt leicht langsamer ist, bei extremem Stromverbrauch oder zusammen mit den von Haus aus ~-5% dann -12% Leistung bei +20% Stromverbrauch. Somit war die Vega64 eben ein schlechter Deal. -12% Leistung und dann auch noch 20% mehr Strom verbrauchen, ist eben kein Kaufargument. Und wie du selbst ja siehst, kann man auch Pascal untervolten.

übrigens nicht schlecht bei 150w. Das sollten dann irgendwo etwa 20% mehr Leistung als eine GTX 1080 sein aber ca. 20% weniger Stromverbrauch. Weisst du zufällig, nur so aus interesse, auch noch, wie viel weniger Strom die Karte verbraucht, wenn man 100% Leistung anpeilt ? Oder hast du das nie getestet ?

AMDoderNvidia
2018-10-27, 18:38:45
Ohne Untervolten verliert man auch ordentlich Leistung.

Und jetzt nochmal für mich: Warum liefert AMD die Chips (bzw. die Boradpartner) mit (fast) immer zuviel Spannung aus? Irgendwo hatte ich mal gehört, dass sie das wg. der längeren Haltbarkeit machen, da nach ein paar Jahren die Spannung leicht erhöht werden muss. Dem wird quasi vorgegriffen. Aber stimmt das wirklich? Und wie ist das bei Nvidia?

Platos
2018-10-27, 18:59:42
Naja, die Grafikkarte muss/soll eben auch bei weniger günstigen Umgebungen funktionieren (wie z.B schlecht gelüftete Gehäuse). Bis vor das Temp-Limit muss die Karte funktionieren. Bei guten Customs liegt die Temperatur, bei einem guten Luftabtransport, aber eher so bei 70-72° bei den 200W+ Karten. Bei hoher Lüfterdrehzah auch locker unter 70°.

Bei weniger hohen Temps brauchts aber weniger Spannung bzw. läufts auch mit weniger stabil, um es anders herum zu betonen. Also das würde ich als Grund für leicht höhere Spannung ansehen.

Das selbe gilt für CPUs.

Das mit dem Altern ist aber gut möglich. Nach grösseren Tests habe ich bisher nicht gesucht, aber je länger die Karte im Einsatz ist, desto stärker sind die Leiterbahnen durch Elektromigration beschädigt und umsomehr Spannung wird benötigt...in der Theorie. Wie stark Elektromigration wirklich Einfluss hat, gerade bei Temperaturen weit unterhalb vom Temp-Limit, weiss ich auch nicht.

basix
2018-10-27, 19:33:19
Somit war auch ersichtlich damals, dass das Produkt leicht langsamer ist, bei extremem Stromverbrauch oder zusammen mit den von Haus aus ~-5% dann -12% Leistung bei +20% Stromverbrauch. Somit war die Vega64 eben ein schlechter Deal. -12% Leistung und dann auch noch 20% mehr Strom verbrauchen, ist eben kein Kaufargument. Und wie du selbst ja siehst, kann man auch Pascal untervolten.
Richtig, es war für jeden ersichtlich. Nur wäre die Karte positiver aufgenommen worden bei 5% weniger Leistung aber dafür angemessenem Stromverbrauch. Und das BIOS Setting sehe ich nicht als UV an, da standardmässig mit der Karte ausgeliefert. Nur schade, dass eben nicht das "richtige" standardmässig konfiguriert ist.

übrigens nicht schlecht bei 150w. Das sollten dann irgendwo etwa 20% mehr Leistung als eine GTX 1080 sein aber ca. 20% weniger Stromverbrauch. Weisst du zufällig, nur so aus interesse, auch noch, wie viel weniger Strom die Karte verbraucht, wenn man 100% Leistung anpeilt ? Oder hast du das nie getestet ?
Bei meiner Karte entspricht 100% Performance ziemlich genau 200W. 90% bei ca. 160W. Aber das ist halt auch maximal ausgereizt bezüglich UV. Und da siehst du, eine Karte am Limit ist extrem ineffizient oder besser gesagt viel ineffizienter als eigentlich möglich. Eine 300W 2080Ti ist nämlich auch nur +10% schneller als meine 200W 2080 Ti. Genau so wie Vega. Die mit steigenden Frequenzen sehr abgeflachte Frequency vs. Voltage Curve führt irgendwann dazu, dass man nur noch die Spannung und somit Leistungsaufnahme erhöht aber die Frequenz praktisch nicht mehr steigt (siehe Curve Editor unten).

Edit: Es sind bezüglich Performance wohl auch eher +20% auf eine 1080 Ti ;)

Platos
2018-10-27, 21:18:39
-5% Perfomance, dann aber auch -5% Preis, dann wäre das Produkt völlig in Ordnung bzw. gut.

Ach so, ich habe mich verlesen. Eine 2080TI hast du ja...:biggrin:
200W ist schon ganz akzeptabel. Wäre die Karte günstiger, wäre sie schon sehr lecker.

AlterSack
2018-10-28, 18:44:07
Ich denke auch, dass man bei Navi von RTX 2070-Leistung und -Verbrauch ausgehen kann. Das wären so 70-80% über der RX 580 bei ca. 180W. Das ist von einem Shrink von V10 auf 7nm mit paar Architekturverbesserungen mindestens zu erwarten. Etwas mehr ist nicht ausgeschlossen, aber besser man bleibt vorerst realistisch. Die "Innovation" dürfte eher beim Preis stattfinden.

Das wäre enttäuschend. ...nur 20% schneller als eine Vega64?
Da sollte einiges mehr drin sein.

Linmoum
2018-10-28, 18:47:32
Aber nicht mit einem (potentiellen) Midrange-Chip, der zu erwarten ist. Irgendwo grob V64/1080/2070-Territorium passt schon.

Platos
2018-10-28, 19:30:22
Ich denke man kann eine Leistung von 1000% im FHD Perf.-Index erwarten. Also ziemlich exakt zwischen GTX 1080 und RTX 2070.

Preislich nehme ich mal an bei 300 +/-10%

DK999
2018-10-29, 13:14:36
Selbst als ein 64 CU Polaris Chip wird der sicherlich oberhalb der Vega 64 angesiedelt sein was die Leistung an geht. Allein der schnelle GDDR6 Speicher im Vergleich zu Polaris, welcher ja eindeutig beim RAM krankt, sorgt für ein gutes Plus. Dazu noch der höhere Takt im angehobenen Sweet Spot (wenn der Prozess hält was man erwarten kann). Wenn Navi eine 64 CU Lösung wird, sehe ich ihn schon wegen dem höheren Takt auf Höhe der Vega 64 oder sogar etwas darüber.

HOT
2018-10-29, 13:33:59
Bullshit.

genervt
2018-10-29, 15:22:10
Das wäre enttäuschend. ...nur 20% schneller als eine Vega64?
Da sollte einiges mehr drin sein.

Navi wird vermutlich kleiner als GP104 ausfallen bei ähnlicher Leistung und einem Preis von wahrscheinlich max 300 Eur. Mainstream halt. Warum sollte mehr drin sein? nVidia wird erst mit 7nm neue Mainstream Chips bringen und selbst in 7nm gefertigte GT10X Chips werden groß ausfallen. Da setzt man bei AMD schon den Hebel richtig an.
Die 20% Mehrleistung sind nur auf Vega 64 im 7nm Prozess gerechnet. Was Navi an architektonischen Neuerungen bringt, wissen wir noch gar nicht. Da geht imo noch was.

HOT
2018-10-29, 16:20:39
Die Rede war von < 200mm². Daher gehe ich auch von 48CUs aus, nicht von 64.

Complicated
2018-10-29, 17:20:46
Kleiner 200 mm2? Das höre ich das erste mal. Quelle?

Leonidas
2018-10-29, 18:17:19
Quelle ist PCGH:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-monolithisches-GPU-Design-MCM-1258744/

Angeblich kleiner als Polaris 10 in 14nm (232mm²). Das würde aber nicht zwingend weniger als 200mm² bedeuten, sondern eher "um die 200mm²" oder auch "etwas oberhalb 200mm²".

AffenJack
2018-10-29, 18:53:31
Quelle ist PCGH:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-monolithisches-GPU-Design-MCM-1258744/

Angeblich kleiner als Polaris 10 in 14nm (232mm²). Das würde aber nicht zwingend weniger als 200mm² bedeuten, sondern eher "um die 200mm²" oder auch "etwas oberhalb 200mm²".

Nur das PCGH diese "Infos" im gleichen Moment erfahren haben will, wie deren Q1 Release date für Navi, der sich als völlig falsch herausgestellt hat. Ergo, wir haben Null Infos, wie groß Navi wird.

reaperrr
2018-10-29, 19:12:24
Das wäre enttäuschend. ...nur 20% schneller als eine Vega64?
Da sollte einiges mehr drin sein.
Nicht mit dem ersten Navi-Chip, Navi10. Der wird wohl quasi der neue Polaris10, nur dass N10 wohl zumindest ca. auf GTX 2070-Level landen wird, und nicht wie P10 nur gegen die xx60 antritt (außer NV bringt schon nächstes Jahr die nächste Generation, dann könnte es auch gegen 3060 gehen, halte ich aber für eher unwahrscheinlich, dass sie Turing schon nach 9-12 Monaten wieder ersetzen).

Gerüchten zufolge soll später noch ein größerer Navi20 folgen, der auch gegen NV's schnellere Chips ankommt, aber wenn, dann wohl erst 2020.

Selbst als ein 64 CU Polaris Chip wird der sicherlich oberhalb der Vega 64 angesiedelt sein was die Leistung an geht. Allein der schnelle GDDR6 Speicher im Vergleich zu Polaris, welcher ja eindeutig beim RAM krankt, sorgt für ein gutes Plus. Dazu noch der höhere Takt im angehobenen Sweet Spot (wenn der Prozess hält was man erwarten kann). Wenn Navi eine 64 CU Lösung wird, sehe ich ihn schon wegen dem höheren Takt auf Höhe der Vega 64 oder sogar etwas darüber.
Nein, das allein würde im Verhältnis zur Rohleistung gar nichts bringen.
Wenn Navi10 wirklich 64 CUs hat (für mich zumindest fraglich) und 8GB 14Gbps GDDR6 @ 256bit SI* (wovon ich ausgehe), bleibt die nominelle Speicherbandbreite pro FLOP bestenfalls auf P10-Niveau.

Soll heißen, ohne größere Fortschritte bei DCC, DSBR, Tiling etc. würde der Chip nicht weniger bandbreitenlimitiert sein als Polaris10, da der Bandbreitenbedarf im gleichen oder sogar höheren Maße steigen würde wie die Bandbreite.
Wobei ich schon erwarte, dass es da noch weitere Architektur-Fortschritte über Vega hinaus gibt. AMD wissen ja sicherlich selbst am Besten, wo die Schwachstellen ihrer Architekturen liegen, und an Navi wurde mit mehr Ingenieuren gearbeitet als an Vega.


*entspräche 448 GB/s Bandbreite, im Vergleich zu 484 GB/s bei V64.

Ravenhearth
2018-10-29, 19:12:50
48 CUs wären ja nur ein Drittel mehr als bei Polaris10. Damit müsste AMD selbst mit den Architekturverbesserungen den Takt wahrscheinlich viel zu hoch prügeln, um die 2070 zu erreichen. 64 klingen einfach besser und sollten dank 7nm in eine Polaris10-ähnliche Größe passen.

reaperrr
2018-10-29, 19:50:11
48 CUs wären ja nur ein Drittel mehr als bei Polaris10. Damit müsste AMD selbst mit den Architekturverbesserungen den Takt wahrscheinlich viel zu hoch prügeln, um die 2070 zu erreichen. 64 klingen einfach besser und sollten dank 7nm in eine Polaris10-ähnliche Größe passen.
Wir wissen noch nicht, wie weit sich die Strukturen in der Praxis wirklich shrinken lassen (v.a. so I/O-Zeugs wie Speicherinterfaces) und wieviel zusätzlichen Platz eventuelle Architekturverbesserungen benötigen.
AMD könnte z.B. auch die Menge an L1$ je CU erhöht oder noch mehr Transistoren in Taktbarkeit investiert haben.

Außerdem wären rein technisch auch 56 CUs möglich, und vielleicht sogar die ausbalancierteste Lösung, je nachdem, welche Teile der Architektur die größten Verbesserungen erfahren haben.

Man sollte auch nicht vergessen, dass 48 CUs streng genommen immer noch mehr [FP]-Rohleistung pro Takt bedeuten, als TU106 hat.
Wenn AMD die durchschnittliche Leistung je ALU mal an NV annähern könnte, sollten die Specs selbst bei "nur" 1,6-1,7 GHz eigentlich wenigstens für Gleichstand reichen.

Der_Korken
2018-10-29, 20:24:14
48 CUs sind mehr als man auf den ersten Blick vermutet. Es sind "nur" 1/3 mehr als P10, dazu kommen aber sicherlich nochmal 25% mehr Takt als P10. Das macht schonmal 67% mehr Rohleistung und 75% mehr Bandbreite als die 580. Laut CB ist eine V64 in 1440p ca. 65% schneller und die 2070 nochmal 7% schneller als diese. Lassen wir es 80% sein. Da kann man mit 48 CUs absolut rankommen.

Voraussetzung ist natürlich, dass die Architektur auch verbessert wurde und die Rohleistung in echte Leistung umgesetzt wird. Irgendwo müssen die Transistoren und das Engineering bleiben. Außerdem hat Polaris keinen DSBR, keine doppelte FP16-Rate und kein NGG. Ich hoffe deswegen, dass die "IPC" mit Navi gegenüber Polaris zunimmt.

HOT
2018-10-29, 20:46:13
Sollziel wird mit Sicherheit gewesen sein, V10-Leistung mit möglichst wenig Aufwand, sprich einem möglichst kleinen Chip, zu erreichen. Um grob V10-Leistung mit 48CUs zu erreichen braucht N10 ca. 2GHz, mit Architekturverbesserungen sicherlich etwas weniger, was mMn mit 7nm HPC machbar ist. Zur Erinnerung, Polaris brachte ohne große Architekturänderungen 30-40% mehr Takt ggü. 28nm, der Spung ist diesmal ähnlich. Wenn man da mehr Takt packt als man geplant hat, hätte man die das "läuft besser als erwartet" erschlagen. Sollziel war sicherlich V10-Leistung, ist-Ziel ist offenbar 2070, ich denke mit der Erwartung wird man gut fahren.
64CUs sind sicher genauso Quatsch wie 2080-Leistung o.Ä.


Und nein, N20 als High-End-Chip halte ich generell für ausgeschlossen. Wenn dann ist N20 ein 7 EUV-Refresh von N10, aber Lisa Su hat keinen Zweifel gelassen, dass Navi nur Mainstream ist und erst die neue Architektur wieder High-End.
Navi ist wie Polaris halt wieder "alter Kack" (Vega ohne Flaschenhälse und mit NGG) und erst die moderne Folgegeneration bekommt die Rosinen. Man wird sich diesmal sicherlich etwas mehr Mühe geben als bei Vega, dem Zen ja quasi reingegrätscht ist.

SKYNET
2018-11-02, 21:43:44
https://www.tomshw.de/2018/11/02/lisa-su-verspricht-amd-gibt-den-high-end-gpus-nicht-auf/

AMDoderNvidia
2018-11-02, 22:54:46
Nächste Woche am Dienstag ist ein AMD Tech Day :) Mal schauen, was da verkündet wird.

Linmoum
2018-11-02, 23:24:45
Thema werden 7nm und in dem Zusammenhang dann eben mit Rome (Zen2) und V20 kommende Produkte sein. Fokus liegt auf Datacenter.

Ravenhearth
2018-11-03, 02:58:01
Jep. Consumer sind dann auf der CES dran.

horn 12
2018-11-10, 19:35:13
https://wccftech.com/exclusive-first-amd-navi-gpu-will-have-40-cus-and-is-codenamed-navi-12/

Navi Modelle:

danarcho
2018-11-10, 19:53:48
https://wccftech.com/exclusive-first-amd-navi-gpu-will-have-40-cus-and-is-codenamed-navi-12/

Navi Modelle:
Ja, oder auch nur ein Modell. Neue mArch statt GCN? Glaub ich erst, wenn ich es sehe. Meine Prognose ist: außer ein paar opcodes ändert sich an der ISA und am Grundaufbau (64 lanes, scalar unit, 4 takte / 16wide simd) rein gar nichts (was auch gut so ist).

dildo4u
2018-11-10, 20:00:51
Klingt nach einem 200mm² Chip,dürfte im Bereich der Vega 56 landen wenn der Takt hoch genug ist.Wäre natürlich deutlich Gewinnbringender ohne HBM2 mit der Hälfte der Chipgröße.

Linmoum
2018-11-10, 20:02:29
wtftech, weitergehen. Gibt nichts zu sehen.

vinacis_vivids
2018-11-10, 20:16:16
Ja, oder auch nur ein Modell. Neue mArch statt GCN? Glaub ich erst, wenn ich es sehe. Meine Prognose ist: außer ein paar opcodes ändert sich an der ISA und am Grundaufbau (64 lanes, scalar unit, 4 takte / 16wide simd) rein gar nichts (was auch gut so ist).

Vega gilt bereits als neue uArch und beinhaltet bereits die meisten Änderungen. Navi hat natürlich GCN-Wurzeln (was auch sonst?), wo bestimmte Limits gesprengt werden. Int4 und Int8 werden reinkommen (von Vega20) während fp64 weggelassen wird.
Auf jeden Fall gehts um Schlankheit, schmales SI und höheren Takt. Bezahlbar solls ja bleiben für die Masse.

Der_Korken
2018-11-10, 21:11:11
Ich finde es komisch, dass der kleine Navi-Chip schon 1H2019 kommen soll, der große aber erst Ende 2020. Wenn eine Architektur fertig designed ist, braucht man doch nicht >1,5 Jahre um einen größeren Ableger davon zu bringen. Für mich bedeutet das, dass der kleine Navi-Chip nur eine Vega-Evolution ist, für die AMD nur das Nötigste tut, weil sie die Ressourcen lieber für die neuen µArch einsetzen wollen. Diese würde dann erst mit dem "großen Chip" Ende 2020 kommen.

Daredevil
2018-11-10, 21:12:40
Klingt nach einem 200mm² Chip,dürfte im Bereich der Vega 56 landen wenn der Takt hoch genug ist.Wäre natürlich deutlich Gewinnbringender ohne HBM2 mit der Hälfte der Chipgröße.
Uff. Aber wieso pusht AMD jetzt Polaris Richtung Vega56, wenn man Vega56 ähnliche Leistung so günstig bekommen kann? Ist doch irgendwie komisch, oder nur für den Übergang so.

dildo4u
2018-11-10, 21:15:11
Für mich macht das Sinn schon alleine um von HBM2 wegzukommen,und Polaris ist nunmal der älteste aktuelle AMD Chip,die RX480 ist von 2016.
Mitte 2019 wäre sie 3 Jahre alt wird Zeit für ein Ersatz,Vega 64 ist noch teuer genug wo es sich vermutlich fast rechnet aber nicht bei 350-400€ für die 56.

Daredevil
2018-11-10, 21:26:39
Ja genau, deswegen sag ich ja wieso eine RX590 ( ~anscheinend RX580 +10-15% ) , wenn eine kleine Vega das genauso könnte? Weil eine hypothetische RX590 ist nur ~20-25% entfernt von einer Vega56.
Es sei denn, man macht halt nen schniecken Preis, stimmt schon.

Ravenhearth
2018-11-10, 22:08:06
Ich finde es komisch, dass der kleine Navi-Chip schon 1H2019 kommen soll, der große aber erst Ende 2020. Wenn eine Architektur fertig designed ist, braucht man doch nicht >1,5 Jahre um einen größeren Ableger davon zu bringen. Für mich bedeutet das, dass der kleine Navi-Chip nur eine Vega-Evolution ist, für die AMD nur das Nötigste tut, weil sie die Ressourcen lieber für die neuen µArch einsetzen wollen. Diese würde dann erst mit dem "großen Chip" Ende 2020 kommen.
Dazwischen soll aber auch noch Navi10 kommen, also laut wtftech Ende '19 - Anfang '20. Vielleicht soll Navi20 erst Ende 2020 kommen, weil der schon in 7nm EUV ist? Aber 2020 sollte eigentlich auch schon die Next Gen Architektur kommen, also keine Ahnung...

Was für ein Interface könnte Navi12 bekommen? Braucht man bei nur 40 CUs und GDDR6 denn 256 bit?

Der_Korken
2018-11-10, 23:21:17
Dazwischen soll aber auch noch Navi10 kommen, also laut wtftech Ende '19 - Anfang '20. Vielleicht soll Navi20 erst Ende 2020 kommen, weil der schon in 7nm EUV ist? Aber 2020 sollte eigentlich auch schon die Next Gen Architektur kommen, also keine Ahnung...

Was für ein Interface könnte Navi12 bekommen? Braucht man bei nur 40 CUs und GDDR6 denn 256 bit?

Ich habe mich verlesen. Der 2020/2021er Chip soll tatsächlich Navi 20 sein. Wenn das der HPC-Chip wird, macht der späte Release schon mehr Sinn, weil der sehr schwer zu fertigen sein wird und Vega 20 gerade erst vorgestellt wurde. Wollen wir mal hoffen, dass Navi 12 bereits die verbesserte Architektur hat. V56-Performance mit 40 CUs hören sich erstmal gut an. Wenn man aber einen Vega-Chip mit 40CUs nimmt und auf 1,8Ghz hochprügelt, könnte das schon reichen - nur dass der Chipp dann wahrscheinlich trotz 7nm 200W verbrauchen wird. Speicherinterface würde ich auf 256bit tippen, weil man mit 192bit entweder nur auf 6GB kommt oder direkt 12GB verbauen muss, was für eine Midrange-Karte teuer und eigentlich auch unnötig ist. Bei 256bit würde auch 12Ghz-Speicher vollkommen reichen.

Ravenhearth
2018-11-12, 16:49:29
AMD’s David Wang: We Won’t Implement DirectX RayTracing (DXR) Until Its Offered In All Product Ranges (https://wccftech.com/amds-david-wang-we-wont-implement-directx-raytracing-dxr-until-its-offered-in-all-product-ranges/)
“For the time being, AMD will definitely respond to Direct Raytracing,” for the moment we will focus on promoting the speed-up of offline CG production environments centered on AMD’s Radeon ProRender, which is offered free of charge ….. utilization of ray tracing games will not proceed unless we can offer ray tracing in all product ranges from low end to high end,” – David Wang, AMD in an interview to 4Gamer

Sunrise
2018-11-12, 18:19:04
Mit anderen Worten:
Sie können/wollen es sich nicht leisten, da sie die verfügbare Fläche maximal effizient einsetzen müssen um konkurrenzfähig zu sein und in preissensitiven Bereichen auf NV aufschließen zu können.

Bei GCN da nochmal was "ranzupflanschen" ist ohnehin unsinnig, und auch bei NV ist die Umsetzung derzeit nicht überzeugend, weil es einfach nur für einen minimalen Prozent-Anteil nutzbar und selbst dort nur als Randnotiz relevant ist.

Sofern AMD jedoch auch bei AI aufholt (DLSS), ist Raytracing tatsächlich erstmal vollkommene Platzverschwendung, da noch 1-2 Generationen zu früh.

Es ist zwar schon wichtig, dass HW am Markt ist, insofern natürlich zu begrüßen, aber AMD scheint da schon sehr auf dem Boden der Tatsachen zu sein, was unbedingt getan werden muss und was erstmal nur Luxus ist, den 95% der Käufer nicht benötigen.

Linmoum
2018-11-12, 18:37:53
Das könnte für die kommenden Konsolen schon extrem knapp werden. Nach der Aussage würde ich aber nicht mit einer hw-seitigen Implementierung rechnen. Für die Marktdurchdringung wäre das schon richtig bitter.

Immerhin weiß man jetzt aber auch von offizieller Seite, dass es mittel- bis langfristig bei beiden Hersteller eine entsprechende Implementierung geben wird. Intel wird da sicherlich ebenfalls mitziehen.

BoMbY
2018-11-12, 19:14:49
Das DX-Raytracing könnte man prinzipiell auch erstmal per Treiber als Shader implementieren. Bei manchen Spielen (nicht unbedingt BF1) könnte das vermutlich auch erstmal ausreichen, und zumindest könnten die Entwickler welche AMD-Karten nutzen das auch mal ausprobieren.

AffenJack
2018-11-12, 19:31:07
Mit anderen Worten:
Sie können/wollen es sich nicht leisten, da sie die verfügbare Fläche maximal effizient einsetzen müssen um konkurrenzfähig zu sein und in preissensitiven Bereichen auf NV aufschließen zu können.

Eher können. Für Navi wurde man wahrscheinlich einfach etwas überrumpelt und hätte spät in der Entwicklung eh nix mehr machen können. Für den Gamingmarkt wird das auch erstmal nicht so schlimm sein. Aber im Profibereich wird es ohne Hardwareraytracing extrem schwierig werden, auch wenn man so schön auf ProRender verweist. Nach jahrelanger Aufholjagd in der man Nv so einige Marktanteile abnehmen konnte, wird es da wohl erstmal wieder runter gehen.

fondness
2018-11-12, 20:13:35
Eher können. Für Navi wurde man wahrscheinlich einfach etwas überrumpelt und hätte spät in der Entwicklung eh nix mehr machen können. Für den Gamingmarkt wird das auch erstmal nicht so schlimm sein. Aber im Profibereich wird es ohne Hardwareraytracing extrem schwierig werden, auch wenn man so schön auf ProRender verweist. Nach jahrelanger Aufholjagd in der man Nv so einige Marktanteile abnehmen konnte, wird es da wohl erstmal wieder runter gehen.

Was genau ist für dich der profibereich? Da sehe ich primär AI bzw GPU computing und höchstens sekundär raytracing. Für den gaming Markt kann NV defacto auch nichts liefern was relevante Marktanteile erreichen kann geschweige denn ist die Geschwindigkeit überzeugend. Wie viele profisysteme tatsächlich von der raytracing hw profitieren wäre mal eine interessante Marktstudie.

basix
2018-11-12, 20:40:59
Der ganze Film- und Fotorendering-Markt ist ein paar Milliarden schwer. Nur schon ein paar einzelne Prozent von diesem Markt mittels RT-HW und man holt schön was rein.

AffenJack
2018-11-12, 21:36:17
Was genau ist für dich der profibereich? Da sehe ich primär AI bzw GPU computing und höchstens sekundär raytracing. Für den gaming Markt kann NV defacto auch nichts liefern was relevante Marktanteile erreichen kann geschweige denn ist die Geschwindigkeit überzeugend. Wie viele profisysteme tatsächlich von der raytracing hw profitieren wäre mal eine interessante Marktstudie.

Profi ist für mich Workstation, Radeon Pro und Quadro. AI und GPU Computing ordne ich eher Datacenter/HPC zu. Natürlich braucht nicht der ganze Markt da Raytracing, aber es dürfte da schon einige Bereiche treffen.

HOT
2018-11-13, 09:17:56
Auf absehbare Zeit kein RT bei AMD.
https://www.guru3d.com/news-story/amd-will-not-implement-directx-ray-tracing-anytime-soon.html
Also für Navi defitiv nicht und die nächste Generation kann man denke ich auch ausschließen, da da RT im Low-End ebenfalls nicht möglich sein wird.
Das ist eigentlich das Todesurteil für RT im Gamer markt, da der zweite Player vorerst einfach nicht mitspielt. Mehr als Leuchtturmprojekte wirds mMn nicht geben, denn auch die Konsolen werden definitiv kein RT machen (also die nächste Generation und dessen Refresh) - das baut ja alles auf Navi auf.

dildo4u
2018-11-13, 09:22:54
AMD baut Sony Custom Chips wenn sie es wollen,die PS4 Pro hat z.b FP16 die Desktop Polaris nicht.

Der_Korken
2018-11-13, 09:42:11
Dass AMD nicht mal eben bei Raytracing nachzieht, war zu erwarten. Woher soll es auch kommen? Nvidia ist in der komfortablen Position, jede Menge Geld und bereits sehr effiziente Architektur zu haben. Das tut denen nicht so weh, mal 20% Chipfläche für Experimente zu opfern. Bevor AMD damit anfängt, müssen die erstmal die Rückstände bei Perf/W und Perf/Transistor aufholen und das mit einem deutlich kleineren Budget als Nvidia. Es wird wohl ähnlich laufen wie bei Zen: Man verwaltet die alte Arch mit minimalem Aufwand und pumpt alle Ressourcen in die neue Arch (Kuma?) für 2020. Diese könnte dann sehr wohl RT nativ können.

HOT
2018-11-13, 10:05:40
AMD baut Sony Custom Chips wenn sie es wollen,die PS4 Pro hat z.b FP16 die Desktop Polaris nicht.
Navi kanns halt nicht, also vergiss es und Navi ist auch nach Sonys Anforderungen entwickelt worden. Also stand das wohl auch nicht im Lastenheft. Davon sollte man sich echt verabschieden, die Konsolen können kein RT, dieser Annahme sollte man nicht verfallen, die Wahrscheinlichkeit tendiert echt gegen 0.

Der_Korken
nein kann er zu 99% eben nicht. Denn das Statement war ja, dass man das von low End bis high-End anbieten möchte durch die Bank und das das eben noch lange dauern wird. Das wird also mit 7nm nix. Vielleicht dann mit der 5nm oder 3nm-Generation.

Unicous
2018-11-13, 10:10:00
Tatsachenbehauptung ohne Anhaltspunkte.:rolleyes:

Artikel mit Google Translate kann ich auch basteln. Der Typ hat sich nicht zu Navi geäußert, weil AMD sich noch nicht zu Navi geäußert hat, außer dass es ein Produkt ist das im nächsten Jahr erscheint.

Der_Korken
2018-11-13, 10:23:49
nein kann er zu 99% eben nicht. Denn das Statement war ja, dass man das von low End bis high-End anbieten möchte durch die Bank und das das eben noch lange dauern wird. Das wird also mit 7nm nix. Vielleicht dann mit der 5nm oder 3nm-Generation.

Was dieses "von low end bis high end anbieten" bedeutet, ist Interpretationssache. Wenn AMD so lange wartet, bis deren low-end-Modell so schnell wie eine 2080Ti ist, dann hast Recht. Ich interpretiere das eher so, dass AMD auf eine neue Arch wartet, mit der sie von high end bis low end alles bedienen können. Also zum Beispiel die, die für (Ende) 2020 spekuliert wird. Für Zwischenlösungen wollen sie keine Ressourcen verbraten.

dildo4u
2018-11-13, 10:29:41
Navi kanns halt nicht, also vergiss es und Navi ist auch nach Sonys Anforderungen entwickelt worden. Also stand das wohl auch nicht im Lastenheft. Davon sollte man sich echt verabschieden, die Konsolen können kein RT, dieser Annahme sollte man nicht verfallen, die Wahrscheinlichkeit tendiert echt gegen 0.

Der_Korken
nein kann er zu 99% eben nicht. Denn das Statement war ja, dass man das von low End bis high-End anbieten möchte durch die Bank und das das eben noch lange dauern wird. Das wird also mit 7nm nix. Vielleicht dann mit der 5nm oder 3nm-Generation.
Es ist überhaupt nicht bekannt wann die neuen Konsolen kommen,Ende 2020 sollte AMD z.b den Nachfolger von Navi haben.Die PS3 war z.b von 2006 bis 2013 aktuell,die PS4 kann also locker bis 2020 gehen.Genau aus dem Grund gab es ein Midgen Refrech damit man mehr Zeit für die PS5 hat.

mboeller
2018-11-13, 10:34:29
möglich wäre es schon... aber wahrscheinlich ist es nicht.

https://pubweb.eng.utah.edu/~cs6958/papers/HWRT-seminar/Keely-ReducedPrecisionRayTracing.pdf

https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf

Basis war ja eine RX290X für ihre "Modifikation"

On Top gehen sie für die Performance von folgenden aus:


at or above 2M pixels and 50-100 rays/pixel needed
for low noise, we can expect to need on the order of 150
million rays per frame.


während Nvidia ja nur mit ca. 1 Ray/Pixel arbeitet wenn ich mich recht erinnere.

HOT
2018-11-13, 16:21:25
Der_Korken
Jo, du hast recht. Ich bin da einer falschen Interpretation aufgesessen.

Aber die Konsolen werden sicherlich wirklich auf Navi aufsetzen wie vorerst alle APUs. Da würde RT auch nichts bringen, die brauchen einfach mehr Leistung. Das wird was für 3nm. Es ist aber wahrscheinlich, dass die PS5 noch eine Upgrade Slim/Pro in 5nm bekommt, welcher wieder etwas mehr als ein Shrink werden wird für 8k. Ich fand Leos Tabelle in der News:

https://www.3dcenter.org/news/amd-wird-definitiv-auf-raytracing-reagieren

auch ziemlich gut. Auch die 2027 sind sehr realistisch mMn. Bis dahin hat man auch die Kosten von 3nm langsam im Griff, sodass sich ein Konsolen-SoC überhaupt lohnt.

Dural
2018-11-13, 17:16:26
wollt ihr jetzt wirklich über eine komplett belanglose standard aussage eines AMD mannes diskutieren? :rolleyes:

Es ist ja nur mehr als offensichtlich das AMD den Zug verpasst hat, da wird vor 2020 rein gar nichts kommen, und es würde mich nicht mal verwundern wenn selbst 2020 nichts kommt.

dargo
2018-11-13, 17:38:43
Welchen Zug? ;D

HOT
2018-11-13, 17:43:01
Er meint The Rocket, den NV jetzt rausgebracht hat :D. Ich wart lieber auf den Shinkansen ;D.

Nazar
2018-11-13, 18:06:24
Dass AMD nicht mal eben bei Raytracing nachzieht, war zu erwarten. Woher soll es auch kommen? Nvidia ist in der komfortablen Position, jede Menge Geld und bereits sehr effiziente Architektur zu haben. Das tut denen nicht so weh, mal 20% Chipfläche für Experimente zu opfern. Bevor AMD damit anfängt, müssen die erstmal die Rückstände bei Perf/W und Perf/Transistor aufholen und das mit einem deutlich kleineren Budget als Nvidia. Es wird wohl ähnlich laufen wie bei Zen: Man verwaltet die alte Arch mit minimalem Aufwand und pumpt alle Ressourcen in die neue Arch (Kuma?) für 2020. Diese könnte dann sehr wohl RT nativ können.

RayTraycing ist heute da, wo 4K Gaming vor 5 Jahren war, vermutlich sogar noch viel weiter weg. RT ist jetzt komplett überbewertet und derzeit fürs Gaming vollkommen sinnbefreit!
Die Aussage AMDs, dass es erst Sinn macht, wenn alle Leistungsklassen im Gaming davon proftieren können, ist logisch und folglich ist eine Diskussion, ob die nächste oder übernächster oder sogar eine Generation GPUs in 5 Jahren RT beherrscht, nicht zielführend!
Hand hoch von den 20XX Besitzern, die in naher Zukunft RT in einem UHD+ Spiel bei 60 FPS und vollen Details erleben werden?
Keiner?
Na, was für ein Wunder! :freak:
Weder gibt es Spiele dafür und die Publisher, die es getestet haben, merkten schnell, dass RT einfach viel zu viel Ressourcen in der Entwicklung (Tweaking) und im Spiel frisst.
Die nutzbaren Effekte fallen, wenn das Spiel noch gut performen soll, nur auf, wenn man im Spiel mit Stop-Szenen darauf verweist.
AMD kann RT noch gut ein paar Jahre vergessen und wenn nV glaubt, dass sie wieder mal einen Alleingang machen müssen, ja dann lasst sie doch. :wink:
#PhysX ist so unglaublich wichtig
#RT see u in 5+ Years

amdfanuwe
2018-11-13, 18:11:46
Hand hoch von den 20XX Besitzern, die in naher Zukunft RT in einem UHD+ Spiel bei 60 FPS und vollen Details erleben werden?

Das sind die Typen, die im Action Shooter vor den Pfützen stehen und die Spiegelungen bewundern.

Mandalore
2018-11-18, 15:29:50
Wie hoch ist eig die Wahrscheinlichkeit, dass Navi tatsächlich ne neue Architektur ist und KEIN GCN?? Ich meine die Roadmap sah ja nen Vega in 7nm auch net vor...Vielleicht war bei einem GCN Navi in der Vorentwicklung die Leistung bzw. alles andere einfach nicht zufriedenstellend gewesen?

yummy_candy
2018-11-18, 15:30:53
Wie hoch ist eig die Wahrscheinlichkeit, dass Navi tatsächlich ne neue Architektur ist und KEIN GCN?? Ich meine die Roadmap sah ja nen Vega in 7nm auch net vor...Vielleicht war bei einem GCN Navi in der Vorentwicklung die Leistung bzw. alles andere einfach nicht zufriedenstellend gewesen?
Liegt bei 0%. Es ist schon angekündigt worden, daß NAVI die letzte GCN-Architektur wird.


GCN an sich ist eine sehr gute und auch leistungsfähige Architektur. Sie krankt allerdings daran, eher für rechenintensive Sachen, als für Gaming konzipiert worden zu sein.

Dieses 64CU Limit existiert auch nicht wirklich. Ich empfinde lediglich diie maximale Anzahl ROPs pro Pipeline zuwenig.

dargo
2018-11-18, 15:45:03
GCN an sich ist eine sehr gute und auch leistungsfähige Architektur. Sie krankt allerdings daran, eher für rechenintensive Sachen, als für Gaming konzipiert worden zu sein.

Deshalb ist GCN in den beiden letzten Konsolen von MS und Sony verbaut. :freak:

yummy_candy
2018-11-18, 15:53:13
Deshalb ist GCN in den beiden letzten Konsolen von MS und Sony verbaut. :freak:
Ich hab nicht bestritten, daß man sie dafür einsetzen kann. Allerdings könnte AMD mit mehr Mitteln auch eine Architektur nur fürs Gaming konzipieren. Lisa hatte mal sowas indirekt angekündigt.

w0mbat
2018-11-18, 15:56:56
Ich denke dass Navi "nur" fürs gaming designed wird.

yummy_candy
2018-11-18, 15:57:48
Ich denke dass Navi "nur" fürs gaming designed wird.
Gut möglich. Es ist so gut wie gar nichts darüber bekannt. Selbst das mit der Playstation ist nur ein Gerücht.

Lard
2018-11-21, 08:17:08
NAVI 7nm ≈ RTX 2070 March/June 2019 $250-$300
cut-down NAVI ≈ GTX 1070 $200
High-End NAVI+ confirmed Q4 2019

https://www.youtube.com/watch?v=4_o8vrJnQ9Q

Der_Korken
2018-11-21, 09:14:50
Reine Spekulation. Allerdings auch etwas inkonsistent:

1. 96 CUs für den kleinen Navi? Never ever. Damit würde der Chip fetter werden als Vega 20, selbst wenn man den ganzen IO-Kram weglässt. Das lässt sich gewinnbringend nicht für 300$ verkaufen. Außerdem hätte selbst ohne Taktsteigerung der Chip eine 50% höhere Rohleistung als V64 und müsste eigentlich mit der 2080 konkurrieren, die ca. 40% schneller als V64 ist. Das passt vorne und hinten nicht zusammen. 96 CUs wären nur für den großen Chip denkbar.

2. Wenn der kleine Navi an die 2070 rankommt, warum sollte der große dann "nur" zwischen 1080 Ti und 2080Ti liegen? Das wären vielleicht 30% mehr Speed. Viel zu wenig Abstand, da wäre es wirtschaftlicher vom großen Chip einen cut-down auf 2070-Level zu bringen und den kleinen Chip darunter zu positionieren.

AffenJack
2018-11-21, 09:21:03
Ich vermisse die Zeiten in denen es wenigstens noch Fudzilla oder Wccftech als Quellen gab. Heute wird jeder Youtuber herangezogen, die alle Industriequellen haben wollen. Dabei haben die Trefferquoten, gegen die Wccftechs Trefferquoten anmuten, als wären sie ein seriöses Medium.

Wette das Zeug ist einfach ausgedacht.

mboeller
2018-11-21, 10:55:03
möglich wäre es ja schon, wenn auch sehr unwahrscheinlich, wenn man die ALU's doppelt zählt.

Eine CU besteht ja, soweit ich mich erinnere aus 8 Einheiten mit 2x4 ALU, also insgesamt 64 32bit MAD-Operationen.

Wenn AMD, das ähnlich wie IMG aufgelöst hat und jetzt eine MAD und eine MUL Einheit verbaut dann zählen sie vielleicht auch die Einheiten doppelt bzw. bringen, wie IMG doppelt soviele Einheiten in der GPU unter.

https://www.golem.de/news/powervr-series-8xt-imgtechs-erste-furian-gpu-nutzt-zwei-cluster-1705-127685.html


Die beiden Unified Shader Cluster weisen dank der Furian-Technik 32 statt 16 ALU-Pipelines auf, die verglichen mit der älteren Rogue-Architektur über einen anderen Aufbau verfügen. Dank einer MAD- und neuerdings einer MUL-Einheit statt 2x MAD möchte Imagination Technologies die Auslastung der ALUs deutlich steigern, hinzu kommen ein überarbeitetes Cache-System, doppelte so mächtige Textureinheiten, schnellere Datenpfade und weitere Änderungen.


für die Auslastung wäre das vielleicht wirklich günstig und damit natürlich auch für den Verbrauch.

Damit wäre dann aber Navi wirklich keine GCN-Architektur mehr.

edit: https://www.imgtec.com/blog/powervr-series8xt-pushing-power-efficiency-to-the-next-level/

Setsul
2018-11-21, 11:25:08
Nein, AMD hat schon seit GCN 1.0 4x SIMD-16 pro CU.
https://images.anandtech.com/doci/4455/GCN-CU.png

AMD kann nicht einfach die Hälfte der SIMD Units oder die Hälfte der Lanes auf MUL beschränken, dann läuft Code der MADs braucht auf denen nicht mehr.

BoMbY
2018-11-25, 22:45:42
Navi10 Lite: gfx1000
Navi10: gfx1010

Anscheinend (https://twitter.com/oscarbg81/status/1066659923835215873).

Navi 10 Lite ist auf jeden Fall schon vorher aufgetaucht. Die Frage ist, was ist was?

SKYNET
2018-11-29, 17:00:09
wilde spekulation: könnte AMD nicht einen extra chip auf den GPU träger pappen, der zb. RT aufgaben übernimmt?