PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 [58] 59 60 61

Linmoum
2018-11-08, 22:57:07
Nun zerstör ihm doch nicht seine feuchten Träume. :D

Ravenhearth
2018-11-08, 23:02:32
@edit
Ok, lass es 10 bis 15% sein, mehr aber auch nicht was dann eine RX Vega 56 Schneller ist!
Dann müsste die RX 590 20-25% schneller als die RX 580 werden, wie soll das mit vlt 15% mehr Takt gehen? Zumal die Bandbreite gleich bleibt, in der Praxis dürfte noch weniger ankommen. ;)

vinacis_vivids
2018-11-09, 13:11:07
Interne Verbesserungen am IMC und Cache sind auch denkbar/machbar.

N0Thing
2018-11-09, 13:29:49
Wenn weiterhin der gleiche P10 genutzt wird, der schon bei der RX 480 und der RX 580 zum Einsatz kam, sind Verbesserungen am IMC und Cache ausgeschlossen. Ich halte es für ziemlich unwahrscheinlich, dass AMD viel Geld für einen überarbeiteten Chip ausgibt, der nur mitten im eigenen Portfolio platziert wird.

y33H@
2018-11-09, 13:50:57
480 war P10, 580 war P20 und 590 ist P30 - alle drei unterscheiden sich leicht.

N0Thing
2018-11-09, 14:00:48
Was hat sich denn abseits des Namens geändert? Du selber hast noch im Review zur RX 5X0 Generation geschrieben, es sei unklar, ob es überhaupt einen Metal-Spin gegeben habe.

HOT
2018-11-09, 14:23:09
Einen Metalspin hat es sehr sicher gegeben für 12nm. Mehr aber eben nicht.

aufkrawall
2018-11-09, 15:05:04
480 war P10, 580 war P20 und 590 ist P30 - alle drei unterscheiden sich leicht.
Inwiefern unterscheidet sich denn P20 gegenüber 10, abseits vom VBios mit einem Pstate mehr für den VRAM?

dargo
2018-11-09, 15:08:14
falscher Thread

Leonidas
2018-11-09, 15:14:45
Inwiefern unterscheidet sich denn P20 gegenüber 10, abseits vom VBios mit einem Pstate mehr für den VRAM?


Ist auch meine Frage. Ich sehe da eher den Zwang des Marketing, dies "neu" zu labeln - als denn einen wirklich neuen Chip.

y33H@
2018-11-09, 15:42:48
Inwiefern unterscheidet sich denn P20 gegenüber 10, abseits vom VBios mit einem Pstate mehr für den VRAM?Laut AMD 14LPP+ statt 14LPP, aber das ist halt schwer zu verifizieren.

mczak
2018-11-09, 17:09:33
Laut AMD 14LPP+ statt 14LPP, aber das ist halt schwer zu verifizieren.
Wenn das so ist hat aber 14LPP+ rein gar nichts gebracht, RX4xx sind deutlich effizienter als RX5xx (was aber zweifellos nicht am Chip liegt, sondern am leicht tieferen Takt und der dazu nötigen niedrigeren Spannung, trotzdem kann ich hier keinen effektiven Unterschied erkennen).

Leonidas
2018-11-09, 17:52:23
Eine andere Chipfertigung ergibt nicht wirklich einen anderen Chip - gerade wenn man dieselbe Maske verwendet. Das ist der gleiche Chip in einer verbesserten Fertigung. Darüber hätte man früher nicht mal eine Zeile verloren, denn fertigungsoptimieriert wurde und wird ständig.

gravitationsfeld
2018-11-09, 18:35:57
Du kannst nicht die selbe Maske bei einem anderen Foundry benutzen. Nicht mal bei der selben Foundry und einem anderen Prozess. Das ging nicht mal vor 10 Jahren. Alles braucht einen komplett neues Tapeout.

Einen Metalspin hat es sehr sicher gegeben für 12nm. Mehr aber eben nicht.
Ein Metal-Spin veraendert nur die groben oberen Verdrahtungs-Lagen. 12nm hat andere Transistoren. Das ergibt keinen Sinn.

Gipsel
2018-11-09, 18:44:54
Das werden wohl nur minimale Tweaks am Prozeß sein, die auch (bzw. gerade) mit den gleichen Masken funktionieren. Früher lief sowas unter Fertigungsoptimierung, heute heißt es dann eben 14LPP+.
Und minimal andere Transistoren bekommt man auch bei identischen Lithographieschritten, wenn man da mal ein paar Sekunden länger ätzt, etwas mehr oder weniger dotiert, irgendeine Schichtdicke (was über Expositionszeiten geht) ändert und sowas. Also wenn man kleine Justagen an den Zutaten aber kein anderes Kochrezept benutzt.

Digidi
2018-11-09, 18:50:10
Du kannst nicht die selbe Maske bei einem anderen Foundry benutzen. Nicht mal bei der selben Foundry und einem anderen Prozess. Das ging nicht mal vor 10 Jahren. Alles braucht einen komplett neues Tapeout.


Ein Metal-Spin veraendert nur die groben oberen Verdrahtungs-Lagen. 12nm hat andere Transistoren. Das ergibt keinen Sinn.
Was ist den anders an den Transistoren?

Ich glaube schon das man Masken Recyclen kann. Wird einfach eine Linse dazwischen geschoben die das noch etwas kleiner macht. Muss ja nicht alles sein was Recyclet wird.

Gipsel
2018-11-09, 18:54:02
Ich glaube schon das man Masken Recyclen kann. Wird einfach eine Linse dazwischen geschoben die das noch etwas kleiner macht.Gerade das geht bestimmt nicht. Dazu ist die Optik viel zu ausgefeilt und die Masken genau darauf abgestimmt, als man da mit einer Zusatzlinse kommen würde. Das sind definitiv keine geometrischen Shrinks.

Leonidas
2018-11-09, 19:15:50
Ich bezog mich auf Polaris 10 zu "Polaris 20" ... und natürlich nicht auf Polaris 10/20 zu Polaris 30.

Normalerweise würde ich auch sagen, das 12nm etwas anderes ist. Wie verträgt sich das allerdings damit, das AMD für Pinnacle Ridge (gleicher Schritt von 14nm zu 12nm) die gleiche Maske verwendet haben soll?

y33H@
2018-11-09, 19:35:13
PR ist eine neue Maske da 12LP die BEoL und MEoL ändert, steht u.a. bei Anandtech und bei Golem zum nachlesen.

gravitationsfeld
2018-11-09, 19:51:20
Was ist den anders an den Transistoren?

Ich glaube schon das man Masken Recyclen kann. Wird einfach eine Linse dazwischen geschoben die das noch etwas kleiner macht. Muss ja nicht alles sein was Recyclet wird.
Ahahahaha :facepalm:

Das werden wohl nur minimale Tweaks am Prozeß sein, die auch (bzw. gerade) mit den gleichen Masken funktionieren. Früher lief sowas unter Fertigungsoptimierung, heute heißt es dann eben 14LPP+.
Und minimal andere Transistoren bekommt man auch bei identischen Lithographieschritten, wenn man da mal ein paar Sekunden länger ätzt, etwas mehr oder weniger dotiert, irgendeine Schichtdicke (was über Expositionszeiten geht) ändert und sowas. Also wenn man kleine Justagen an den Zutaten aber kein anderes Kochrezept benutzt.
Ist der connected gate pitch identisch?

Digidi
2018-11-09, 20:03:21
Ahahahaha :facepalm:


Ist der connected gate pitch identisch?



Stats immer wieder mit Facepalm zu kommen könntest du ja auch mal etwas tiefer gehen.

@Gipsel
Danke für die Sachliche Antwort. Das führt doch aber das ganze ab absurdum wenn man dann auch neue Masken braucht warum nicht gleich eine verbesserte Architektur bringen in 12nm?

gravitationsfeld
2018-11-09, 20:06:45
Man kann nicht einfach "eine Linse dazwischenschieben". Das ist einfach absurd, wenn man sich auch nur ein wenig mit moderner Halbleiterfertigung beschaeftigt hat.

Selbst das was Gipsel beschreibt halte ich fuer ziemlich unwahrscheinlich, Prozessoptimierung hat in der Regel auch mit verbesserten Computer-Algorithmen fuer die Masken zu tun.

Digidi
2018-11-09, 20:10:16
Eine Einfache Linse nicht, aber vielleicht eine ausgefeilte Optik. Masken sind extrem teuer in der Fertigung. Wenn man eine neue Maske macht dann macht man meist auch gleich eine neue Architektur.

Da hätte Vega dann kommen müssen, dass das Sinn macht.

Locuza
2018-11-09, 20:11:55
Die Grunddimensionen sind zwischen 14nm LPP und 12 LP identisch, wenn 9T-Bibliotheken verwendet werden und die meisten Design-Rules sollen gleich sein.
https://fuse.wikichip.org/news/1497/vlsi-2018-globalfoundries-12nm-leading-performance-12lp/

Entsprechend würde ich mich da auch fragen, ob man prinzipiell die gleiche Maske einschicken kann und automatisch Verbesserungen enthält.
Bei Pinnacle Ridge (Zen+) hat AMD auch an der Maske etwas getweaked, indem Fall ist es sowieso nicht die gleiche, aber wenn der Hersteller nichts anpassen möchte, würde es unter Umständen vermutlich funktionieren?

Ein paar Stellen hat GloFo getweaked, an den Trench-Contacts, die Fins sind ein wenig höher, aber in dem ausgeführtem Masse scheint nichts davon ein bestehendes 14nm Design inkompatibel zu machen.

gravitationsfeld
2018-11-09, 20:13:06
Eine Einfache Linse nicht, aber vielleicht eine ausgefeilte Optik.
Nein. Einfach nein. Ganz sicher nicht. Die Masken sind heutzutage so konstruiert dass Interferenzen im Licht Muster erzeugen. Das ist auf exakte Groessen zugeschnitten. Da kannst du nicht einfach was verkleinern.

Ein paar Stellen hat GloFo getweaked, an den Trench-Contacts, die Fins sind ein wenig höher, aber in dem ausgeführtem Masse scheint nichts davon ein bestehendes 14nm Design inkompatibel zu machen.
Das braucht neue Masken.

Digidi
2018-11-09, 20:17:45
Nein. Einfach nein. Ganz sicher nicht. Die Masken sind heutzutage so konstruiert dass Interferenzen im Licht Muster erzeugen. Das ist auf exakte Groessen zugeschnitten. Da kannst du nicht einfach was verkleinern.


Das braucht neue Masken.
Hast du mal einen Wissenschaftlichen Artikel dazu?

Heutzutage kann man an allem drehen. Nichts ist unmöglich und wenn man die Masken auf die Linsen abstimmen muss, dann kann man auch die Linsen auf die Masken tweeken.

gravitationsfeld
2018-11-09, 20:18:19
Nein, kann man nicht.

Naitsabes
2018-11-09, 21:41:47
Hast du mal einen Wissenschaftlichen Artikel dazu?

Heutzutage kann man an allem drehen. Nichts ist unmöglich und wenn man die Masken auf die Linsen abstimmen muss, dann kann man auch die Linsen auf die Masken tweeken.


Bei den aktuellen Prozessen werden sicherlich Phasenschiebermasken eingesetzt (beweisen kann ich es nicht, aber primitive Quarzglasmasken mit Chrom würde ich doch seeeeehr stark ausschließen). (außer natürlich bei EUV - hallo Braggreflektoren).
Wenn du dein optischen System veränderst, wirst du auch ziemlich sicher die Interferenzen verändern und dann ahst du nur noch Matsch und kein ordentliches Kontrastverhältnis, um die den lack hochauflösend zu belichten.
Und auch bei klassischen Masken, die wirklich mit Abschattung und nicht Interferenz arbeiten, wird das optische System einen großen Einfluss ahben. Die Masken werden schließlich an das Linsensystem und den resultierenden Beugungseffekten etc. angepasst.


Moderne Halbleiterei ist alles andere als "simpel". Selbst antike ist es nicht.

Brillus
2018-11-09, 21:50:39
Hast du mal einen Wissenschaftlichen Artikel dazu?

Heutzutage kann man an allem drehen. Nichts ist unmöglich und wenn man die Masken auf die Linsen abstimmen muss, dann kann man auch die Linsen auf die Masken tweeken.

Hast du überhaupt auch nur Ansatzweise eine Ahnung wie aktuelle Lithographie mit double pattern und so funktioniert.

Da hat man Zwei Masken mit 2 Lichtquellen und trägt die Strukturen über die interferencen auf weil die Wellenlänge des Lichts größer ist als die Strukturen die man erstellen will. Da ergibt auch nur die kleinste Änderung an der Optik ein total anderes Ergebniss.

Digidi
2018-11-09, 22:23:08
Hast du überhaupt auch nur Ansatzweise eine Ahnung wie aktuelle Lithographie mit double pattern und so funktioniert.

Da hat man Zwei Masken mit 2 Lichtquellen und trägt die Strukturen über die interferencen auf weil die Wellenlänge des Lichts größer ist als die Strukturen die man erstellen will. Da ergibt auch nur die kleinste Änderung an der Optik ein total anderes Ergebniss.


Ja hab ich und auch Dort sind mehre Linsen bis zur entgültigen Verkleinerung im Einsatz. Deshalb auch mein Ansatz das man die Zwischenlinsen geschickt austauscht. Interessant ist das wir 2 Dimensional denken. Was ist wenn sich in der höhe was getan hat?

https://fuse.wikichip.org/news/1497/vlsi-2018-globalfoundries-12nm-leading-performance-12lp/

Naitsabes
2018-11-09, 22:52:50
Multi-Patterning kann man beliebig komplex machen und es gibt auch viele sehr unterschiedliche Verfahren.

Übrigens denkt man in diesen Strukturbreiten schon lange nicht mehr in 2D.
Dein DoF reicht mit Pech (eigentlich immer) nicht aus, um den Lack bis aufs Substrat mit einem ausreichenden Kontrast zu belichten.
Deswegen gab es ja unter anderem Immersionslitho. Und oft hat man mittlerweile mehrere Resist/Lackschichten übereinander (wenn mich nicht alles täuscht, dann zählt das auch zu multiple patterning? In dem Bereich kenne ich mich nur mit der Fertigung von Spacerstrukturen aus)

Gipsel
2018-11-09, 23:45:40
Ist der connected gate pitch identisch?Ja. Das komplette BEOL ist offenbar identisch.
Das braucht neue Masken.Nicht unbedingt. Die Höhe der Fins (und sogar die Breite zu einem gewissen Grad) wird nicht durch die Lithographie bzw. die Maske(n) bestimmt, sondern hauptsächlich dadurch, wie man einen Ätzprozeß steuert. Das kann man also prinzipiell bei gleicher Maske durch Variation der entsprechenden Prozeßschritte (außerhalb der Belichtung) durchaus etwas variieren.

gravitationsfeld
2018-11-10, 00:03:13
Das sah nach mehr aus als nur der simplen Hoehe der Fins. Wenn das so einfach waere, dann haetten sie es gleich so gemacht.

Gipsel
2018-11-10, 00:41:29
Das sah nach mehr aus als nur der simplen Hoehe der Fins. Wenn das so einfach waere, dann haetten sie es gleich so gemacht.Die haben die Höhe der Fins etwas erhöht und angeblich die Oberflächenrauhigkeit der Fins verringert (erhöht Ladungsträgermobilität). Dazu noch Dotierungsprofile optimiert. Das erfordert eigentlich keine Änderung der Lithographie.
Und einfach ist das nicht, sonst hätten sie es tatsächlich von Anfang an gemacht. Wenn z.B. die Kontrolle des Prozesses noch etwas zu wünschen übrig läßt, kann man bestimmte Sachen nicht gut machen, weil dann der Yield einbricht oder die Binsplits wegen der Variabilität miserabel werden. Man zieht sich also auf Prozeßparameter zurück, mit denen es funktioniert. Später im Prozeßleben gehen dann aber auch die schwierigeren Sachen bei akzeptablen Yields, was man dann ausnutzen kann.

Naitsabes
2018-11-10, 00:44:32
Die Höhe der Fins (und sogar die Breite zu einem gewissen Grad) wird nicht durch die Lithographie bzw. die Maske(n) bestimmt, sondern hauptsächlich dadurch, wie man einen Ätzprozeß steuert.

Das kommt aber auch stark auf den Lack und die Selektivität des Ätzprozesses an.
Und anschließende Belichtungsschritte können dann unter der schlechteren Planarisierung leiden (oder man muss da mehr Arbeit reinstecken).

Gipsel
2018-11-10, 00:53:55
Das kommt aber auch stark auf den Lack und die Selektivität des Ätzprozesses an.
Und anschließende Belichtungsschritte können dann unter der schlechteren Planarisierung leiden (oder man muss da mehr Arbeit reinstecken).
Ja na klar. Mein Punkt ist ja gerade, daß man die Höhe bzw. das Profil der Fins erstmal nicht über die Maske steuert. Dafür sind andere Zutaten des Rezepts hauptverantwortlich. Und da kann man durchaus etwas dran tunen, ohne daß es gleich ein komplett anderes Kochrezept wird (was ein anderes Maskenset erfordert).

Naitsabes
2018-11-10, 01:00:50
Touché :D

gravitationsfeld
2018-11-10, 02:16:08
Ja na klar. Mein Punkt ist ja gerade, daß man die Höhe bzw. das Profil der Fins erstmal nicht über die Maske steuert. Dafür sind andere Zutaten des Rezepts hauptverantwortlich. Und da kann man durchaus etwas dran tunen, ohne daß es gleich ein komplett anderes Kochrezept wird (was ein anderes Maskenset erfordert).
Bringt eh nichts daerueber zu mutmassen, wir werden es nie erfahren. Ich halte die Wahrscheinlichkeit fuer neue Masken dennoch fuer ziemlich hoch.

deekey777
2018-11-14, 19:31:00
💻 Pro kann jetzt mit dem Vega M 16/20 bestellt werden, nur 300 bzw. 420 Euro mehr.

BoMbY
2018-11-14, 19:40:01
Und das wo ein HBM2-Stapel mindestens 150 Euro kostet ... oder so ähnlich.

MSABK
2018-11-14, 20:07:36
💻 Pro kann jetzt mit dem Vega M 16/20 bestellt werden, nur 300 bzw. 420 Euro mehr.

Puh, an sich ein geiles Notebook. Aber mit i7/32gb ram/1tb ssd und vega 20 sind es knapp 4700€. Das ist schon eine Ansage. Mich würde mal ein Vergleich zum normalen 15er mit 555x interessieren. So viel Luft sollte das Gehäuse auch nicht haben thermisch.

BoMbY
2018-11-14, 20:33:36
Für das Geld könnte man sich auch ca. 2x das Acer Predator Helios mit Ryzen 2700 und Vega 56 kaufen.

VooDoo7mx
2018-11-14, 21:11:37
Puh, an sich ein geiles Notebook. Aber mit i7/32gb ram/1tb ssd und vega 20 sind es knapp 4700€. Das ist schon eine Ansage. Mich würde mal ein Vergleich zum normalen 15er mit 555x interessieren. So viel Luft sollte das Gehäuse auch nicht haben thermisch.

Das Gehäuse ist schon am Limit wenn nur die CPU belastet wird. Es kann nicht permanent die 45W nur vom CPU abführen und fängt an zu drosseln.

Im Endeffekt ist das auch genau der selbe Chip wie er bei Kaby Lake G und der ist eher Polaris Tech. Hat in etwa 1050/1050Ti Leistungsniveau bei höheren Stromverbrauch.

Zu den Preisen die Apple verlangt will ich nichts mehr sagen jedoch gibt es für Windows Notebooks gibt es viel bessere Performance für viel weniger Geld.

iuno
2018-11-15, 03:01:33
Die 300€ Aufpreis sind doch echt noch human, wenn man sieht was Apple sonst so fuer laecherliche Aufpreise abruft.
Schade dass das Ding (noch?) sonst in keinem Notebook ist.

deekey777
2018-11-15, 09:17:00
Und das wo ein HBM2-Stapel mindestens 150 Euro kostet ... oder so ähnlich.
Dafür wird auf die Pro 560X 4 GB verzichtet. Für diese verlangt Apple im kleineren Modell 120 EUR.

Ich habe so meine Zweifel, dass die Pro Vega 16 mit 16 NCUs so viel schneller sein wird, dass der Aufpreis gerechtfertigt ist. Wenn jedoch HBM2 der eigentliche Preistreiber ist, dann stimmt was nicht.

MSABK
2018-11-15, 09:40:43
Das Gehäuse ist schon am Limit wenn nur die CPU belastet wird. Es kann nicht permanent die 45W nur vom CPU abführen und fängt an zu drosseln.

Im Endeffekt ist das auch genau der selbe Chip wie er bei Kaby Lake G und der ist eher Polaris Tech. Hat in etwa 1050/1050Ti Leistungsniveau bei höheren Stromverbrauch.

Zu den Preisen die Apple verlangt will ich nichts mehr sagen jedoch gibt es für Windows Notebooks gibt es viel bessere Performance für viel weniger Geld.

Das würde mich echt mal interessieren was für eine GPU da in Wirklichkeit verbaut ist. Dieses KabyLage-G hat ja nur 4 Kerne. Denke sobald es lieferbar ist, wird es was geben.

AffenJack
2018-11-15, 09:59:24
Dafür wird auf die Pro 560X 4 GB verzichtet. Für diese verlangt Apple im kleineren Modell 120 EUR.

Ich habe so meine Zweifel, dass die Pro Vega 16 mit 16 NCUs so viel schneller sein wird, dass der Aufpreis gerechtfertigt ist. Wenn jedoch HBM2 der eigentliche Preistreiber ist, dann stimmt was nicht.

Die Spekulationen über den HBM Preis waren damals bei 160$ für 2 Stacks, also 8 GB. Auch wenn der weiterhin soviel kostet, sind die 80$ für 4 GB verschmerzbar, wenn man 320$ draufzahlt.

Digidi
2018-11-15, 17:23:28
Ist das nicht NGG?

https://www.phoronix.com/scan.php?page=news_item&px=RADV-Prim-Binning-Default-Patch

basix
2018-11-15, 18:01:32
Ist das nicht NGG?

https://www.phoronix.com/scan.php?page=news_item&px=RADV-Prim-Binning-Default-Patch

Nein, das ist der DSBR. Das Tiling kann je nach Fall sogar Performance kosten, deshalb wird von Spiel zu Spiel unterschieden ob aktiviert oder nicht. Nun anscheinend per default aktiviert. Wir hier verstehen NGG eher in Richtung Primitive Shaders. Der DSBR gehört aber in den NGG Rahmen.

Digidi
2018-11-16, 10:23:02
Hier hat jemand behauptet das PS jetzt auf A.I. Basis kommt.

http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-751.html#post9595634


Nun, wo ist der Böse ATI_R290

Sagte doch dass was kommt und Raja Koduri war da dran und daher Poor Volta, aber die Zeit lief ihm davon und es gab Uneinstimmigkeiten mit der Oberen Etage
und es läuft nicht auf dies hinaus was Raja erreichen wollte, und wenn jener nicht gegangen wäre, auch sicher hätte,- aber einen Teil hat mal doch nun ENDLICH realisieren können!

Nun darf ich das Private Mail wohl veröffentlichen:

Zitat:
aktuell gibt es keinen Termin, aber der Treiber wäre theoretisch soweit fertig. Der PS wie er ursprünglich angekündigt war ist leider begraben und vergessen, dafür gibt es aber etwas andereres für was sich die PS und die Vega Rohleistung nutzen läßt.
nur gibt es leider aktuell noch keine Anpassungen an die Spiele. Allerdings sollen dieses Jahr noch 2 Patches rauskommen. Erste Spiele wird Wolfenstein colossus ( 11-22% + je nach Auflösung ) und shadow of the tomb raider ( je nach Config bis zu 46% )


@edit

Dies gerade bei Guru3D auch gefunden:

**We will have A.I. managed - Draw Stream Binning Rasterizer in December Driver Big update >18.12.1<
I think it will uplift Vega uArch performance by additional 20-30% (conservative prognosis)

Adam D.
2018-11-16, 10:28:59
Hier hat jemand behauptet das PS jetzt auf A.I. Basis kommt.

http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-751.html#post9595634
Das ist auch ganz bestimmt nicht Horn, natürlich nicht :freak: Gebt es endlich auf, es ist langsam nur noch lächerlich.

AffenJack
2018-11-16, 10:33:15
Das ist auch ganz bestimmt nicht Horn, natürlich nicht :freak: Gebt es endlich auf, es ist langsam nur noch lächerlich.

Jetzt sei mal nicht so. Der Horn-Treiber im Dezember wird die Performance um mindestens 30% erhöhen. Das haben wir bei den alten Horn-Treibern doch auch schon erlebt :freak:.

M4xw0lf
2018-11-16, 10:36:18
Hier hat jemand behauptet das PS jetzt auf A.I. Basis kommt.

http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-751.html#post9595634
Das ist unser horn... :freak:

Ravenhearth
2018-11-16, 13:59:31
Der Wundertreiber kommt. Ganz bestimmt.

w0mbat
2018-11-16, 14:12:18
Ihr werdet noch Augen machen, wenn Vega64 mit dem 18.12.1er plötzlich > 1080 Ti liegt...

Savay
2018-11-16, 14:12:51
Der Wundertreiber kommt bestimmt...spätestens mit Navi.

Raff
2018-11-16, 14:17:46
Klingt total plausibel und aus Marketingsicht auch extrem schlau. Hier, unser Weihnachtsgeschenk für euch: Vega wird endlich schnell. Ein Jahr zu spät, sodass wir herbe Verluste hinnehmen mussten. Aber hey, besser spät als nie, wa. Jetzt, wo der Winter ansteht, könnt ihr eure Bude noch flüssiger beheizen! :ugly:

MfG,
Raff

Fragman
2018-11-16, 14:22:00
Der Wundertreiber kommt. Ganz bestimmt.

Jep, ganz sicher...

http://4.bp.blogspot.com/-mGCotjKLPHY/UY1u5tSoVvI/AAAAAAAAMys/JY6c1GhdnwI/s1600/The+Pledge+Jack+Nicholson.png

Adam D.
2018-11-16, 14:23:50
Klingt total plausibel und aus Marketingsicht auch extrem schlau. Hier, unser Weihnachtsgeschenk für euch: Vega wird endlich schnell. Ein Jahr zu spät, sodass wir herbe Verluste hinnehmen mussten. Aber hey, besser spät als nie, wa. Jetzt, wo der Winter ansteht, könnt ihr eure Bude noch flüssiger beheizen! :ugly:

MfG,
Raff
Bei allem berechtigten lolz: Vega macht in den letzten Spielen ehrlich gesagt 'ne ziemlich gute Figur. Immer noch nicht da, wo man es sich wünscht, aber trotzdem sichtbar stärker.

Linmoum
2018-11-16, 14:25:46
Wir müssen alle Kräfte bündeln und an horn weitergeben. Mit seinem unbeständigen Wille und Glaube wird sein Wunsch dann in Erfüllung gehen.

BoMbY
2018-11-16, 14:31:32
Naja, einen ordentlichen MT-DX11-Treiber wird es von AMD wohl nicht mehr geben. Aber dank DXVK könnte man vermutlich auch bald darauf verzichten, das wird immer besser und funktioniert im Prinzip auch unter Windows.

Ich würde mir ja wirklich wünschen Microsoft würde die DX-Treiberseite endlich mal öffentlich zugänglich machen, oder AMD würde seine Windows-Treiber zu Open Source machen, das wäre ein Wunder und könnte die Geschichte endlich mal voran bringen.

w0mbat
2018-11-16, 14:39:08
Ich weiß gar nicht ob ich wirklich einen DX11-MT-Treiber will. Das geht so lange gut, bis die Spiele die Threads selber nutzen. Ist bestimmt nicht spec.

Sunrise
2018-11-16, 14:43:00
Bei allem berechtigten lolz: Vega macht in den letzten Spielen ehrlich gesagt 'ne ziemlich gute Figur. Immer noch nicht da, wo man es sich wünscht, aber trotzdem sichtbar stärker.
Eben typisch AMD, sind wir ja eigentlich schon gewohnt.

AffenJack
2018-11-16, 14:43:10
Klingt total plausibel und aus Marketingsicht auch extrem schlau. Hier, unser Weihnachtsgeschenk für euch: Vega wird endlich schnell. Ein Jahr zu spät, sodass wir herbe Verluste hinnehmen mussten. Aber hey, besser spät als nie, wa. Jetzt, wo der Winter ansteht, könnt ihr eure Bude noch flüssiger beheizen! :ugly:

MfG,
Raff

Vielleicht hat der Autor auch verwechselt, dass es um die Heizleistung geht. Extra für den Winter haben sie das TDP Limit rausgenommen :biggrin:. Für ein wohliges Spielgefühl im Winter. Wer braucht ne Kuscheldecke, wenn man ne Vega hat.

BoMbY
2018-11-16, 14:46:59
Bei Nvidia geht es ja auch. Was halt immer noch auffällig ist bei AMD ist, dass bei DX11 immer noch langsamer oder max. gleich schnell mit MT-Submission ist, im Gegensatz zur ST-Submission. Bei NVidia wird es da mit MT schneller. Das hat wohl mit dem internen Aufbau zu tun, und mit Moment geht bei AMD alles über den seriellen Command Processor auf der GPU, aber die könnten im Prinzip genauso wie DXVK (und vermutlich auch NVidia) einfach einen anderen Weg wählen. Man müsste halt im Treiber eine Art MT-Scheduler einbauen und die Befehle asynchron weiter verteilen wie bei Vulkan oder DX12.

Oder halt im Prinzip einfach einen DX11 auf Vulkan-Wrapper einbauen, genau wie DXVK, halt nur auf Treiberseite, und nicht durch Austausch der DLLs auf Client-Seite.

aufkrawall
2018-11-16, 14:53:23
Wo ist DXVK im CPU-Limit schneller als der AMD DX11-Treiber?

BoMbY
2018-11-16, 14:54:33
Schneller ist es im Moment auch noch nicht wirklich, aber zum Teil senkt es zumindest bereits die CPU-Last ...

dildo4u
2018-11-16, 14:58:10
Bei allem berechtigten lolz: Vega macht in den letzten Spielen ehrlich gesagt 'ne ziemlich gute Figur. Immer noch nicht da, wo man es sich wünscht, aber trotzdem sichtbar stärker.
Ebend man sollte nicht zu gierig sein,BF5 und Call of Duty 2018 performen echt Super auf Vega.Bei Nvidia würde ich zur Zeit nix unter der 2070 kaufen,meiner 1070 geht langsam die Luft aus.Zum Glück hab ich sie 2016 gekauft hat sich dadurch gerechnet.

aufkrawall
2018-11-16, 15:00:35
Schneller ist es im Moment auch noch nicht wirklich, aber zum Teil senkt es zumindest bereits die CPU-Last ...
Das wäre der gegenteilige Effekt zum Nvidia-Ansatz.

BoMbY
2018-11-16, 15:12:16
Es geht doch dabei auch nur um das Prinzip. Es ist technisch möglich DX11 über Vulkan abzubilden, das heißt es wäre technisch möglich für AMD einen vollkommen anderen Treiberansatz zu wählen als bisher. Aber wie ich schon sagte wird das wohl eher nicht mehr passieren.

Digidi
2018-11-16, 15:17:26
Soviel dazu:


Hopes & Tech knowledge + I know what ATI Driver Team can do :D
Still No valid leaks for new Driver....

"KMD_PrimitiveShaderSupport"=dword:00000001


Radeon™ Adrenalin Edition 18.11.1(upd.15/Nov) (https://forums.guru3d.com/threads/radeon%E2%84%A2-adrenalin-edition-18-11-1-upd-15-nov.423844/page-4#post-5607873)

Mal eine Überlegung:

Die Primitive Shader sind ja nicht nur in Vega10 sondern ja auch in den ganzen APUs etc. Wenn das wirklich ein Harwarefehler wäre dann wäre der doch nur bei Vega10. Das das Feature dann auch bei den APUs Hardwareseitig defekt wäre, wäre schon komisch.

Oder es gab einen logischen Denkfehler.....

Kann mal jemand einen Hig Poly vergleih mit allem anderen OFf zwischen Vega10 und einer APU machen und dann mal schauen ob das korreliert zu den Hardwareeinheiten? Wenn die APU dann auf einmal 50% mehr rausspuckt sollten die PS dort aktiv sein.

Unicous
2018-11-16, 15:24:17
Horn kann das ungestraft abziehen. Im Übrigen steht im Original folgender voranstehender Absatz:

Im HOPING FOR THIS:

Fragman
2018-11-16, 15:28:03
Die Manpower von Treibercodern sollte man auch lieber in Navi stecken, das macht mehr Sinn.
Und ich glaube auch, das man das bei AMD verstanden hat. Sowas wie Vega können sie sich nicht nochmal leisten im Gamingbereich.

reaperrr
2018-11-16, 15:45:13
Mal eine Überlegung:

Die Primitive Shader sind ja nicht nur in Vega10 sondern ja auch in den ganzen APUs etc. Wenn das wirklich ein Harwarefehler wäre dann wäre der doch nur bei Vega10. Das das Feature dann auch bei den APUs Hardwareseitig defekt wäre, wäre schon komisch.

Oder es gab einen logischen Denkfehler.....
Nein, bzw. zumindest unwahrscheinlich. Wenn was "defekt" ist, ist es oft eher ein Architekturproblem (siehe defektes Hardware-MSAA damals bei der Radeon 2000 Serie).
Abgesehen davon, dass das Problem scheinbar eher darin bestand, dass der Treiber noch zu unfertig und/oder einfach der Performancevorteil im Vergleich zu Entwickler-eigenen Compute-Culling nicht gegeben ist, gravitationsfeld oder pixeljetstream hatte einen Kommentar in die Richtung abgegeben.

Dann lieber für Vega ganz sein lassen und nur intern für die Vorbereitung des Treibers auf die 2te Generation in Navi nutzen, um es dann als neues (in Sinne von diesmal funktionierendes bzw. wirkliche Vorteile bringendes) Feature bewerben zu können.

aufkrawall
2018-11-16, 15:49:50
Es geht doch dabei auch nur um das Prinzip. Es ist technisch möglich DX11 über Vulkan abzubilden, das heißt es wäre technisch möglich für AMD einen vollkommen anderen Treiberansatz zu wählen als bisher. Aber wie ich schon sagte wird das wohl eher nicht mehr passieren.
Jetzt muss man aber nicht so tun, als ob man mit AMD bei DX11 ständig gearscht wäre. Das ist eigentlich eher zur absoluten Ausnahme geworden.
Hitman 2, AC: Od., BF5... laufen alle ausreichend schnell im CPU-Limit mit DX11 auf AMD im Vergleich zu Nvidia, und das seit den Win 10 CUs sogar mit weniger Stockern.

dargo
2018-11-16, 21:36:00
Klingt total plausibel und aus Marketingsicht auch extrem schlau. Hier, unser Weihnachtsgeschenk für euch: Vega wird endlich schnell. Ein Jahr zu spät, sodass wir herbe Verluste hinnehmen mussten.
Welche Verluste wenn ich fragen darf? Gaming Vega war lange Zeit überhaupt nicht zu bekommen dank Mining. Selbst kurz danach häppchenweise zu völlig überzogenen Preisen. Erst seit kurzem ist Vega wieder normal bepreist und auch gut erhältlich.

Pick
2018-11-16, 22:02:22
DXR (Ray-Tracing) Available in Radeon GPU?
https://forums.guru3d.com/threads/rx-vega-owners-thread-tests-mods-bios-tweaks.416287/page-48#post-5607107

deekey777
2018-11-16, 22:30:24
Ist doch Standard-API. :confused:

aufkrawall
2018-11-16, 22:31:05
Das ist ein notorischer Quatsch-Erzähler.

BoMbY
2018-11-16, 22:51:10
Er meint er könnte es über die Config auf seiner Vega aktivieren. Die Frage ist, ob das überhaupt einen sichtbaren Effekt hat.

aufkrawall
2018-11-16, 22:52:39
Sind eindeutig nur SSR.

horn 12
2018-11-17, 09:00:37
Hier einige Bilder auf Vega:

https://abload.de/image.php?img=rtx613c8z.png

https://abload.de/image.php?img=rtx3d1frq.png




https://elchapuzasinformatico.com/2018/11/radeon-rx-vega-raytracing-battlefield-v/

deekey777
2018-11-17, 11:16:35
Die Bilder aus dem Guru3D-Forum werden jetzt zigmal verwurstet, ohne dass die Abschreiblinge sie überprüfen.

Savay
2018-11-17, 16:50:55
Lässt sich doch spätestens in Bewegung eh einfach zeigen:

SSR -> statisch
DXR -> dynamisch

Die Settings ändern wenn überhaupt sicher nur was an den Materialien des PBR...wenn es überhaupt einen Unterschied macht.
Davon abgesehen...theoretisch läuft DXR ja auch ohne RT Einheiten...der Treiber muss es nur unterstützen...und solange der das nicht tut, wird man da ziemlich sicher auf ner Vega auch nix anderes als SSR sehen.

iuno
2018-11-17, 17:11:47
SSR sind auch nicht statisch. Was du meinst sind billige environment maps. Der Unterschied ist nicht die Dynamik sondern die Korrektheit.

Savay
2018-11-17, 17:19:38
Also was anderes als die relativ statische Geometrie hab ich in den SSR eigentlich noch nie gesehen! ;)

Schon auf dem ersten verlinkten Screenshot sieht man ja schon das der andere Spieler nicht zu sehen ist...und alles was nicht eh auf dem Schirm ist wird ja eh nicht reflektiert...das war damit gemeint.

Raff
2018-11-17, 23:31:14
Man muss sich nur mal an ein Gewässer stellen. Da kommt jede SSR-Implementierung ins Schwimmen. Ein gutes Beispiel sind Boote im Vordergrund und Wasser dahinter. Die Reflexionen gehen kaputt, da sie mit der Tiefe nicht klarkommen (sie werden nicht "ausgeschnitten"). Das Problem hat quasi jedes Spiel.

MfG,
Raff

Ex3cut3r
2018-11-18, 01:08:42
Man muss sich nur mal an ein Gewässer stellen. Da kommt jede SSR-Implementierung ins Schwimmen. Ein gutes Beispiel sind Boote im Vordergrund und Wasser dahinter. Die Reflexionen gehen kaputt, da sie mit der Tiefe nicht klarkommen (sie werden nicht "ausgeschnitten"). Das Problem hat quasi jedes Spiel.

MfG,
Raff

So siehts aus, finde ich einen totalen Immersions Killer. Spiele haben teilweise eine hochpolierte Optik und dann kommen solchen Reflektion zu stande, wo du nur die Maus etwas höher schieben brauchst und die Reflektion ist weg, dazu dann noch die Artefakte wenn sie schlecht implementiert sind, ganz ehrlich manchmal stelle ich die lieber ganz aus.

robbitop
2018-11-18, 08:06:28
SSR und Cube Maps sind halt ein billiger Hack. Kostet quasi null Rechenzeit. Andererseits ist der fps Einbruch bei RTX in bf5 (fps fallen auf 1/4) schon etwas sehr viel. Alternativ kann man auch mit Render to Texture arbeiten. Ist zwar auch nur ein Hack, aber ein guter - auch teuer - aber sicherlich kein Vergleich zu RT.

pixeljetstream
2018-11-18, 09:14:46
Mit Render to texture meinst du jetzt dynamische cubemaps oder klassische planare Spiegel.

Sebastian Aaltonen hat in seinen tweets schon ganz gut hingewiesen, was aktuelle Probleme in BF V seien könnten.

Ohne dice hier auf die Füße treten zu wollen, insbesondere weil es fast alle großen betrifft, aber das Hauptproblem ist das nicht ohne weiteres existierende Lösungen optimal an neue Technik angepasst werden. Das gleiche wie bei dx12/vk, nur handvoll Entwickler (id, rebellion) gehen all-in und bauen alles um. Meist Titel die purpose-built engines haben.

Die anderen Engines (Frostbite, UE4, Unreal) sind so groß und decken so viele Benutzer ab, dass es trotz der guten Leute nicht einfach ist das ganze umzubauen. Der existierende Markt ist zu groß, existierende toolchain etc. Selbst neuere Konsolen brauchen mit der Marktdurchdringung. Diese general-purpose engines verdienen ihr Geld mit Stabilität für die Entwickler. Weil heute mehr geld denn je dran hängt, zieht sich das alles stärker als früher.

Positiv ist das bei sowas wie SEED komplett neuer Technologie-Stack entsteht. Oder jetzt das neue Studio der ex-seed Leute ;) Aber auch bei vermeintlich kleineren Studios.
Alles läuft in langfristigeren Bahnen ab, bis die Features optimal genutzt werden. Umso wichtiger früh es auf den Markt zu bringen.

gravitationsfeld
2018-11-18, 09:55:33
Horn kann das ungestraft abziehen. Im Übrigen steht im Original folgender voranstehender Absatz:
Die Open-Source-Treiber haben binning aktiviert und es bringt leicht negative Ergebnisse bis +5%.

Auch haben Doom und Wolfenstein nichts dergleichen in Software implementiert.

BoMbY
2018-11-18, 11:08:50
Mit Render to texture meinst du jetzt dynamische cubemaps oder klassische planare Spiegel.

Soweit ich das verstehe ist das einfach ein zusätzlicher Viewport, d.H. die Szene wird nochmal aus einer anderen Perspektive gerendert, je nachdem mit einem deutlich kleineren Ausschnitt und weniger Details.

Bei Star Citizen setzen die das auch wohl ein, da gab es verschiedene Videos die das erklären, zum Beispiel: https://www.youtube.com/watch?v=IZ4mou4OR4U&feature=youtu.be&t=270

gravitationsfeld
2018-11-19, 01:11:34
Das gibt es ungefähr schon 20 Jahre.

robbitop
2018-11-19, 09:13:08
Mit Render to texture meinst du jetzt dynamische cubemaps oder klassische planare Spiegel.
Eine zweite Kamera, die die Szene aus der Sicht separat berechnet und das Ergebnis (den zweiten Framebuffer) in eine Textur schreibt. Gibt es schon lange und ist relativ teuer.
Um die Kosten zu reduzieren wird die Auflösung des Framebuffers der Textur reduziert und/oder die Updaterate kleiner als die Refreshrate gesetzt. Sieht aber IMO beides k*cke aus.

pixeljetstream
2018-11-19, 09:16:12
Mir ist das Verfahren bewusst (glaub war doch auch ne Demo der ersten GeForce), aber de facto rendern wir heute alles direkt in Texturen, daher wollte ich dass man es präziser ausdrückt.

aufkrawall
2018-11-19, 10:39:14
Sieht in Hitman 2 definitiv sehr knorke aus, ist aber auch arschteuer. Könnten Spiele aber definitiv öfter für Interiors verwenden.
Cubemaps werden leider sehr schlampig von Entwicklern behandelt, SSR verleiten offenbar zu Faulheit bzw. falscher Prioritätensetzung.

=Floi=
2018-11-19, 12:17:57
Die anderen Engines (Frostbite, UE4, Unreal) sind so groß und decken so viele Benutzer ab, dass es trotz der guten Leute nicht einfach ist das ganze umzubauen. Der existierende Markt ist zu groß, existierende toolchain etc. Selbst neuere Konsolen brauchen mit der Marktdurchdringung.

darf ich dann mal ganz einfach fragen, warum man DX12 dann überhaupt freischaltet, wenn es nicht rund läuft?
Warum ploppt keine "experimental" warnung auf, wenn man es einschaltet?
Bei DX12 hatte man zB unter BF1 ewig zeit und hat es bis heute auch nicht gefixt imho.

gravitationsfeld
2018-11-19, 22:30:19
Sieht in Hitman 2 definitiv sehr knorke aus, ist aber auch arschteuer. Könnten Spiele aber definitiv öfter für Interiors verwenden.
Cubemaps werden leider sehr schlampig von Entwicklern behandelt, SSR verleiten offenbar zu Faulheit bzw. falscher Prioritätensetzung.
das hat nichts mit Faulheit zu tun, Cubemaps sind einfach eine Notloesung.

Screemer
2018-11-19, 22:39:24
Warum sieht das dann beim eine dufte aus und beim anderen wie fix Mal hingerotzt?

CompuJoe
2018-11-19, 23:46:22
Die Engine ist halt für DX11 gebaut wurden und man hat das DX12 einfach später angeflanscht, ich glaube das die Engine Grundsätzlich nicht für DX12 geeignet ist, nun ist es halt der Fall das man für DXR DX12 braucht.
Mal sehen was die Frostbyte 4 Engine bringt.
Schön wäre es wenn man nen Vulkan (Mantle) Renderpath einbauen würde, der hat ja gut funktioniert.

pixeljetstream
2018-11-19, 23:58:26
darf ich dann mal ganz einfach fragen, warum man DX12 dann überhaupt freischaltet, wenn es nicht rund läuft?
Warum ploppt keine "experimental" warnung auf, wenn man es einschaltet?
Bei DX12 hatte man zB unter BF1 ewig zeit und hat es bis heute auch nicht gefixt imho.
Wenn man so ran geht müsste alles nen "experimentell" Schild kriegen ;) Im Keller werden die Sachen nicht besser.

BoMbY
2018-11-20, 01:39:40
Das traurige ist ja, Frostbite ist eigentlich Low-Level-API-Kompatibel. Es lief ja ziemlich geil mit Mantle. Dürfte wohl daran liegen das Johan Andersson keine Lust mehr hatte, und er hat ja auch die Firma verlassen mittlerweile. Vermutlich haben die nur noch Programmier-Äffchen für die Engine. Die haben ja auch praktisch keine neuen Features mehr gebracht, und das Raytracing was NVidia da rein gefummelt hat ist ein ziemlicher Fail.

dildo4u
2018-11-20, 06:28:54
Das liegt einfach daran das sie ein Killer DX11 Renderer haben,DX12 ist jetzt okay aber schon DX11 maxt mein Ryzen 2600x zu 80%.Die meisten aktuellen Games hängen unter 50.
Deshalb haste hier keine Zuwächse mit DX12,und schon mit DX11 ist eine Vega 64 im Bereich einer 2070.Das haste selten unter DX11.

www.techspot.com/review/1746-battlefield-5-gpu-performance

pixeljetstream
2018-11-20, 07:33:42
Das traurige ist ja, Frostbite ist eigentlich Low-Level-API-Kompatibel. Es lief ja ziemlich geil mit Mantle. Dürfte wohl daran liegen das Johan Andersson keine Lust mehr hatte, und er hat ja auch die Firma verlassen mittlerweile. Vermutlich haben die nur noch Programmier-Äffchen für die Engine. Die haben ja auch praktisch keine neuen Features mehr gebracht, und das Raytracing was NVidia da rein gefummelt hat ist ein ziemlicher Fail.

An der Fähigkeit der Leute liegt es auf keinen Fall. Insbesondere weil viele dieser Leute Prototypen ja erst zu Produkten machen und dann das ganze pflegen, kompatibel machen für andere Studios etc.
Meine Aussage dass es sich zieht ist eher der wirtschaftlichen Realität geschuldet, als dem Können. Damit meine ich dass Engines langlebig sich amortisieren, viele Kunden (Titel die es benutzen) haben. Es hängen Tools dran etc. Das alles fördert die existierende Produktivität als Ganzes, verlangsamt aber große Umbauten.
Warum diese großen Engines nicht immer so rund laufen wie "früher" ist der Komplexität geschuldet.

BoMbY
2018-11-20, 12:37:39
DX12 ist jetzt okay

Nein, ist es nicht. Wenn DX12 nicht mindestens die gleichen FPS erzielt wie DX11, und zwar überall, dann ist etwas grundlegend falsch. Wenn man keinen grundlegenden Fehler macht, dann kann DX12 niemals schlechter sein.

dildo4u
2018-11-20, 12:49:05
Wenn es erlaubt eine Kleinere CPU zu verbauen bringt es schon Vorteile das testet leider nur niemand.

Savay
2018-11-20, 13:00:42
...oder man die Objektdichte entsprechend des Spielraums auch erhöht. Wenn man aber auf nem Niveau bleibt, dass auch von nem optimierten DX11 Pfad problemlos ins GPU Limit zu rendern in der Lage ist tut sich halt relativ wenig.

CompuJoe
2018-11-20, 13:03:15
Das Problem bei DX12 sind nicht die fps, sondern die ruckler und minifreezes.
Das gab es schon bei BF1 und wurde nie gefixt (trotz versprechen).
Das ist auch völlig unabhängig von der verwendeten CPU und GPU.

gravitationsfeld
2018-11-20, 23:28:00
Warum sieht das dann beim eine dufte aus und beim anderen wie fix Mal hingerotzt?
Wo ist es "hingerotzt"?

Du hast immer Verzerrung bei Cubemaps, das ist prinzipiell nicht anders moeglich, weil die Cube von einem fixen Punkt aus gerendert und dann gespeichert wird. Alle anderen Punkte dazwischen sind halt mehr oder weniger falsch.

dildo4u
2018-11-21, 07:39:10
kJVciTqsUAo

mironicus
2018-11-21, 12:49:41
Besitzer der älteren Version mit Radeon 5x0 werden sich ärgern, die neue Vega-Version bietet erhebliche Vorteile nicht nur bei Spielen, sondern auch bei der Video-Bearbeitung mit Premiere.

https://www.youtube.com/watch?v=B-b9pycg5cU

dildo4u
2018-11-21, 12:55:45
Naja das geht nur im Mac weil man dort absurde Preise verlangen kann,das Ding nutzt HBM 2 um auf 1050 Ti Performance zu kommen.

mboeller
2018-11-21, 13:03:37
Naja das geht nur im Mac weil man dort absurde Preise verlangen kann,das Ding nutzt HBM 2 um auf 1050 Ti Performance zu kommen.


so... :upicard:

https://www.notebookcheck.com/AMD-Radeon-RX-Vega-M-GL-GPU.278672.0.html

https://www.notebookcheck.com/AMD-Radeon-RX-Vega-M-GH-GPU.278674.0.html

dildo4u
2018-11-21, 13:07:56
Genau so absurd überteuert,XPS 15 mit 1050 1300€.Mit Vega 1800€.

mironicus
2018-11-21, 14:00:02
Genau so absurd überteuert,XPS 15 mit 1050 1300€.Mit Vega 1800€.

Das HP Spectre X360 mit Vega ist nicht teurer als die MX-150 Variante. :freak:

deekey777
2018-11-21, 14:21:00
Ist auch kein Vega. ;D

amdfanuwe
2018-12-03, 16:36:31
Warum ist Vega Mobile eigentlich so groß?
Der HBM2 Stack dürfte ca. 90 mm² haben, dann müßte der GPU Chip ~200mm² groß sein.
Und dann nur 20 CUs?
Ich meine, Polaris 10 ist 232mm² mit 36 CUs. Vega 10 484mm² mit 64CUs.

Hat da jemand eine Erklärung?

unl34shed
2018-12-03, 17:49:50
Ryzen IO Hub integriert :D

amdfanuwe
2018-12-03, 18:54:05
Ryzen IO Hub integriert :D
+ 2 IF Links für die CPU Chiplets. In 12 nm könnte das hinkommen. :cool:

reaperrr
2018-12-03, 20:05:02
Warum ist Vega Mobile eigentlich so groß?
Der HBM2 Stack dürfte ca. 90 mm² haben, dann müßte der GPU Chip ~200mm² groß sein.
Und dann nur 20 CUs?
Ich meine, Polaris 10 ist 232mm² mit 36 CUs. Vega 10 484mm² mit 64CUs.

Hat da jemand eine Erklärung?
Vega-CUs sind ca. 1,05 mm² größer als Polaris-CUs (~4,15 zu ~3.1 mm²). Die CUs dürften bei Vega12 daher nur knapp ~30mm² weniger Fläche als bei Polaris10 einnehmen, rund ~83mm² statt ~111mm².
Und Frontend, ROPs und UVD/VCE (oder VCN?) eher etwas mehr Fläche als bei Polaris10, da jeweils genauso viel/breit, aber mit zusätzlichen Features und Verbesserungen, was in der Regel auch ein paar zusätzliche Transistoren erfordert.
Die Einsparungen am SI gehen dann vermutlich teilweise für interne IF-Anbindung von selbigem drauf (laut damals noch Raja sollen alle GPUs ab Vega10 quasi SoCs sein, die Dinge wie eben die Speicherinterfaces per IF an den Grafikteil anbinden).
Also 30-40mm² weniger als P10 klingt ziemlich plausibel.

HOT
2018-12-03, 20:11:19
Ryzen I/O hat 32 PCIe-Lanes, AM4 braucht nur 24.

amdfanuwe
2018-12-03, 21:10:20
Vega-CUs sind ca. 1,05 mm² größer als Polaris-CUs (~4,15 zu ~3.1 mm²).
Danke, war mir nicht bekannt.

ApuXteu
2018-12-06, 16:42:36
Hat man eigentlich schon von anderen Herstellern als Apple gehört, die Vega Pro 16 oder 20 in Notebooks einsetzen werden? Eventuell sogar mit Ryzen Cpus? Bei sowas würde ich gerne zuschlagen.

Brillus
2018-12-06, 16:43:45
Hat man eigentlich schon von anderen Herstellern als Apple gehört, die Vega Pro 16 oder 20 in Notebooks einsetzen werden? Eventuell sogar mit Ryzen Cpus? Bei sowas würde ich gerne zuschlagen.
Ich noch nicht und ich warte auch drauf.

deekey777
2018-12-11, 22:29:28
AMD Adding New Vega 10 & Vega 20 IDs To Their Linux Driver (https://www.phoronix.com/scan.php?page=news_item&px=AMD-New-Vega-10-20-PCI-IDs)

Friday afternoon patches to the company's RadeonSI Mesa and AMDKFD/AMDGPU kernel drivers reveal some new PCI IDs. On top of the five "Vega 20" PCI IDs already part of the Linux driver, a 0x66A4 ID is being added. So far AMD has just announced the Radeon Instinct MI50 and MI60 accelerators as being built off Vega 20 with no consumer parts at this time. As with most new product generations, it doesn't necessarily mean AMD will be launching 5~6 Vega 20 products, but sometimes PCI IDs are reserved for pre-production hardware, the possibility of expanding the product line in the future, etc.

On the Vega 10 front meanwhile they are adding six new PCI IDs... The new Vega 10 PCI IDs being added are 0x6869, 0x686A, 0x686B, 0x686D, 0x686E, and 0x686F. These Vega 10 PCI IDs are new and not part of the previous batch of Vega 10 parts supported by the Linux drivers. The only other references I could find to these PCI IDs were that a macOS Mojave update recently added in these IDs too and then some of these IDs having just been part of GPUOpen's listings of GFX9 parts.




Und https://www.hardocp.com/news/2018/12/10/rumor_mobile_geforce_rtx_pro_vega_48_spotted_in_benchmarks/ bzw. https://imgur.com/A0Zec8Z

HOT
2018-12-11, 23:38:26
Hm, bei den Sheets der Inverstorenpräsentation ist eine Folie dabei die ich sehr interessant finde:
https://www.planet3dnow.de/cms/42315-amd-investor-praesentation-dezember-2018/nggallery/image/0011-8/
Man beachte den Aufbau von V20 und wieviel davon I/O ist im Vergleich zu V10. Das Ding ist also doch sehr viel kleiner, wenn man die reinen Recheneinheiten vergleicht, als bislang gedacht.

horn 12
2018-12-11, 23:59:48
Also doch Vega 7 als zusätzliche Gamerkarte und Navi bedient das Mittelfeld und löst Vega 56 bis 64 ab.

horn 12
2018-12-24, 17:22:05
Vielleicht interessanter ist die Bestätigung, dass AMD eine Radeon-Grafikkarte für den Konsumenten auf den Markt bringen wird. Das habe ich bestätigt. Nach meinen bisherigen Gesprächen mit Branchenkennern glaube ich, dass dies die Radeon Vega II sein wird - die 7-nm-Consumer-Variante der Vega 20-GPU. Mir wurde gesagt, dies sei eines der letzten Projekte von Mike Rayfield und sollte das sein, das AMD auf der CES 2019 startet.

aufkrawall
2018-12-24, 17:29:00
Den Post hast du doch nicht selbst formuliert...

gravitationsfeld
2018-12-24, 18:04:34
Also doch Vega 7 als zusätzliche Gamerkarte und Navi bedient das Mittelfeld und löst Vega 56 bis 64 ab.
Vega als High-End und Navi als Midrange? Das waere das erste mal in der Geschichte der GPUs dass das passiert.

MR2
2018-12-25, 08:51:39
Noch sehr undurchsichtig..
https://www.techradar.com/news/amd-may-launch-a-new-radeon-gpu-at-ces-2019

amdfanuwe
2018-12-25, 09:38:45
Geh doch direkt an die Quelle: https://wccftech.com/amd-launching-ryzen-3000-series-cpus-apus-radeon-gpu-ces/

AMDoderNvidia
2018-12-25, 09:46:02
Noch 2 Wochen und wir wissen mehr: Navi? Oder doch ein 7nm Vega II für Consumer? Immerhin hält Lisa Su die Keynote auf der CES und lässt hoffentlich schnell die Katze aus dem Sack.

amdfanuwe
2018-12-25, 09:56:45
Es wird also Vega 20 für Consumer und RavenRidge2018 (Picasso) erwartet.
Vega 20 würde ich mit 2 HBM Stacks und 8GB Ram erwarten. Überrascht mich, da doch gesagt wurde Vega20 kommt nicht für Consumer. Vielleicht wird es ja doch noch was anderes.

dildo4u
2018-12-25, 10:07:10
AMD hat Polaris 3 mal neu aufgelegt warum sollte man das für Vega anders machen.
Navi könnte entweder zeitlich weit weg sein oder nur in Bereich von Vega 56 spielen.
Vega 64 in 7nm sollte 40% schneller sein,10 vs 14 Tflops.

amdfanuwe
2018-12-25, 10:25:48
Nicht übertreiben. AMD gibt 25% für MI60 an.

Raff
2018-12-25, 10:48:50
Das sind zur Abwechslung mal spannende Entwicklungen!

Es wird also Vega 20 für Consumer und RavenRidge2018 (Picasso) erwartet.
Vega 20 würde ich mit 2 HBM Stacks und 8GB Ram erwarten. Überrascht mich, da doch gesagt wurde Vega20 kommt nicht für Consumer. Vielleicht wird es ja doch noch was anderes.

Hoffentlich kommt das Ding nicht nur mit zwei HBM-Stacks, ansonsten hielte sich das Leistungsplus gegenüber Vega 10 in engen Grenzen. Wenn leichtes Cost-Down, dann bitte 4 × 4 = 16 GiByte, sofern technisch möglich. :)

MfG,
Raff

horn 12
2018-12-25, 10:54:29
Vega II ist gefixt bei den PixelShadern und bringt bereits in dem Alten Prozess 25 bis 40% an Mehrperformance, je nach Game.
Man hat ebenso nicht mehr den Unterschied zwischen Vulkan und DX11/12

Zudem im Neuen 7nm Prozess sind wohl plus 20 bis 25% drinnen bei Geringem Verbrauch, also unter 200 Watt.
Somit wäre man zwischen RTX 2080 Custom und RTX 2080TI mit 16 GB HBM²
799 bis 849 Dollar sollte die Karte kosten und NV würde da immens das Nachsehen haben.

Raff
2018-12-25, 11:05:02
Vega 10 musste "bei den Pixelshadern" nicht gefixt werden. Das Ding läuft mit aktuellen Treibern wie erwartet, (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Bestandsaufnahme-2018-1263275/) Fiji wird pro Takt regelmäßig überholt.

MfG,
Raff

AffenJack
2018-12-25, 11:06:13
Wer sagt, dass V20, wenn er auf der CES kommt, als "wirkliche" Consumerversion kommt?
Ich würde eher eine neue Frontier Edition erwarten. Bei der ists eigentlich eher eine Frage der Zeit, wann die kommt. An richtigen consumerkarten zweifle ich dagegen erstmal noch.

Raff
2018-12-25, 11:08:13
Eine Frontier reicht vollkommen, wenn's der Sache dient (Vega 20 kaufbar, mehr RAM und Preis als üblich). Ich habe meine Vega 10 Frontier Edition im Dezember intensiv genutzt. Die frisst mittlerweile jeden Gaming-Treiber und ist, bis auf ein paar Feinheiten, daher eine vollwertige Gaming-Grafikkarte. Halt mit mehr Speicher. :)

MfG,
Raff

AffenJack
2018-12-25, 11:14:45
Die Frage ist, ob du bereit bist 1500€ für eine Frontier Vega 2 auszugeben? Nachdem Nvidia die Titan im Preis höher angesiedelt hat, hat AMD keinerlei Grund tiefer im Preis anzusetzen.

BeetleatWar1977
2018-12-25, 11:18:05
Die Frage ist, ob du bereit bist 1500€ für eine Frontier Vega 2 auszugeben? Nachdem Nvidia die Titan im Preis höher angesiedelt hat, hat AMD keinerlei Grund tiefer im Preis anzusetzen.
Doch - um den Markt abzugrasen.......

basix
2018-12-25, 13:38:33
Zur CES News: Launch? Ich dachte es wäre eher eine Ankündigung, vor allem bei Ryzen. Falls es aber wirklich ein Launch ist: Sehr nice AMD! :D

reaperrr
2018-12-25, 14:42:40
Vega II ist gefixt bei den PixelShadern und bringt bereits in dem Alten Prozess 25 bis 40% an Mehrperformance, je nach Game.
Man hat ebenso nicht mehr den Unterschied zwischen Vulkan und DX11/12

Das einzige, was bei Vega20 gefixt wurde war irgendwas am Cache, aber wohl auch nichts gravierendes.

Ansonsten werden jegliche Verbesserungen aus höherem Takt und mehr Speicherbandbreite kommen (müssen).

Raff
2018-12-25, 15:14:46
Hast du zufällig eine Quelle bezüglich des Caches? :)

Die Frage ist, ob du bereit bist 1500€ für eine Frontier Vega 2 auszugeben?

Warten wir doch erst mal, was da kommt. Dann kann man immer noch abwägen.

MfG,
Raff

Der_Korken
2018-12-25, 15:26:17
Mit 16GB würde das Teil eher als "Semi-Profi"-Karte kommen und noch teurer als eine vergleichbare Turing-Karte werden. Für den Normalkunden somit völlig uninteressant. Bei angenommen doppeltem Preis pro Fläche für 7nm wäre V20 mehr als 30% teurer als V10 (vom verdoppeltem HBM reden wir gar nicht erst). Die einzige Möglichkeit das Teil in halbwegs erschwinglicher Form zu bringen wäre ein Salvage mit 2x4GB und 56 CUs, der durch mehr Takt und Optimierungen an der Architektur mit der 2070 mithalten kann. Die Frage ist aber, ob AMD für solche Späße genug 7nm-Kapazitäten zur Verfügung hätte.

horn 12
2018-12-25, 16:47:54
Link:

VulkanSpiele würde je nach Spiel zwischen 20 und 35% gewinnen. Allerdings ist die Amd Führung davon nicht angetan.

Navi hat übrigends gestern (20.12.) sein Board Finish bekommen, zudem gehen nach Weihnachten die ersten Samples an die Hersteller für custom Karten
Navi Full ( Mid Q3 ) könnte wenn die letzten Waferzahlen stimmen schon deutlich früher kommen, dafür aber Navi Mid ( End Q2), deutlich später

iuno
2018-12-25, 16:53:03
Doch - um den Markt abzugrasen.......
Weil es da auch so viel abzugrasen gibt ;D

Sven77
2018-12-25, 17:17:35
Keiner will die Teile

basix
2018-12-25, 19:20:09
Link:
Ja wo isser denn? :uroll:


;)

Und was von wegen "AMD Führung ist davon nicht angetan"? Wollen sie weniger Leistung? :freak:

Hakim
2018-12-25, 19:38:41
Dachte schon der Browser vom Smartphone zeigt wegen irgendwas den Link nicht :)

horn 12
2018-12-25, 20:37:08
Deshalb:

Wie es aussieht könnte es sein, daß der "PS-Workaround only Vulkan Treiber" als eigentständiger Treiber mit einer neuen 2d Matrix als eigenständiger Treiber released wird. Allerdings nur als Alpha Treiber mit den dementsprechenden Folgen.
Damit wäre Windows in Normal Mode wie üblich, nur DX Spiele kacken um 40% zu jetzt ab.

TheGood
2018-12-25, 21:24:55
Wurde denn der Vega 20 im Profibereich bereits released? Ich dachte das hätte doch noch in diesem Jahr passieren sollen?

danarcho
2018-12-26, 01:15:51
Deshalb:

Wie es aussieht könnte es sein, daß der "PS-Workaround only Vulkan Treiber" als eigentständiger Treiber mit einer neuen 2d Matrix als eigenständiger Treiber released wird. Allerdings nur als Alpha Treiber mit den dementsprechenden Folgen.
Damit wäre Windows in Normal Mode wie üblich, nur DX Spiele kacken um 40% zu jetzt ab.
Ich versteh wohl deutlich weniger als ich eigentlich müsste, und es liegt vielleicht auch an der Uhrzeit, aber magst du das vielleicht nochmal vollständig wiedergeben oder die Quelle verraten?

gravitationsfeld
2018-12-26, 01:33:43
Er hat keine. Warum sollten solche gravierenden Performance-Spruenge API spezifisch sein? Vor allem was "PixelShader" angeht?

Ausser sie aendern den Shader-Compiler nur fuer Vulkan, aber warum? Der ist uebrigens wirklich verbesserungswuerdig.

Achill
2018-12-26, 01:58:54
Link:

VulkanSpiele würde je nach Spiel zwischen 20 und 35% gewinnen. Allerdings ist die Amd Führung davon nicht angetan.

Navi hat übrigends gestern (20.12.) sein Board Finish bekommen, zudem gehen nach Weihnachten die ersten Samples an die Hersteller für custom Karten
Navi Full ( Mid Q3 ) könnte wenn die letzten Waferzahlen stimmen schon deutlich früher kommen, dafür aber Navi Mid ( End Q2), deutlich später

;)

Und was von wegen "AMD Führung ist davon nicht angetan"? Wollen sie weniger Leistung? :freak:


Nicht jeder hier im Forum war anscheinend artig, darum auch nicht für alle Geschen.. äähhh Links. :wink:

horn 12
2018-12-26, 08:49:51
Nun, am Besten Abwarten.
Ist ja nimmer lange.


Hier mal von den Privaten PN:

Vega 7 würde einen richtigen Leistungsschub bringen, die aktuellen Modelle wäre bei +20% zu Vega 64. Vor allem hätte Vega 7vm den PS bug behoben

Aktuell sieht es mit Navi eher schlecht aus, die Ausbeute aus den ersten Wafern liegt bei unter 10% ( vega zu Beginn bei 9% ).
Es gibt Überlegungen Vega in 7nm mit Gddr als Vega II zu etablieren.

Die PS für Vega sind als aktives Feature endgültig beerdigt, die werden nicht mehr als offiizielles Feature freigeschalten werden. Die PS funktionieren zwar recht gut, allerdings nur unter vulkan, alles andere inkl 2d Beschleunigung leidet extrem.
Selbst im Firefox Scrollen wird dann zur Ruckelorgie, die PS sind einfach nicht Directx tauglich. Problem an den PS ist ein Designfehler in der Hardware und zwar fehlt eine Switching Routine zwischen PS/Vulkan und Directx. Vega hätte einfach noch ein paar Monate Zeit gebraucht. Die Switching Routine wäre in Vega 7nm drin, aber ob die als Gaming jemals released wird weiß keiner.


AMD Keynote Aktualisiert:

https://www.ces.tech/conference/keynotes/amd-keynote.aspx

dildo4u
2018-12-26, 09:14:39
Das ist natürlich Blödsinn COD skaliert z.b genau wie man es erwarten würde und das in DX11.Es kommt auf die Engine an und wie aggressiv sie an GCN angepasst wurde.

30% zu einer Werk OC GTX1080 in 1440p.

http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-4-Spiel-61586/Specials/Blackout-Technik-Test-1267404/2/

Dort hast du auch 80%+ zur 580,das ist ziemlich spektakuläres skaling.

pixeljetstream
2018-12-26, 09:49:21
PS : primitive shader? Unter VK hat AMD noch eine extension welche rasterization order deaktivieren lässt, in der Kombi könnte ich mir auch Vorteile vorstellen (aber die Extension könnten sie auch nach DX bringen wenn nicht eh schon). Aber klingt dennoch merkwürdig weil zuerst von Caches die Rede war. Oder ist hier das Binning gemeint.
Das nen Bug beim context switching (2d compositing/3d engine) perf kostet kann ich mir gut vorstellen, aber vom commandstream wäre VK/d3d da ziemlich gleich.
Was wurde eigentlich aus dem schlechten wert beim b3d textur cache, an den erinnere ich mich bei Release.

danarcho
2018-12-26, 10:07:14
Er hat keine. Warum sollten solche gravierenden Performance-Spruenge API spezifisch sein? Vor allem was "PixelShader" angeht?
Ich glaube, er meint primitive shader... aber das ganze klingt stark nach "stille Post" und ein paar Leuten dazwischen, die nicht genau wissen, was sie da weitergeben.

Ausser sie aendern den Shader-Compiler nur fuer Vulkan, aber warum? Der ist uebrigens wirklich verbesserungswuerdig.
you no tell! Da wird aber in naher Zukunft nichts passieren. Der proprietäre Compiler kann nicht veröffentlicht werden wegen IP protection (Ich frage mich ja, wer den überhaupt mal geschrieben hat) und daher keine Ahnung, ob der noch mehr erfährt als maintainance. Ansonsten wird ewig an LLVM rumgedoktort mit der Hoffnung, dass das irgendwann mal schneller wird. Ich glaube, ich verrate kein Geheimnis, wenn ich sage, dass das auch unter den Entwicklern für einigen Frust sorgt.
Quelle (https://www.phoronix.com/scan.php?page=news_item&px=LLVM-Vulkan-SPIR-V-Popular)

Digidi
2018-12-26, 10:56:25
Horn erzählt gerne Märchen. Primitive Shaders sollten bei ihm ja schon im Dezember Treiber kommen.....

Super Quelle Horn!

HOT
2018-12-26, 10:58:27
AMD hat doch offiziell Primitive Shader für Vega ausgeschlossen. Man sollte sich eher danach orientieren und anderslautenden Bekundungen einfach keine Beachtung schenken.

dargo
2018-12-26, 11:06:21
AMD hat doch offiziell Primitive Shader für Vega ausgeschlossen. Man sollte sich eher danach orientieren und anderslautenden Bekundungen einfach keine Beachtung schenken.
Ich sag nur +30% in SotTR durch PS laut Horn. :D

Allerdings muss ich dabei sagen, dass ich mit dem Adrenalin 2019 in SotTR schon bis zu +12% mehr Frames gemessen habe. Muss jetzt natürlich nichts mit PS zu tun haben.

PS: DX12 versteht sich.

horn 12
2018-12-26, 12:35:22
Ach, vergesst es!
Der Adrenaline 2019 sollte die PS in SotTR und Wolfenstein Coll. freischalten doch durch das Absacken in DX11/12 hat Lisa Su dem eine Absage erteilt und man wartet auf Vega II
Dies war die Absolut Richtige Entscheidung von Su.

gravitationsfeld
2018-12-26, 19:57:36
Der Adrenaline 2019 sollte die PS in SotTR und Wolfenstein Coll. freischalten doch durch das Absacken in DX11/12 hat Lisa Su dem eine Absage erteilt und man wartet auf Vega II
;D

Was fuer ein Schwachsinn.

Linmoum
2018-12-26, 20:14:57
Wie, du glaubst ihm etwa nicht? :eek:

basix
2018-12-26, 23:00:48
Hey, ist doch alter Wein...wait :uidea:

G3cko
2018-12-28, 10:16:03
Vega als High-End und Navi als Midrange? Das waere das erste mal in der Geschichte der GPUs dass das passiert.

Laut Chipbezeichnung war die 8800GT bereits die Nachfolgegeneration und deshalb deutlich effizienter als die 8800GTX. Die 8800GTX würde dennoch eine Weile weiterverkauft, da schneller.

Es gibt schon länger das Gerücht, dass Navi in der Konsole landet. Eventuell handelt es sich um den gleichen Chip der dann auch im PC Mainstream ankommt. Der Fokus bei VegaII ist das Profisegment. Durch die begrenzten Ressourcen wird nun ein Schuh draus, welches Projekt notgedrungen andere Baustellen mit bedienen muss.

Klevapalis
2018-12-28, 11:18:02
Die PS funktionieren zwar recht gut, allerdings nur unter vulkan,
Das ergibt logisch keinerlei Sinn.

Niemand baut Hardware für API x. Das ist eine Hardware-Implementierung, die von LowLevel im Treiber auf die API abgebildet wird. Die PS sind einfach kaputt, Ende. Viel versprochen, wenig gehalten. NVIDIA zeigt mit Turing, wie es geht.

Flusher
2018-12-28, 11:27:44
;D

Was fuer ein Schwachsinn.

Wieso geht ihr auf diese Märchen von dem überhaupt noch ein? Einfach auf die Ignoreliste und das Gesülze nicht mehr zitieren. Seit Jahren ist da außer wilden Fantastereien nichts geistreiches von ihm gekommen.

basix
2018-12-28, 13:25:53
Das ergibt logisch keinerlei Sinn.

Niemand baut Hardware für API x. Das ist eine Hardware-Implementierung, die von LowLevel im Treiber auf die API abgebildet wird. Die PS sind einfach kaputt, Ende. Viel versprochen, wenig gehalten. ...

Falls die PS (hypotetisch) unter Vulkan funktionieren heisst nicht, dass sie unter DX11/12 funktionieren. Es gehört immer auch Software dazu. Und falls es diese (noch) nicht gibt, funktioniert das HW-Feature auch nicht. Du schreibst es ja selber (der Fett markierte Teil).

An PS für Vega glaube ich nicht, sonst hätte man das schon länger gebracht. Falls es eine Vega II geben wird: OK, das wäre eine Möglichkeit. Vor allem wenn man damit den (Treiber)-Weg für Navi ebnen würde.

Cross-Flow
2018-12-28, 20:22:08
Weiß eigentlich jemand was genau aus Vega 28 / 32 geworden ist? Gab es da mal Samples oder ist das komplett im Sand verlaufen?

gravitationsfeld
2018-12-28, 20:50:01
Falls die PS (hypotetisch) unter Vulkan funktionieren heisst nicht, dass sie unter DX11/12 funktionieren. Es gehört immer auch Software dazu. Und falls es diese (noch) nicht gibt, funktioniert das HW-Feature auch nicht. Du schreibst es ja selber (der Fett markierte Teil).

An PS für Vega glaube ich nicht, sonst hätte man das schon länger gebracht. Falls es eine Vega II geben wird: OK, das wäre eine Möglichkeit. Vor allem wenn man damit den (Treiber)-Weg für Navi ebnen würde.
Es gibt keine API fuer primitive shader in Vulkan.

reaperrr
2018-12-28, 21:24:37
Weiß eigentlich jemand was genau aus Vega 28 / 32 geworden ist? Gab es da mal Samples oder ist das komplett im Sand verlaufen?
Das war wohl Vega11, der offensichtlich gestrichen wurde.
Von dem direkt hat man eigentlich nie viel gehört/gesehen.
Wahrscheinlich hat man schon recht früh den Stecker gezogen, da zu hohe Kosten durch HBM (zum Zeitpunkt des geplanten Launches vor ca. einem Jahr) und dafür zu wenig Performance-Vorteile gegenüber Polaris20/30/GP106 (wären wohl 32 CUs mit leicht über RX590-Takt gewesen).

Apple wiederum wollte offenbar lieber Vega12.

Im Ergebnis hätte man mit Vega11 daher wohl kaum bis gar keine relevante Design-Wins in Notebooks eingefahren und hätte gleichzeitig durch größeren Chip, teureren, evtl. auch schlechter verfügbaren HBM, sowie teurere und zeitaufwändigere Produktion/Assembly weniger Spielraum beim Preis im Desktop-Markt gehabt.
P20 auf 12LP zu shrinken war vom Kosten/Nutzen-Verhältnis offensichtlich sinnvoller.

horn 12
2018-12-29, 08:22:44
@Igor

Hat wohl auch schon eine Vega II erhalten, so wie meine Quelle.

https://www.tomshw.de/community/threads/sapphire-gearbox-im-hands-on-editorial.742/

BeetleatWar1977
2018-12-29, 08:34:23
@Igor

Hat wohl auch schon eine Vega II erhalten, so wie meine Quelle.

https://www.tomshw.de/community/threads/sapphire-gearbox-im-hands-on-editorial.742/
Da er sagt ne kurze Vega (II) - wohl eher ne Nano;D;D;D

JVC
2018-12-29, 15:06:39
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Boarddesign-bereits-fertiggestellt-1272303/
"AMD Navi: Boarddesign bereits fertiggestellt?"

m.f.g. JVC

deekey777
2018-12-29, 15:09:12
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Boarddesign-bereits-fertiggestellt-1272303/
"AMD Navi: Boarddesign bereits fertiggestellt?"

m.f.g. JVC
So schließt sich der Kreis.

JVC
2018-12-29, 15:15:44
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Boarddesign-bereits-fertiggestellt-1272303/
"AMD Navi: Boarddesign bereits fertiggestellt?"

m.f.g. JVC

Tatsächlich :biggrin:
( Quelle von Pcgh = 3DCenter-Forum, 2 Seiten weiter vorne :freak: )

m.f.g. JVC

horn 12
2018-12-29, 15:18:45
MEINE Quelle wurde zu den Startpostings verwendet...
Und jene Quelle wird's sich heute noch melden …

Linmoum
2018-12-29, 15:31:45
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Boarddesign-bereits-fertiggestellt-1272303/
"AMD Navi: Boarddesign bereits fertiggestellt?"

m.f.g. JVC
PCGH hat jetzt nicht ernsthaft eine News aus einem Beitrag von horn geschustert? :freak: Das gehört ja fast schon in den Journalismus-Thread.

N0Thing
2018-12-29, 15:33:26
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Boarddesign-bereits-fertiggestellt-1272303/
"AMD Navi: Boarddesign bereits fertiggestellt?"

m.f.g. JVC

Aus nichts eine News fabriziert. :freak:

horn 12
2018-12-29, 15:34:17
Exakt !

JVC
2018-12-29, 15:48:45
PCGH hat jetzt nicht ernsthaft eine News aus einem Beitrag von horn geschustert? :freak: Das gehört ja fast schon in den Journalismus-Thread.

Scheint so ^^
Habs auch nicht gleich gemerkt :rolleyes:

m.f.g. JVC

p.s.: Herr :massa:Horn bitte ;)

Klevapalis
2018-12-29, 16:35:50
Falls die PS (hypotetisch) unter Vulkan funktionieren heisst nicht, dass sie unter DX11/12 funktionieren. Es gehört immer auch Software dazu. Und falls es diese (noch) nicht gibt, funktioniert das HW-Feature auch nicht.
Es gibt auch keine PS-Software für Vulkan. Somit kann man die Behauptung, das würde nur unter Vulkan funktionieren, in das Reich der Mythen verbannen.

Wie gesagt: Es ergibt null Sinn, dass PS unter vulkan funktionieren, aber unter DX nicht.

PCGH hat jetzt nicht ernsthaft eine News aus einem Beitrag von horn geschustert? :freak: Das gehört ja fast schon in den Journalismus-Thread.
Offensichtlich guckt man von Seiten der Forenbetrieber dem Forum gern beim Sterben zu. Der klare AMD-Bias, der Abgang bekannter und langjähriger Nutzer, das Ignorieren von Trolling wie hier von horn (oder auch z.b. v_v) - kann nicht lang gut gehen.

basix
2018-12-29, 18:06:00
Es gibt auch keine PS-Software für Vulkan. Somit kann man die Behauptung, das würde nur unter Vulkan funktionieren, in das Reich der Mythen verbannen.

Immer diese absoluten Aussagen. Weisst du also mit Bestimmtheit, dass es in keinem der AMD-Labore rund um die Welt eine lauffähige PS-Software für Vulkan gibt? Ich denke nicht ;) Es reicht ja eine Demo-Applikation als Proof-of-Concept. Was es definitiv nicht gibt ist eine für uns erhältliche Software.

Meine Aussage ging aber eher ums Prinzip: Nur weil A nicht funktioniert heisst nicht das B auch nicht funktioniert. Die zwei verschiedenen Software-Stacks sind hier der Grund.

Klevapalis
2018-12-29, 19:25:04
Immer diese absoluten Aussagen. Weisst du also mit Bestimmtheit, dass es in keinem der AMD-Labore rund um die Welt eine lauffähige PS-Software für Vulkan gibt?
Schön, dass dein Widerspruch darauf basiert, gar nicht verstanden zu haben, worum es geht und was ich schrieb.

Die Behauptung, PS wurden unter Vulkan laufen, aber nicht unter DX ist reines horn-Trolling.

Man könnte AMD ja auch Mal dafür kritisieren, gelogen zu haben, als man PS als Feature von Vega angepriesen hat. Aber AMD sind ja die guten, da ist das völlig in Ordnung.

Freestaler
2018-12-29, 20:03:56
Echt jetzt? Ein Jahr nach dem AMD absage kam und ua. hier

https://m.3dcenter.org/news/amd-streicht-den-eigenen-treiberpfad-fuer-die-primitive-shaders-von-vega

auch angesprochen wurde muss man das nochmals ansprechen? Hat den ein vega nutzer dadurch schlechtere Performance oder Bildqualität? Waren die Review etwa mit PrimitiveShader und daher schneller als für die Käufee der Karte? Klar trollt horn12. Nur du trollst und fanlabberst ganz klar auch für deine Topfirmen wie er. Also wisch doch auch vor deiner Hütte.

reaperrr
2018-12-29, 20:23:56
(...)Der klare AMD-Bias(...)
Falls du die Foren-Nutzer meinst: Was sollen Admin/Moderatoren denn machen, den Leuten verbieten, pro AMD zu sein?

Falls du das 3D-Center-Team selbst meinst: Bei den News habe ich persönlich immer tendenziell eher den gegenteiligen Eindruck, und hier im Forum einen ziemlich neutralen.

Man könnte AMD ja auch Mal dafür kritisieren, gelogen zu haben, als man PS als Feature von Vega angepriesen hat.
Haben sie zu dem Zeitpunkt ja nicht. Als PS beworben wurde, war auch noch geplant, den entsprechenden Support fertigzustellen. Scheinbar hat man danach aber festgestellt, dass sie Designfehler gemacht und zu spät erkannt haben und das Resultat nicht so funktioniert wie sie selbst gedacht/gehofft hatten. Daraufhin hat man dann offenbar kurzfristig beschlossen, PS doch erst mit Navi zu bringen, wenn der Hardware-und Software-Support ausgereift sind und die Kinderkrankheiten beseitigt wurden.

Man kann AMD völlig zu Recht dafür kritisieren, wie sie das Thema dann plötzlich so unter den Teppich gekehrt haben, aber zum Zeitpunkt der entsprechenden Aussagen war es eben nicht gelogen, sie haben nur den Fehler gemacht, zu früh ein Feature zu bewerben bevor sie sicherstellen konnten, dass es auch so wie geplant funktioniert.

gravitationsfeld
2018-12-29, 22:14:33
Es sind Teile der Primitive Shader in Vega aktiv. Die Architektur kann z.B. Geometry Shader und Stuecke der Tesselations-Pipeline gar nicht mehr anders ausfuehren. Ist alles im Open-Source-Linux-Treiber nachzuvollziehen. Auch der Binning Rasterizer ist wohl aktivierbar.

Was wohl nicht funktioniert hat ist der Pfad der nicht die Parameter-Caches sondern L2 benutzt fuer Vertex-Attributes.

30% Leistungs-Gewinn durch Geometrie-Pipeline ist sowieso lachhaft. Das macht in keinem Spiel soviel von der Frame-Time aus.

robbitop
2018-12-29, 22:28:37
Hat sich eigentlich mittlerweile etwas mehr Licht ins Dunkle zum Thema dsbr begeben? Das brachte bei Vega ja im Vergleich zu Maxwell relativ wenig Bandbreiteneffizienz. Ist da was kaputt? Oder Fehlt eine Komponente, damit es erst richtig effifizient wird (datenlokalität etc)? Oder sind die binning und komprimierungsverfahren in Maxwell, Pascal und Turing einfach deutlich komplexer und entsprechend wiekungsvoller?

gravitationsfeld
2018-12-29, 22:29:55
Wer sagt, dass es bei Maxwell so viel bringt? Generell ist was AMD und NVIDIA da implementieren nur bei Passes mit super niedrigen Poly-Counts wirklich nuetzlich, z.B. bei grossen Particles.

robbitop
2018-12-29, 22:36:52
Maxwell hat halt einen riesen Sprung in Punkto Bandbreiteneffizienz gemacht (ggü kepler) Und der dsbr war das augenscheinlichste. Was macht Maxwell und Nachfolger denn so effizient (im Vergleich zu Kepler und AMDs mArchs)? Datenlokalität?

Digidi
2018-12-29, 23:57:25
Wie sieht das eigentlich aus, wenn nicht alles gecullt wird müssen dann doch auch mehr Pixel gerändert werden? Das sorgt doch dann für die Effizienz?

danarcho
2018-12-30, 00:55:07
Ich bin mir gar nicht sicher, ob die AMD karten überhaupt so bandbreitenlimitiert sind. Eine Erhöhung des Ram Taktes verringert auch die Latenzen und hilft damit auch deutlich bei niedriger Occupancy.

reaperrr
2018-12-30, 04:47:57
Ich bin mir gar nicht sicher, ob die AMD karten überhaupt so bandbreitenlimitiert sind. Eine Erhöhung des Ram Taktes verringert auch die Latenzen und hilft damit auch deutlich bei niedriger Occupancy.
Es geht eher darum, dass sowohl Polaris10 als auch Vega10 wohl keine Chance gegen die jeweiligen direkten NV-Konkurrenten gehabt hätten, wenn z.B. die 580/590 mit 192 GB/s und V64 mit 320 GB/s Bandbreite auskommen müsste, wie das die 1060 respektive 1080 tun.

Es geht also mehr darum, dass AMD scheinbar mit 'brute force' (mehr Roh-Bandbreite als die Konkurrenz) die niedrigere Effizienz kompensiert hat.

Die Frage ist einfach, woran liegt es, dass AMD 33-50% mehr Bandbreite für die gleiche Performance zu brauchen scheint. Liegt es an schwächerem Culling/Tiling, oder schwächerer DCC, oder einem lahmeren Cache-Subsystem?

robbitop
2018-12-30, 10:31:00
@reaperrr
Danke :up: - so war es gemeint

Raff
2018-12-30, 14:12:16
30% Leistungs-Gewinn durch Geometrie-Pipeline ist sowieso lachhaft. Das macht in keinem Spiel soviel von der Frame-Time aus.

Auch nicht bei Chips, deren Geometriedurchsatz limitiert? Bei Nvidias Top-Dogs ist das ja kein Thema, aber bei AMD klebt man seit Generationen bei vier Polys/Takt fest. Okay, Spiele sind oft keine Polygonschleudern (Ausnahme bestätigen die Regel), aber wenn man es darauf anlegt bzw. eine Techdemo damit programmiert, sollte es sich doch stark auswirken, Faktor vier beim Culling zu haben. Oder nicht? Ich frage dich als Entwickler. :)

MfG,
Raff

BoMbY
2018-12-30, 18:59:09
Das Culling dürfte nur viel bringen, wenn das Spiel/die Engine es entsprechend schlecht macht. Und ansonsten ist das Hauptproblem bei AMD eher immer noch die Draw Calls bei DX11 und OpenGL, bzw. der Command Processor und die scheinbar serielle Verbindung zu diesem.

Digidi
2018-12-30, 19:23:42
Auch nicht bei Chips, deren Geometriedurchsatz limitiert? Bei Nvidias Top-Dogs ist das ja kein Thema, aber bei AMD klebt man seit Generationen bei vier Polys/Takt fest. Okay, Spiele sind oft keine Polygonschleudern (Ausnahme bestätigen die Regel), aber wenn man es darauf anlegt bzw. eine Techdemo damit programmiert, sollte es sich doch stark auswirken, Faktor vier beim Culling zu haben. Oder nicht? Ich frage dich als Entwickler. :)

MfG,
Raff

4 Polygone pro Takt gilt für den Rasterizer aber nicht für das culling. Da packt man mehr aber da fehlt es auch AMD.

Zeigt auch euer Test
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/

Interessant ist das bis 50% culling Vega trotzt geringerem Takt fuhrt. Erst bei 100 culling zieht Nvidia davon.

Auch Interessent trotz 2 Rasterizer mehr ist Titan Xp so schnell wie GTX 1070

horn 12
2018-12-31, 00:16:59
https://www.pcgamesn.com/amd-navi-high-end-more-powerful-gpu-than-expected

https://www.cta.tech/News/Blog/Articles/2018/December/AMD-President-and-CEO-Dr-Lisa-Su-Discusses-Her.aspx?utm_Medium=&utm_source=&sf205067364=1

Nur Zusammengefasst, nix Neues.

BeetleatWar1977
2018-12-31, 12:38:02
Ich frage mich - warum kein DXR mit Vega - mit der Programmierbaren Pipeline, und der Umsetzung des ja vorhanden Fallbackcodes für DXR sollte es doch mit vertretbarer Performance machbar sein..... im Compute ist die Vega ja nicht so schlecht.......

unl34shed
2018-12-31, 12:52:11
Warum sollte AMD Raytracing jetzt pushen?

BeetleatWar1977
2018-12-31, 13:19:07
Warum sollte AMD Raytracing jetzt pushen?
Naja, die Aussage war, das sie Raytracing bringen, sobald es allgemein möglich ist - also nehme ich mal an, sobald das Lineup auf Vega (II) und Navi wechselt......

dildo4u
2018-12-31, 13:23:09
Vega 2 ist doch bekannt die hat keine RT Hardware.

https://www.anandtech.com/show/13562/amd-announces-radeon-instinct-mi60-mi50-accelerators-powered-by-7nm-vega

TheGood
2018-12-31, 13:49:24
Vega 2 ist doch bekannt die hat keine RT Hardware.

https://www.anandtech.com/show/13562/amd-announces-radeon-instinct-mi60-mi50-accelerators-powered-by-7nm-vega

Leider weis aktuell keiner was genau VEGA II sein soll.. Nächstes Jahr wissen wir dann woh lmehr.

BeetleatWar1977
2018-12-31, 13:57:23
Vega 2 ist doch bekannt die hat keine RT Hardware.

https://www.anandtech.com/show/13562/amd-announces-radeon-instinct-mi60-mi50-accelerators-powered-by-7nm-vega
:rolleyes: brauchts doch auch gar nicht? Zumindestens zur Unterstützung von DXR, welche Performance rauskommt ist eine andere Geschichte.....

reaperrr
2018-12-31, 14:13:14
Leider weis aktuell keiner was genau VEGA II sein soll.. Nächstes Jahr wissen wir dann woh lmehr.
Also, bisher deutet doch alles, inkl. des OpenSource-Treibers für Linux, darauf hin, dass Vega20 / Vega II nix weiter als Vega10

+ 1:2 DP
+ verdoppeltes HBM-SI
+ PCIe 4.0
+ ein, zwei kleinere (für Spiele wohl irrelevante) Bugfixes
+ ein, zwei neue Instruktionen für den AI/HPC-Bereich
+ duale VCE (wofür auch immer)

in 7nm ist?

Der Chip war immer als a) 7nm-Testvehikel und b) HPC-Ersatz für den alternden Hawaii gedacht, auch oder gerade deshalb wird man an der Architektur so gut wie nichts bis garnichts für Spiele gemacht haben, da jede Architekturänderung die Gefahr einer Verspätung oder von Bugs erhöht hätte.

Ein Vega II für Spieler wäre nur ein Nebenprodukt.
Mehr sollte man da wirklich nicht erwarten, weder, dass plötzlich PS voll aktiviert wird und besser performt, noch irgendwelche sonstigen, geheimen Super-Features oder Performance-Steigerungen für Spiele.

~20% mehr Perf durch höheren Chip-Takt und in manchen Spielen vielleicht noch weitere 3-8% durch mehr Speicherbandbreite, mehr wird's in meinen Augen nicht.

BoMbY
2018-12-31, 14:51:51
Eigentlich würde es sich vermutlich finanziell mehr lohnen Vega10 in 12nm mit schnellerem Aquabolt HBM2 nochmal für Gamer aufzulegen - insgesamt dürfte ein realistischer Preis für Vega20 wohl deutlich darüber liegen.

BlacKi
2018-12-31, 14:55:18
Ein Vega II für Spieler wäre nur ein Nebenprodukt.
Mehr sollte man da wirklich nicht erwarten, weder, dass plötzlich PS voll aktiviert wird und besser performt, noch irgendwelche sonstigen, geheimen Super-Features oder Performance-Steigerungen für Spiele.

~20% mehr Perf durch höheren Chip-Takt und in manchen Spielen vielleicht noch weitere 3-8% durch mehr Speicherbandbreite, mehr wird's in meinen Augen nicht.
ich bin gespannt mit welchem preis amd für die karte kommt und was sie später auf dem markt kostet.

vl gibt amd den preis von 500€ an, aber auf dem markt wird sie sicher 800€ und mehr kosten. kommt auch drauf an ob es 8 /16gb speicher werden.

mironicus
2018-12-31, 15:35:30
https://www.youtube.com/watch?v=MG-onUm__c8

AdoredTV meint in seinem neuesten Video, dass AMD kein 7 nm VEGA bringt, sondern gleich mit Navi startet (mit GDDR6) und mit 3 Versionen (als 3000er-Reihe) gegen RTX 2050/60/70 positioniert, und High-End Karten sollen in Q3 2019 kommen.

Der_Korken
2018-12-31, 16:43:56
V20 in 7nm ist doch confirmed von AMD. Oder meint er nur Consumer-Modelle? (sry, keine Lust 28min zu gucken nur für diese Aussage)

mboeller
2018-12-31, 16:44:26
die Preise wären schon vergleichsweise niedrig

RX 3060 = "RX580 Leistung" für 129,- Dollar (75W; 4GB)
RX 3070 = "Vega56 Leistung" für 199,- Dollar (120W; 8GB)
RX 3080 = "Vega64+15% Leistung" für 249,- Dollar (150W; 8GB)

zu gut um wahr zu sein, oder?

auf der CES werden die Karten nur vorgestellt, ca. 3 Monate später dann gelauncht (laut AdoredTV)

Hakim
2018-12-31, 17:09:21
die Preise wären schon vergleichsweise niedrig

RX 3060 = "RX580 Leistung" für 129,- Dollar (75W; 4GB)
RX 3070 = "Vega56 Leistung" für 199,- Dollar (120W; 8GB)
RX 3080 = "Vega64+15% Leistung" für 249,- Dollar (150W; 8GB)

zu gut um wahr zu sein, oder?

auf der CES werden die Karten nur vorgestellt, ca. 3 Monate später dann gelauncht (laut AdoredTV)

Hört sich viel viel zu gut an :)

Tobalt
2018-12-31, 17:22:18
naja 130€ ist ja jetzt auch nicht sooo weit vom preis schlechter rx580 entfernt, bzw gebraucht selbst für gute rx580 ok.

da amd im graka Markt ähnlich abkackt wie anno bulldozer bei den cpus, kann es auch sein dass sie ein ähnliches Zeichen wie mit den ersten Ryzen setzen wollen bei P/L, eben um den erheblichen image Schaden zu reparieren

MadPenguin
2018-12-31, 17:25:24
Sollte das wirklich stimmen, wäre das der Himmel schechthin...;D

reaperrr
2018-12-31, 17:29:44
Hört sich viel viel zu gut an :)
Jep, die Zahlen sind auch identisch mit dem seltsamen "3080 = Navi10 full, 3070 Navi12 full, 3060 Navi12 Salvage" Gerücht.

Preise um 100-120$ erhöhen und 3070 = Navi10 Salvage, dann wär's ja noch halbwegs glaubwürdig gewesen, aber so...?

Die Kosten je mm² sind in 7nm fast doppelt so hoch, selbst ein Chip der Größe von Polaris10 würde demnach fast so viel kosten wie Vega10, und dann solche Kampfpreise noch unter RX590-Niveau? Ergibt einfach null Sinn, AMD braucht auch Marge, nicht nur Marktanteile.

Auch jetzt noch Polaris30 in Form der RX590 gebracht zu haben macht nur Sinn, wenn Polaris30 anschließend noch ne Weile länger für den Bereich unterhalb von Navi verwendet werden soll, den schmeißen sie doch nicht schon nach ~5 Monaten wieder raus.
Und für wieviel sollten die Polaris30-Karten dann verkauft werden? 99$?

Also da sind die CPU-Gerüchte von AdoredTV noch wesentlich glaubwürdiger (was auch noch lange nicht heißt, dass sie stimmen).

Hakim
2018-12-31, 17:29:45
naja 130€ ist ja jetzt auch nicht sooo weit vom preis schlechter rx580 entfernt, bzw gebraucht selbst für gute rx580 ok.



Ja aber schau dir mal den 3070 an, der mit 120W weniger verbrauchen würde als der kommende 2060 bei ähnlicher Leistung und nur 199$ kosten solle (2060, 349$) und dazu 8 GB. Hört sich zu gut an. Ähnlich beim 3080 zum RTX2070. Hier sogar Preislich nur die Hälfte.

Leonidas
2018-12-31, 17:41:08
Wann gab es das eigentlich jemals, das ein Hersteller vier Monate vor Launch (wurde ja alles schon im November herumgekocht) komplette Kartendaten und Preise so weit spruchreif hat, das es komplette Leaks geben kann?

Ich behaupte mal, 4 Monate vor Launch stehen diese Daten in dieser Vollständigkeit beim Hersteller selber noch gar nicht fest. Adored haben also was behauptet, was AMD noch nicht einmal selber hatte.

mboeller
2018-12-31, 18:00:50
Ich behaupte mal, 4 Monate vor Launch stehen diese Daten in dieser Vollständigkeit beim Hersteller selber noch gar nicht fest. Adored haben also was behauptet, was AMD noch nicht einmal selber hatte.

naja, bis zur Vorstellung sind es ja nur noch 9 Tage

edit:
die Angaben in dem Video sind ja auch ziemlich allgemein gehalten. Viel mehr als das was ich gepostet habe wurde auch nicht im Video erzählt. Außerdem sagt der AdoredTV Typ auch das sein "Spezi" über GPU's viel schlechtere Infos hat als über CPU's.

mironicus
2018-12-31, 20:05:19
Die Ankündigung solcher Karten zu diesen Preisen würde zu einer massiven Kaufrückhaltung bei NVidia führen und entsprechend eine Preisanpassung nach unten erfolgen. Im Segment bis 300 Euro werden nun mal die meisten Karten verkauft, und eine RTX 2060 mit 6 GB für 350 Euro+ hätte da keine Chance mehr. NVidia verkauft dicke Chips und hat höhere Kosten, AMDs Karten haben einen viel kleineren Chip und die Preise finde ich realistisch, wobei gute Custom Designs der RX 3080 bestimmt über 300 Euro kosten werden.

BoMbY
2018-12-31, 22:29:38
Adored haben also was behauptet, was AMD noch nicht einmal selber hatte.

Der vergisst ebenso, dass es neben Navi10 scheinbar auch noch einen Navi10 Lite gibt, zu dem sich bisher niemand einen Reim machen kann.

Digidi
2019-01-01, 03:54:28
Das was auf rx580 / 590 Leistung kommt ist unwahrscheinlich da hat AMD ja gerade erst die rx590 veröffentlicht.

Fragman
2019-01-01, 10:59:36
AMD wäre schön dumm bei dem mittlerweile akzeptierten Preisniveau mit dieser Leistung so weit runter zu gehen. Die wollen und müssen Geld verdienen und solche Karten, würde man nie so billig verkaufen wollen und müssen.

OgrEGT
2019-01-01, 12:20:46
AMD muss Marktanteile zurück gewinnen. Und das gegen eine starke Konkurrenz deren einziges Manko zu hohe Preise sind. Das kann mMn nur erreicht werden bei überdeutlichem Leistungsplus Must-have Stand-alone Features oder über den Preis aka P/L...

Mancko
2019-01-01, 12:46:03
Die Ankündigung solcher Karten zu diesen Preisen würde zu einer massiven Kaufrückhaltung bei NVidia führen und entsprechend eine Preisanpassung nach unten erfolgen. Im Segment bis 300 Euro werden nun mal die meisten Karten verkauft, und eine RTX 2060 mit 6 GB für 350 Euro+ hätte da keine Chance mehr. NVidia verkauft dicke Chips und hat höhere Kosten, AMDs Karten haben einen viel kleineren Chip und die Preise finde ich realistisch, wobei gute Custom Designs der RX 3080 bestimmt über 300 Euro kosten werden.

Dicke Chips sind doch bei Nvidia bisher nur bis zur 2060 wenn ich das richtig sehe. Darunter ist ja zum Teil noch völlig offen wie das aussieht. Darüber hinaus nutzt Nvidia das 12nm Verfahren. Das ist erheblich günstiger als 7nm. Also rein über die DIE Fläche kannst Du da keinen Kostenvergleich ziehen. Das funktioniert erst, wenn 7nm mal lange am Markt und ausgereift ist mit hohen Kapazitäten, so dass die Kosten sinken. Zu Beginn sind die neuen Prozesse immer exorbitant teurer als die älteren. Da kann es auch sein, dass ein Chip mit deutlich mehr DIE Fläche nicht mehr kostet.

mironicus
2019-01-01, 13:14:53
Bei dieser TDP hätte AMD auch endlich mal was vernünftiges für Gaming-Notebooks die bis jetzt komplett von NVidia dominiert worden sind. Aber wahrscheinlich wird Intel und NVidia mit Knebelverträgen dafür sorgen, dass es höchstens vereinzelt nur Nischenprodukte geben wird.

Korvaun
2019-01-01, 14:04:38
Wenn RX3070 gegen die nV RTX2060 und die RX3080 gegen die nV RTX2070 gestellt wird werden die Preise vielleicht jeweils 50€ günstiger sein als die nV Pendants, wenn die Karten jeweils gleich schnell sind zumindest. Mehr sehe ich da nicht, nach unten gibt es einfach zu wenig Preisspielraum wenn man nicht 580/590 komplett obsolet machen will. Oder sollen die dann "verschenkt" werden?

Ich hoffe die Namen werden nicht so kommen, das sind für Casual-Käufer doch komplett verwirrend fast gleiche Namen... vielleicht laufen die Karten aber ja auch unter VEGA II Label, wäre sinnvoller.

Mann was AMD auf der CES so alles raushauen will ist echt irre, sollte jetzt alles sein was aktuell irgendwie gerüchteweise möglich ist:
Server ZEN2
Consumer ZEN2
Vega20 in 7nm Consumer Version
Navi Grakas

ist doch plemplem oder?

dargo
2019-01-01, 14:09:51
Bei dieser TDP hätte AMD auch endlich mal was vernünftiges für Gaming-Notebooks die bis jetzt komplett von NVidia dominiert worden sind. Aber wahrscheinlich wird Intel und NVidia mit Knebelverträgen dafür sorgen, dass es höchstens vereinzelt nur Nischenprodukte geben wird.
Erstmal abwarten. Ich tippe bei den TDPs eher auf GPU-Power und nicht die gesamte Karte.

Wenn RX3070 gegen die nV RTX2060 und die RX3080 gegen die nV RTX2070 gestellt wird werden die Preise vielleicht jeweils 50€ günstiger sein als die nV Pendants, wenn die Karten jeweils gleich schnell sind zumindest. Mehr sehe ich da nicht, nach unten gibt es einfach zu wenig Preisspielraum wenn man nicht 580/590 komplett obsolet machen will. Oder sollen die dann "verschenkt" werden?

Wenn Navi so kommt wie bisher spekuliert wofür soll man dann noch Polaris halten? Polaris lässt man einfach EOL.

Das was auf rx580 / 590 Leistung kommt ist unwahrscheinlich da hat AMD ja gerade erst die rx590 veröffentlicht.
Mir sieht die RX590 eh nur nach einer Kleinserie aus, es gibt gerade mal fünf RX590. Wahrscheinlich nur um zu zeigen, dass man was Neues liefern kann. Mit geringsten Aufwand halt. Auffällig ist auch, dass es keinen Salvage der RX590 gibt.

amdfanuwe
2019-01-01, 14:26:13
Mann was AMD auf der CES so alles raushauen will ist echt irre,
...

ist doch plemplem oder?
Was AMD raushauen will, wissen wir ja gar nicht.
AMD könnte ein paar nette Sachen vorstellen, Appetitbrocken verteilen. Bis dann etwas im Markt erscheint, dauert es wieder länger als uns lieb ist. Denken wir an die Vega Mobile, die letztes Jahr auf der CES gezeigt wurde und erst jetzt in Apple Notebooks verfügbar ist.

Auf ein spannendes 2019.

HOT
2019-01-01, 14:26:53
Die 590 ist ja auch maximal billig gewesen - Boarddesigns und Kühler von der 580, keine Referenzmodelle, gleiche Maske. Man hat da einfach ne Gelegenheit gesehen ein paar € zusätzlich zu machen mit der 590.
AMD von 2015 hätte folgendes Lineup für 2019 gebacht:
RX 590
Vega2 mit 12nm-V10
Vega2 Fury mit V20

Heute bin ich mir nicht mehr so sicher. Man braucht ja auch eine 7nm-Kleine-Chip-Serie, also quasi einen neuen Polaris, den man über Jahre produzieren kann.

dildo4u
2019-01-01, 14:27:17
AMD braucht was womit sie die 12nm Fertigung auslasten,nicht alles Fabs werden 2019 auf 7nm umgestellt.Die RX 590 läuft genau so weiter wie Ryzen 2000.
GDDR6 ist viel zu teuer als das damit 8GB sub 300€ Karten Anfang 2019 kommen.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5-GDDR6-deutlich-teurer-1272392/

mczak
2019-01-01, 16:43:06
Auffällig ist auch, dass es keinen Salvage der RX590 gibt.
Ich habe mich auch schon gefragt was da der Plan ist. Es macht ja auch null Sinn Polaris 20 weiterzuproduzieren - aber da hat man wohl noch genügend "Mining-Restbestände". Ansonsten könnte man natürlich auch RX 570 mit Polaris 30 verkaufen (und die RX 580 auslaufen lassen, RX 580 mit Polaris 30 ergibt imho keinen Sinn). Wenn's kein komplettes Navi-Lineup gibt könnte man den Chip natürlich auch in 2 Karten mit neuem Namen verwenden, wobei der Chip schon nicht mehr das Gelbe vom Ei ist.

HOT
2019-01-01, 17:07:30
AMD braucht was womit sie die 12nm Fertigung auslasten,nicht alles Fabs werden 2019 auf 7nm umgestellt.Die RX 590 läuft genau so weiter wie Ryzen 2000.
GDDR6 ist viel zu teuer als das damit 8GB sub 300€ Karten Anfang 2019 kommen.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5-GDDR6-deutlich-teurer-1272392/
Das ist GloFos Problem. AMD produziert ja sicherlich P12/21 sowieso weiter und die Picasso gibts ja auch noch. Auch die Pinnacles werden im Programm bleiben. Man ist da beim besten Willen nicht auf GPUs angewiesen.


mczak
Die packen einfach kaputte P30 mit auf die 570 und fertig.

mboeller
2019-01-01, 17:13:09
Mann was AMD auf der CES so alles raushauen will ist echt irre, sollte jetzt alles sein was aktuell irgendwie gerüchteweise möglich ist:


Server ZEN2

wurde bereits vorgestellt

Consumer ZEN2

Yep, soll laut Gerüchten vorgestellt werden

Vega20 in 7nm Consumer Version

gibt es laut AdoredTV nicht

Navi Grakas

Yep, sollen auf der CES vorgestellt werden, allerdings ist der AdoredTV Typ unsicher ob das auch wirklich passiert.

ist doch plemplem oder?

max. 2 Produktreihen vorstellen, Zen2 und (vielleicht) Navi ist jetzt IMHO nicht so plemplem.

mboeller
2019-01-01, 17:14:41
AMD braucht was womit sie die 12nm Fertigung auslasten,

AMD braucht gar nichts um die 12nm Fertigung auszulasten. Sie haben keine 12nm Fertigung! Da gibt es nichts zum auslasten.

amdfanuwe
2019-01-01, 17:19:35
ich denke, Navi sollte in 7nm GloFo Ende 2019 erscheinen, Polaris30 war für den Übergang gedacht, Polaris20 wurde eingestellt. Als GloFo den 7nm Ausstieg verkündete war Polaris30 schon zu weit um alles in den Müll zu werfen.
Navi wurde dann auf TSMC 7nm umgeswitcht. Durch die Erfahrungen mit Vega20 und den frei gewordenen Kapazitäten kann Navi früher kommen als ursprünglich gedacht.

reaperrr
2019-01-01, 18:51:19
Ich habe mich auch schon gefragt was da der Plan ist. Es macht ja auch null Sinn Polaris 20 weiterzuproduzieren - aber da hat man wohl noch genügend "Mining-Restbestände". Ansonsten könnte man natürlich auch RX 570 mit Polaris 30 verkaufen (und die RX 580 auslaufen lassen, RX 580 mit Polaris 30 ergibt imho keinen Sinn). Wenn's kein komplettes Navi-Lineup gibt könnte man den Chip natürlich auch in 2 Karten mit neuem Namen verwenden, wobei der Chip schon nicht mehr das Gelbe vom Ei ist.
In China haben sie eine RX 580 32CU veröffentlicht, die evtl. auf P30 basiert und den gleichen Zweck für P30 erfüllen könnte, den die 470D für P10 erfüllt hat. Vielleicht ist die Defekt-Rate niedrig genug, dass sie keine weltweite 32-CU-Karte brauchen, jedenfalls bis die Produktion komplett von P20 auf P30 umgestellt wurde.

Bisher sieht alles danach aus, dass beide Navi-Chips, die dieses Jahr kommen sollen, sich leistungsmäßig über P30 einsortieren. Meiner Meinung nach wahrscheinlich, dass uns P30 noch eine Weile erhalten bleibt, P21 und P12 evtl. auch.

Stelle mir das Line-Up dann ungefähr so vor:

RX Rage 80 (Navi10 Full)
RX Rage 72 (Navi10 Salvage)
RX 3090 (Navi12 Full)
RX 3080 (Navi12 Salvage)
RX 3070 (P30-36CU, 8GB@8Gbps, ~580OC-Takt @ ~170W Verbrauch)
RX 3060 (P30-32CU, 4GB@7Gbps, ~580Ref-Takt @ ~140W Verbrauch)
R9 3050 (umgelabelte 560-14CU)
R7 3040 (umgelabelte 550-8CU)

Und im 2020-Refresh (4000er) werden die Polaris-Chips durch einen einzelnen Mainstream-Navi mit ~P30-32CU-Perf und 128bit GDDR6 ersetzt, den Rest übernehmen dann eh die neuen APUs.

BoMbY
2019-01-01, 19:06:57
AMD braucht gar nichts um die 12nm Fertigung auszulasten. Sie haben keine 12nm Fertigung! Da gibt es nichts zum auslasten.

Das WSA ist weiter gültig. AMD muss die vereinbarte Anzahl Wafer weiter abnehmen, oder Strafe zahlen.

HOT
2019-01-01, 19:32:24
Das wird mit dem Wegfall von 7nm bei GloFo so sicher nicht mehr stattfinden. Außerdem: Wer sagt denn, dass das sonst nicht erfüllt wird? Gibt doch noch einige 12nm-Produkte.

Relic
2019-01-01, 20:43:21
Das WSA ist weiter gültig. AMD muss die vereinbarte Anzahl Wafer weiter abnehmen, oder Strafe zahlen.
WSA wurde schon lange abgeändert und durch den Wegfall von 7nm werden sich die Konditionen für AMD sicher nicht verschlechtert haben...

BoMbY
2019-01-01, 21:58:20
Es gibt keine Änderung des WSA bisher, und das WSA dient dazu AMD dazu zu zwingen bei GloFo zu fertigen. Das war eine Bedingung für die Ausgliederung.

Screemer
2019-01-01, 22:02:00
Du hast also Einblick in das WSA und andere Verträge zwischen AMD und glofo? Bitte mehr Infos!

Linmoum
2019-01-01, 22:10:58
Es gab von offizieller Seite damals die Äußerung, dass das WSA neu verhandelt wird.. Keine Ahnung, was dieses ständige "das ist so und bleibt auch so!!!" permanent soll, wenn es ein direkter Beteiligter in Form von AMD schon widerlegt hat.

Es stellt sich im Hinblick auf Änderungen nicht die Frage nach dem "ob", sondern nach dem "welche".

mboeller
2019-01-01, 22:23:46
BoMbY hat recht:

https://www.anandtech.com/show/10631/amd-amends-globalfoundries-wafer-supply-agreement-through-2020

zum 7th amendment habe ich keine Infos gefunden. Vielleicht gibt es das gar nicht.

Screemer
2019-01-01, 22:35:02
Das ist über zwei Jahre alt. Da war bei gf auch noch alles on track. Jetzt ist es das schon lange nicht mehr und etwaige Verträge sind sicherlich nicht nur zum nachteil von AMD ausgelegt. Er hat imho in keinem Fall Recht.

Linmoum
2019-01-01, 22:54:15
BoMbY hat recht:

https://www.anandtech.com/show/10631/amd-amends-globalfoundries-wafer-supply-agreement-through-2020

zum 7th amendment habe ich keine Infos gefunden. Vielleicht gibt es das gar nicht.
Nein, hat er nicht. Wie Screemer sagt, ist dein Link schon über 2 Jahre alt und genau um die 7nm-Geschichte geht es nämlich. Und wie ich bereits geschrieben habe, ist in Bezug auf letzteres auch schon bekannt, dass neu verhandelt wird.

Today’s announcement from GlobalFoundries and AMD has confirmed that the two companies will be renegotiating the WSA – presumably a requirement should GloFo no longer intend to offer bleeding-edge nodes – though to what extent remains to be seen.
https://www.anandtech.com/show/13279/amd-to-fab-7nm-cpus-gpus-at-tsmc

Der_Korken
2019-01-01, 23:22:18
AMD hat auch noch die IO-Chips für Epyc (und evtl Ryzen), mit denen man 14nm-Wafer abnehmen kann zusätzlich zum alten Kram. Die werden schon wissen, was sie tun.

reaperrr
2019-01-01, 23:36:53
AMD hat auch noch die IO-Chips für Epyc (und evtl Ryzen), mit denen man 14nm-Wafer abnehmen kann zusätzlich zum alten Kram. Die werden schon wissen, was sie tun.
Jup. Und die Gefahr, dass AMD in absehbarer Zeit Probleme bekommt genug Wafer abzunehmen, sehe ich eh nicht.

Zunächst mal, allein schon um RMAs, laufende OEM-Verträge usw. zu bedienen, wird sowohl Summit (alle EPYC-Gen1 basieren ja weiterhin auf dem) als auch Pinnacle noch ne ganze Weile weiterproduziert werden, und wir reden hier von Jahren, nicht Monaten. Deren Produktion wird nach Zen2-Release nicht gleich eingestampft, sondern nur soweit zurückgefahren, wie die Nachfrage zurückgeht, und die wird trotz Ryzen 3000 nicht gleich auf Null absacken.
Auch die RavenRidge-Produktion wird nach Picasso-Release nicht gleich eingestampft, und Picasso selbst wird ja auch noch 12LP.
Auch Polaris30 und vermutlich auch P21 u. P12 werden noch ganze ne Weile weiterlaufen.

Dazu dann noch die Chipsätze und I/O-Dies.

Also bis AMD so viel weniger 14/12nm-Chips produziert, dass sie die Mindest-Wafer-Abnahme unterschreiten, sind sie mit der Neuverhandlung längst durch, und dank GloFos 7nm-Streichung sitzt AMD hier in einer guten Verhandlungsposition.