PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48 49 50 51

Isen
2016-07-13, 00:31:42
Ob ich jetzt Zocke und dabei 38°c im Zimmer habe im Sommer, oder nur Surfe bleibt es bei den 38°c.
Das einzige Argument ist die Lautstärke... und da wissen einige Customs zu überzeugen.

N0Thing
2016-07-13, 00:33:59
Heute fehlen Nvidia komplette Objekte in manchen Treiber. Das wird als überlegenes Culling dann verkauft....

Gibt es dazu Bilder, Videos oder Reviews, die dies belegen?


Ich glaube echt du leidest mit deinen Aussagen unter massivem Realitätsverlust.:eek:
Wen interessiert das bitte?

Mich interessiert es zu Beispiel und es sollte auch alle interessieren, die sich generell für Bildqualität interessieren. Mag für den Massenmark inzwischen kein großes Thema mehr sein, aber die Berichte über das vergurkte AF bei Nvidia und später bei ATI/AMD haben auch im Massenmarkt Gehör gefunden.

MorPheuZ
2016-07-13, 01:10:07
Sofern es AMD schafft, die GTX 1070 und GTX 1080 zu schlagen, bei dem schwachen Polaris 10 Chip muss man erstmal schauen ob das in einem einigermaßen vernünftigen Energiebudget zu machen ist.
Wenn AMD dafür 250 Watt TDP benötigt, dann ist AMD schon wieder bei den meisten durchgefallen und die Reviews bescheinigen AMD die mittlerweile gewohnt schlechtere Effizienz.

Wenn AMD's Vega10 250 Watt benötigt um mit der GTX 1080 gleichzuziehen, sagt das nichts anderes aus als dass sie immer noch weniger effizient sind. Sie mussten den Sweet-Spott verlassen um höhere Takt zu erzielen (aufschliessen).

StefanV
2016-07-13, 01:15:49
Ja, es hat (starke) Auswirkungen auf Lautstärke, Gehäuse-Temp (Lebensdauer Komponenten,...), Raum-Temp (im Sommer bei >30°C im Schatten, da hätte ich gerne einen Rechner unter 50W), Stromkosten, uvm.

Es ist aus Ökologischer und Ökonomischer Sicht sinnvoll weniger zu Verbrauchen.
...die besonders stark hervorgehoben wurden, als nVidia es geschafft hat, mal bisserl besser zu sein als AMD, davor war das aus irgendwelchen Gründen egal...

Von daher sollte man schon die Kirche im Dorf lassen und hier nicht übertreiben...
Und ein gescheites Gehäuse hilft bei den Temperaturen sehr stark...

Und wenn dir die Leistungsaufnahme wirklich wichtig wäre, würdest du auch mit einem FPS Limiter auf 30fps spielen, maximal 60fps...

Isen
2016-07-13, 02:22:34
@MorPheuZ,

der Chip wird seine 180-225Watt verbrauchen. Wie viel Verbraucht der Rest Inkl. Verluste...(Fiji rüber Wink?) 250W sollte hinkommen, wenn AMD die Vorteile von HBM direkt wieder in mehr Takt stopft...
Egal. Ich brauch die Karte fürs Arbeiten und zocken. Zusätzlicher Rechner mit FirePro/Quadro ist mir zu teuer :D

HOT
2016-07-13, 07:56:03
Die 480 verbraucht 70% weniger als Hawaii, bei Fiji vs. Vega wird das zwar nicht ganz so viel sein, aber immer noch deutlich. Ich tippe auf 225W bei 1,2-1,3GHz. Vega 11 dann 300W.

UnderTheRock
2016-07-13, 09:20:59
Im Enthusiast-Bereich ist der Verbrauch durchaus wichtig, denn bei 300W ist schlicht und ergreifend Schluss. Alles darüber lässt sich mit Luft nicht mehr vernünftig kühlen. Wenn man die 300W bereits mit einem ~350mm²-Performance-Chip verbrät, dann wird man mit der Architektur keinen >500mm² Highend-Chip mehr hinbekommen, auch wenn der Die-Space da wäre.
Ganz so schlimm ist es ja nicht, aber ein potentieller P10 * 1,5 (GP104->GP102) käme schon auf gut 225W, ausgehend von den aktuell 170W. Und käme Leistungsmäßig nur knapp bei der GTX1070 raus, müsste noch mal gut 20% drauf legen für die 1080.

Mich wundert der Optimismus, wo AMD doch klar gesagt hat, dass die großen Effizienzsprünge mit Polaris kommen. Vega "nur" größer und schneller wird. Mehr als 10% Verbesserung in Sachen Perf/Watt wären ein ziemliches Wunder.

...die besonders stark hervorgehoben wurden, als nVidia es geschafft hat, mal bisserl besser zu sein als AMD, davor war das aus irgendwelchen Gründen egal...
Soll man das ernst nehmen? Ne GTX1070 haut bei geringerer Leistungsaufnahme als die RX480 mal eben so +50% Leistung oben drauf. Und das wischt der Herr mit "bisserl besser" vom Tisch?

Sven77
2016-07-13, 09:26:38
Thermi bekam damals auch zurecht sein Fett weg, die selektive Wahrnehmung von StefanV einfach ignorieren

dargo
2016-07-13, 09:29:49
Soll man das ernst nehmen? Ne GTX1070 haut bei geringerer Leistungsaufnahme als die RX480 mal eben so +50% Leistung oben drauf. Und das wischt der Herr mit "bisserl besser" vom Tisch?
Du meinst so wie in Doom mit einer modernen API? :tongue:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/#diagramm-doom-mit-vulkan-2560-1440

Dino-Fossil
2016-07-13, 09:33:13
Vega hat ja noch ein paar unbekannte Faktoren, die potentiell helfen können:
Einsparungen durch HBM, das wird vermutlich der größte Effekt
Fertigung anscheinend bei TSMC (?), eventuell besser geeignet als GloFo/Samsung
Verbesserungen an der Architektur, hat bei Polaris nicht viel gebracht (bezogen auf die Effizienz des Chips), aber die Hoffnung stirbt zuletzt.

Wieviel das ausmacht ist schwer zu beziffern, aber in der Summe könnte es durchaus einen gewissen Schub bringen, da bleibt auch die 470 als potentiell effizientere P10-Variante abzuwarten, um zu sehen was vielleicht möglich ist, wenn man den Chip nicht so arg am Limit fährt.

Dennoch, nach dem in Punkto Effizienz eher enttäuschenden P10 würde ich mir nicht zu viel von Vega erhoffen.

Disco_STFU
2016-07-13, 09:34:31
@ Dargo

Das ist jetzt zwar ein Achtungserfolg für AMD aber am Ende kaufen sich wieder 80% ne Nvidia weil die Benchmarkbalken mit ihren 95% DX 11 Games wieder länger sind...

Und in einem Jahr dann "Ach hätte ich damals doch nur AMD gekauft mimiii"

...

dargo
2016-07-13, 09:43:46
Vega ist nicht einfach ein ~verdoppelter P10. Bei Vega werden die Karten neu gemischt.

@Disco_STFU
Kommt mir bekannt vor. :wink:

UnderTheRock
2016-07-13, 09:43:50
Du meinst so wie in Doom mit einer modernen API? :tongue:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/#diagramm-doom-mit-vulkan-2560-1440
https://twitter.com/idSoftware/status/752609704795398144

Moment, ich check mal eben den Vorsprung der 1070 in nem Gameworks-Spiel....

Dino-Fossil
2016-07-13, 09:44:52
Das ist jetzt zwar ein Achtungserfolg für AMD aber am Ende kaufen sich wieder 80% ne Nvidia weil die Benchmarkbalken mit ihren 95% DX 11 Games wieder länger sind...

Solange Vulkan und DX12 noch eher die Ausnahme sind und noch dazu eh am Anfang stehen (und ich traue mir nicht zu, zu sagen, wie sich die Dinge nach ein, zwei Jahren Treiberarbeit und Entwicklungs-Erfahrung verhalten), ist es doch völlig nachvollziehbar!

Man möchte eine Karte, die jetzt gut läuft, nicht erst in ein bis zwei Jahren.
DX11 ist immer noch relevant und wird es auch noch eine Weile bleiben, bei älteren Titeln sowieso, aber wohl auch bei Neuerscheinungen.

Zumal NVidia-Karten ja nicht plötzlich schlecht laufen, wenn sie mit DX12/Vulkan konfrontiert werden, AMD holt nur endlich mal mehr aus der vorhandenen Rohleistung raus.

dargo
2016-07-13, 09:47:07
https://twitter.com/idSoftware/status/752609704795398144

Moment, ich check mal eben den Vorsprung der 1070 in nem Gameworks-Spiel....
Du bist leicht durchschaubar mit deiner frischen Anmeldung hier. Alter Account kürzlich gesperrt?

Sven77
2016-07-13, 09:56:03
Du bist leicht durchschaubar mit deiner frischen Anmeldung hier. Alter Account kürzlich gesperrt?

Er hat doch recht.. Cherrypicking hilft niemandem.

UnderTheRock
2016-07-13, 09:57:36
Du bist leicht durchschaubar mit deiner frischen Anmeldung hier. Alter Account kürzlich gesperrt?
Ah, weil du länger angemeldet bist, darfst du ein AMD-Spiel als "Beleg" für die tolle AMD-Performance nutzen.

Ist klar :facepalm:

Da klinke ich mich aus, das ist mir zu viel Kindergarten, so ein Verhalten.

Dural
2016-07-13, 09:57:58
Zudem das Spiel schon eine weile auf dem Markt ist, die meisten dürften es schon durch haben ;)

Es gleibt jedoch zu hoffen das die Entwickler zukünftig die CPU Leistung besser ausnützen werden, aktuell langweilt sich die CPU ja zu tode ;)

dargo
2016-07-13, 10:00:32
Er hat doch recht.. Cherrypicking hilft niemandem.
Noch ist es Cherrypicking ja, wir reden Ende 2016 nochmal drüber.

Ah, weil du länger angemeldet bist, darfst du ein AMD-Spiel als "Beleg" für die tolle AMD-Performance nutzen.

Bevor der Vulkan Patch kam war es noch dank OpenGL ein NV-Spiel. Jetzt ist es plötzlich ein AMD-Spiel? :D Wie gesagt... wir schauen uns Ende 2016 andere Games mit DX12/Vulkan + AC an.

dildo4u
2016-07-13, 10:07:07
Abwarten Dice hat BF1 auf einer 1080 gezeigt,sieht so aus als wenn NV diesmal vorgesorgt und ihnen Karten geschickt hat.

https://twitter.com/repi/status/742343387538460672

Das ist am wichtigsten nicht Deus Ex,Doom oder sonstwas.Man muss EA und Epic an der Angel haben,da sich die Arbeit dort auf viele Games auswirkt.

StefanV
2016-07-13, 10:28:35
Ganz so schlimm ist es ja nicht, aber ein potentieller P10 * 1,5 (GP104->GP102) käme schon auf gut 225W, ausgehend von den aktuell 170W. Und käme Leistungsmäßig nur knapp bei der GTX1070 raus, müsste noch mal gut 20% drauf legen für die 1080.
Dir ist schon klar, dass man das so nicht rechnen kann, da einige Dinge einfach nicht so wirklich skalieren?!


Mich wundert der Optimismus, wo AMD doch klar gesagt hat, dass die großen Effizienzsprünge mit Polaris kommen. Vega "nur" größer und schneller wird. Mehr als 10% Verbesserung in Sachen Perf/Watt wären ein ziemliches Wunder.
...und auf HBM setzen, welches ja bekanntlich deutlich effizienter als GDDR5 arbeitet, so dass man hier einiges an (unnötigem) Verbrauch einspart.


Soll man das ernst nehmen? Ne GTX1070 haut bei geringerer Leistungsaufnahme als die RX480 mal eben so +50% Leistung oben drauf. Und das wischt der Herr mit "bisserl besser" vom Tisch?
Aber nur im best Case, wie es 'unoptimiert' ausschaut, sieht man gerade hervorragend an dem Vulkan Patch von Doom.
Da sind es nämlich nur noch +10% bei +50% Aufpreis zur RX480.
So viel ist das also nicht, was hier an der Hardware fehlt...

MorPheuZ
2016-07-13, 10:31:00
Noch ist es Cherrypicking ja, wir reden Ende 2016 nochmal drüber.


Bevor der Vulkan Patch kam war es noch dank OpenGL ein NV-Spiel. Jetzt ist es plötzlich ein AMD-Spiel? :D Wie gesagt... wir schauen uns Ende 2016 andere Games mit DX12/Vulkan + AC an.

Man kann nur hoffen dass das so kommt was du dir erhoffst, denn wenn nicht...

UnderTheRock
2016-07-13, 11:10:37
Dir ist schon klar, dass man das so nicht rechnen kann, da einige Dinge einfach nicht so wirklich skalieren?!
Ja, mir ist klar, dass das ein BestCase ist. Tatsächlich wäre ein P10*1,5 noch etwas schlechter, als ich es grob theoretisch vorgerechnet habe.

...und auf HBM setzen, welches ja bekanntlich deutlich effizienter als GDDR5 arbeitet, so dass man hier einiges an (unnötigem) Verbrauch einspart.
... was ja schon der Fury geholfen hat, NVIDIA so richtig ins Schwitzen zu bringen. Not.

Aber nur im best Case, wie es 'unoptimiert' ausschaut, sieht man gerade hervorragend an dem Vulkan Patch von Doom.
Da sind es nämlich nur noch +10% bei +50% Aufpreis zur RX480.
So viel ist das also nicht, was hier an der Hardware fehlt...
Komisch, sonst wird NVIDIA immer dafür geprügelt, wie sie über GameWorks doch die Entwickler "manipulieren" - und nun ist genau diese Manipulation bei AMD der große Bringer in Zukunft? Finde ich eine sehr merkwürdige Theorie, zumal die Frage ist, bei wie vielen Titeln das geht. Auf das "hervorragend" optimiert Doom kommen eben 999.999 unhervorragend optimierte Titel.

M4xw0lf
2016-07-13, 11:17:39
Komisch, sonst wird NVIDIA immer dafür geprügelt, wie sie über GameWorks doch die Entwickler "manipulieren" - und nun ist genau diese Manipulation bei AMD der große Bringer in Zukunft?
Was für ein Gelaber, Vulkan und Gameworks gleichzusetzen.

G3cko
2016-07-13, 11:22:53
Der Unterschied: gameworks benachteiligt GCN und auch eigene ältere Karten (kepler). An doom sieht man sehr gut, dass eine schlechte API amd viel Leistung kostet. Hier wird lediglich die Performance ausgereizt aber niemand benachteiligt. Nvidia ist halt bereits vorher sehr stark und legt auch mit Vulkan noch an Performance zu.

dildo4u
2016-07-13, 11:23:00
Dir ist schon klar, dass man das so nicht rechnen kann, da einige Dinge einfach nicht so wirklich skalieren?!


...und auf HBM setzen, welches ja bekanntlich deutlich effizienter als GDDR5 arbeitet, so dass man hier einiges an (unnötigem) Verbrauch einspart.


Aber nur im best Case, wie es 'unoptimiert' ausschaut, sieht man gerade hervorragend an dem Vulkan Patch von Doom.
Da sind es nämlich nur noch +10% bei +50% Aufpreis zur RX480.
So viel ist das also nicht, was hier an der Hardware fehlt...
Die Pascal Performance stimmt noch nich siehe Abstand 970 zu 1070,es ist einfach zu früh um ein Fazit zu ziehen.

UnderTheRock
2016-07-13, 11:25:17
Was für ein Gelaber, Vulkan und Gameworks gleichzusetzen.
Setze ich nicht, ich setze den Entwicklersupport gleich. Mache auch AMD keinen Vorwurf daraus, dass sie für ihre Hardware optimieren. Aber zu suggerieren, die Doom-Performance wäre in Zukunft der Standard - naja.

Botcruscher
2016-07-13, 11:29:06
Du meinst so wie in Doom mit einer modernen API? :tongue:
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/#diagramm-doom-mit-vulkan-2560-1440

Du bist auch ein Held.:rolleyes: Zynisch betrachtet sehen wir da nur die total maroden OGL-Treiber von AMD.

Gorkon
2016-07-13, 11:29:08
Die Pascal Performance stimmt noch nich siehe Abstand 970 zu 1070,es ist einfach zu früh um ein Fazit zu ziehen.
Wo nix ist um Performance herzuzaubern ist halt nix. Und nochmals, es wird niemals alles in einer GPU zu 100% perfekt skalieren :rolleyes:

Durchschnittlich 56% / 53 % (WQHD / FHD) Mehrleistung bei CBase von 970 > 1070 im Parkour resultieren jetzt spezifisch in Doom in 45% Mehrleistung...passt doch.

dildo4u
2016-07-13, 11:30:53
Wo nix ist um Performance herzuzaubern ist halt nix. Und nochmals, es wird niemals alles in einer GPU zu 100% perfekt skalieren :rolleyes:

Durchschnittlich 52% Mehrleistung bei CBase von 970 > 1070 im Parkour resultieren jetzt spezifisch in Doom in 45% Mehrleistung...passt doch.

Ich sehe hier 56% in 1440p,schätze mal 1080p ist öfter cpu limitiert.

https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

In 1.920 × 1.080 rücken alle Grafikkarte ein wenig zusammen, da der Prozessor beginnt zu limitieren. So reduziert sich der Abstand zwischen den zwei Pascal-Modellen um zwei Prozent auf 18 Prozent. Die Differenz zur GeForce GTX 970 fällt ebenso um drei Prozent

Gorkon
2016-07-13, 11:34:34
Die 3% wollte ich natürlich nicht unterschlagen ;) Fixed it...

dargo
2016-07-13, 11:36:51
Du bist auch ein Held.:rolleyes: Zynisch betrachtet sehen wir da nur die total maroden OGL-Treiber von AMD.
Ich weiß... die OpenGL Treiber von NV sind um Welten besser. :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099860&postcount=1327

Abwarten Dice hat BF1 auf einer 1080 gezeigt,sieht so aus als wenn NV diesmal vorgesorgt und ihnen Karten geschickt hat.

https://twitter.com/repi/status/742343387538460672

Das ist am wichtigsten nicht Deus Ex,Doom oder sonstwas.Man muss EA und Epic an der Angel haben,da sich die Arbeit dort auf viele Games auswirkt.
Inwiefern ist das am wichtigsten? BF lebt vom MP. Und dort spielt CPU-Last die größte Rolle. Im CPU-Limit hat AMD in keinem Spiel mit einer LL-API irgendwelche Schwierigkeiten.

Botcruscher
2016-07-13, 11:43:20
Deswegen steht da zynisch. OGL läuft generell beschissen und weil es kaum benutzt wird steckt auch kaum Entwicklerarbeit drin. Aus der ganzen Kette dann die Vorteile der API ableiten zu wollen...

dildo4u
2016-07-13, 11:45:25
Inwiefern ist das am wichtigsten?

Dice entwickelt die Frostbite Engine und die wird in vielen EA Games genutzt,daher ist es wichtig das Nvidia Dice mit Karten versorgt damit auf Pascal optemiert wird.

iuno
2016-07-13, 11:55:30
Der Unterschied: gameworks benachteiligt GCN und auch eigene ältere Karten (kepler).
[...]
Hier wird lediglich die Performance ausgereizt aber niemand benachteiligt.
Es hat es schon was von Benachteiligung, wenn der eine Pfad mit hohem Aufwand optimiert wird und der andere nicht. Das betrifft nicht nur AC, das ist ein sinnvolles Feature, zu Recht in der API und legitim zu verwenden. Wenn die Entwickler aber bei der einen Architektur schon mit intrinsischen Funktionen rumhantieren und bei der anderen eben nicht, ist das was voellig anderes.

IMHO.

Isen
2016-07-13, 12:40:09
Hätte sich NV eben besser engagieren können... (ich weiß... aber den Spruch musste man sich auch anhören hinsichtlich GW-Titeln) wisst ihr nun wie es ist, wenn ihr damit gekommen seid. ;)
Wobei Black Boxes wieder ein ganz anderes Thema sind, als nicht vorhandene Features in Hardware. Aber nett von dem Studio, NV nicht auflaufen zu lassen, wie es Stardock getan hat.

Malabolge
2016-07-13, 12:55:55
Es hat es schon was von Benachteiligung, wenn der eine Pfad mit hohem Aufwand optimiert wird und der andere nicht. Das betrifft nicht nur AC, das ist ein sinnvolles Feature, zu Recht in der API und legitim zu verwenden. Wenn die Entwickler aber bei der einen Architektur schon mit intrinsischen Funktionen rumhantieren und bei der anderen eben nicht, ist das was voellig anderes.

IMHO.

Naja , Nvidia kriegt jetzt halt seine eigene bitter Medizin zu schmecken.
So wie man in den Wald hinein ruft, So schallt es herraus.:rolleyes:

Sollen mir die "grünen" jetzt ja nicht mit "benachteiligung" kommen. Ihr habt "Gameworks" bejubelt als es euch Vorteile brachte und AMD-Karten "bremste". AMD hat eben nun in Vulkan (DX12) den selben Joker gezogen.Und Ihre "Verbesserungen" und Vorteile eben in Low-Level eingebracht,

Sicher bleibt ein bitter geschmack dran kleben. Aber wenn wie im Moment beide Vorteile daraus ziehen, sollte man sich über den Zugewinn freuen.
Und keine Bange, NVidia wird früh genug wieder , seine Karten "pushen"




PS : Wäre allerdings auch an Bildqualität-vergleichen interessiert
(Aths , Mr. Lolman , Anyone ??? Mag sich den keiner "Opfern")
Hilfe zur Durchführung wird man hier sicher finden.

Hübie
2016-07-13, 13:00:22
Abwarten Dice hat BF1 auf einer 1080 gezeigt,sieht so aus als wenn NV diesmal vorgesorgt und ihnen Karten geschickt hat.

https://twitter.com/repi/status/742343387538460672

Das ist am wichtigsten nicht Deus Ex,Doom oder sonstwas.Man muss EA und Epic an der Angel haben,da sich die Arbeit dort auf viele Games auswirkt.

An der Angel haben ist für uns Endkunden immer schlecht. Egal wie man es dreht und wendet. Ich denke dass DICE es mehr wie Rockstar macht und von beiden das beste implementiert und aus beiden µArch genug heraus holt um niemanden zu benachteiligen. Den Spagat hat man mit GTA V unter D3D11 imo gut hinbekommen.

illidan
2016-07-13, 13:19:10
Doom auf Vulkan wurde auch zuerst auf einer 1080 gezeigt. :cool:

dargo
2016-07-13, 13:28:58
Doom auf Vulkan wurde auch zuerst auf einer 1080 gezeigt. :cool:
Pssst... es ist ein AMD-Spiel. :uban:

Dural
2016-07-13, 15:59:43
Hier kann man bei (fast) jedem Post erahnen was für eine Grafikkarte drin steckt :freak:

Und wenn du schon die 1080 erwähnst, die dürfte in Ultra / Ultra HD immer noch klar die schnellste Karte in dem Spiel sein, und jetzt? :rolleyes:

gedi
2016-07-13, 16:25:13
Schade dass die 480 so sehr durch ROPs und CUs beschnitten wurde, denn sonst hätte Sie vielleicht den Weg in mein Gehäuse gefunden (ich spreche in etwa von 15% an Mehrperformance). Trotzdem nice to see, dass es jetzt mit der Treiberarbeit hurtig voran geht. Hoffen wir mal, dass AMD diesen Weg beibehält.

dargo
2016-07-13, 16:53:19
Dir fehlen 15% Leistung oder wie ist der Post zu verstehen? Einfach auf die Customs warten. Da sollten bessere Kühler kommen die erstens leiser sind und zweitens die GPU besser kühlen. Dadurch fallen paar Wattchen wodurch die Custom RX480 den Takt von 1266Mhz besser halten kann. OC-Customs mit höherem PT sollte es auch geben.

dildo4u
2016-07-13, 16:57:18
Die Frage ist ob die OEM's die Stromverteilung ändern können,wenn nicht sind die OC Karten wieder ganz schnell über den PCI-E Specs.

dargo
2016-07-13, 16:58:51
Hä? Es gibt genug Hersteller die eigene PCBs entwerfen wie zb. Asus, Gigabyte oder MSI.

Pirx
2016-07-13, 16:59:46
Die Frage ist ob die OEM's die Stromverteilung ändern können,wenn nicht sind die OC Karten wieder ganz schnell über den PCI-E Specs.
Das können sogar 3DC-User:rolleyes:

dildo4u
2016-07-13, 17:03:25
Hä? Es gibt genug Hersteller die eigene PCBs entwerfen wie zb. Asus, Gigabyte oder MSI.
Das spielt keine Rolle wenn sie die Lastverteilung nicht ändern können.
Die Karte zieht mit dem neuen Treiber immer noch über den PCI-E Spec wenn man den Komptabilität Modus nicht nutzt.Da können die OEMs drei 8 Pin verbauen,die Karte würde trotzdem zu hohe Ströme aus dem Slot ziehen.

dargo
2016-07-13, 17:08:25
Das spielt keine Rolle wenn sie die Lastverteilung nicht ändern können.

Du gibst mir bestimmt gleich eine kompetente Antwort darauf warum sie es nicht dürfen sollten.

Botcruscher
2016-07-13, 17:08:48
Die Lastverteilung wurde doch selbst hier schon verändert.:rolleyes: Die ganze Diskussion um die PCIe-Spek ist total lächerlich. Da heute keine Karte mehr die 3.3V nutzt sind am Ende bei den übrigen 65W so ziemlich alle drüber.

N0Thing
2016-07-13, 17:13:29
Das spielt keine Rolle wenn sie die Lastverteilung nicht ändern können.
Die Karte zieht mit dem neuen Treiber immer noch über den PCI-E Spec wenn man den Komptabilität Modus nicht nutzt.Da können die OEMs drei 8 Pin verbauen,die Karte würde trotzdem zu hohe Ströme aus dem Slot ziehen.

Warum sollten die OEMs auf den eigenen Platinen, mit eigenem Layout nicht selber festlegen können, wo welche Ströme fließen?

dargo
2016-07-13, 17:17:16
Warum sollten die OEMs auf den eigenen Platinen, mit eigenem Layout nicht selber festlegen können, wo welche Ströme fließen?
Das frage ich mich auch schon die ganze Zeit. :tongue: Dildo sucht mal wieder das Haar in der Suppe wo keins ist.

@gedi
Das könnte für dich interessant sein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11100448&postcount=2552

gedi
2016-07-13, 17:43:21
Die 15% Mehrperformance meinte ich eigentlich per Default auf die Referenz-Kärtchen. Ich hoffe noch immer, dass einige (evtl. handselektierte) Cutoms mit OC die 1.6G packen.

Disco_STFU
2016-07-13, 17:46:49
Die 15% Mehrperformance meinte ich eigentlich per Default auf die Referenz-Kärtchen. Ich hoffe noch immer, dass einige (evtl. handselektierte) Cutoms mit OC die 1.6G packen.

Vlt. unter LN2 mit 300 Watt Leistungsaufnahme :freak:

Sunrise
2016-07-13, 17:50:27
Die 15% Mehrperformance meinte ich eigentlich per Default auf die Referenz-Kärtchen. Ich hoffe noch immer, dass einige (evtl. handselektierte) Cutoms mit OC die 1.6G packen.
Siehe RX480-Thread. Du bekommst knapp unter 1,4GHz Boost OC und alles weitere entscheidet die Chipgüte und Custom-PCB.

1,6GHz - lass mal die Kirche im Dorf.

Rabiata
2016-07-13, 17:58:12
Die Frage ist ob die OEM's die Stromverteilung ändern können,wenn nicht sind die OC Karten wieder ganz schnell über den PCI-E Specs.
Das hat doch schon Anddill neulich vorgemacht. Link zum Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574527). Dann sollte es ein Grafikkartenhersteller auch können :wink:.

Von den Custom Designs erwarte ich dasselbe plus eine 8-Pin statt 6-Pin-Buchse für die zusätzliche Stromversorgung. Damit stimmt dann nicht nur die Stromverteilung, sondern auch die Leistungsaufnahme am 8-Pin-Stecker ist offiziell in der Spec (aus unerfindlichen Gründen ist der 8-Pin-Stecker gleich mit 150W spezifiziert, gegenüber 75W für den 6-Pin-Stecker).

Foobar2001
2016-07-13, 18:01:43
https://twitter.com/idSoftware/status/752609704795398144

Moment, ich check mal eben den Vorsprung der 1070 in nem Gameworks-Spiel....
Ich fasse mal zusammen (DOOM):
1. Alpha-Version lief besser auf AMD (gekauft von AMD!!!111)
2. Release-Version lief besser auf NVIDIA (gekauft von NVIDIA, AMD bekommt nur OpenGL 3.4!!!!11111einself)
3. Vulkan-Release (wieder gekauft von AMD!!!!!!111!)

:facepalm:

gedi
2016-07-13, 18:09:05
Siehe RX480-Thread. Du bekommst knapp unter 1,4GHz Boost OC und alles weitere entscheidet die Chipgüte und Custom-PCB.

1,6GHz - lass mal die Kirche im Dorf.

Wenn bei der Referenz mit Kikilala-Mod bereits 1.5G möglich sind, dann könnte ich mir bei PCBs mit entsprechender Spannungsversorgung schon gut 1.6G mit selektierten GPUs vorstellen. Früher gab es doch so etwas schon mal: Ich meine von XFX bei den "Black Editions".

dargo
2016-07-13, 18:09:34
Die 15% Mehrperformance meinte ich eigentlich per Default auf die Referenz-Kärtchen.

Naja... wenn ich mir den Durchschnittstakt hier so anschaue...
https://www.computerbase.de/2016-06/radeon-rx-480-test/5/

würde ich grob sagen 1360-1400Mhz reichen für deine +15% sofern die Bandbreite nicht limitiert bzw. durch OC gut mitskaliert.

Nakai
2016-07-13, 23:56:51
Wow, ein Spiel ist bei dem mal AMD wirklich gut dasteht. Regt euch doch nicht auf.

GCN ist eine Compute-Architektur. Die CUs können Alles parallel Ausführungen, und durch Async wird das Frontend deutlich besser ausgelastet. Außerdem hat Fiji eine Unmenge an Bandbreite und wird allein schon deswegen deutlich besser anstehen. Selbstverständlich steigt mit steigender Ausnutzung auch der Bandbreitenhunger an. Und Fiji hat echt viel Bandbreite. Und Fiji finde ich dabei nicht mal sehr beeindruckend. Ich finde die Lage von Hawaii Pro sehr beeindruckend. Jeglicher R9 390 Besitzer darf sich freuen. Für viele DX12 und Vulkan-Spiele wird man ganz gut gerüstet sein. Wenn man gegen GTX 980Ti Niveau in Zukunft tendiert, war die Karte eine verdammt gute Investition.

Schaffe89
2016-07-14, 00:53:35
...und auf HBM setzen, welches ja bekanntlich deutlich effizienter als GDDR5 arbeitet, so dass man hier einiges an (unnötigem) Verbrauch einspart....

Ja was spart man denn da ein? 20 Watt, vielleicht 25 Watt wenn es hoch kommt.
AMD hätte auf GDDR5x setzen sollen, der wäre eher verfügbar gewesen, oder halt mal eine bessere Color Compression wie Nvidia researchen müssen, dann hätte auch normaler GDDR5 noch gereicht, bzw die low Variante von GDDR5x.

Aber nur im best Case, wie es 'unoptimiert' ausschaut, sieht man gerade hervorragend an dem Vulkan Patch von Doom.
Da sind es nämlich nur noch +10% bei +50% Aufpreis zur RX480.
So viel ist das also nicht, was hier an der Hardware fehlt...[/

Nein, etwas weniger Verbrauch bei 50% mehr Leistung ist der absolute Durchschnitt, Doom ist für AMD der absolute Bestcase und natürlich den nennst du.
Nimms mir nicht übel Stefan, aber du bist hier seit Ewigkeiten dabei und gibst den härtesten Fanboy ab. :redface:

Es ist super dass Doom sogut mit Vulkan auf AMD läuft aber wird es so bleiben? Ein Spiel unter 1000den das mal gut mit AMD performt.
AMD hat das wirklich nötig, da einfach sehr viel Games ( r9 Nano vs GTX 980 ) auf AMD schlecht laufen.

Godmode
2016-07-14, 07:38:59
Haufenweise Spam gelöscht. Wollt ihr alle Karten haben, oder was soll der Mist?

AtTheDriveIn
2016-07-14, 08:14:10
Wow, ein Spiel ist bei dem mal AMD wirklich gut dasteht. Regt euch doch nicht auf.

GCN ist eine Compute-Architektur. Die CUs können Alles parallel Ausführungen, und durch Async wird das Frontend deutlich besser ausgelastet. Außerdem hat Fiji eine Unmenge an Bandbreite und wird allein schon deswegen deutlich besser anstehen. Selbstverständlich steigt mit steigender Ausnutzung auch der Bandbreitenhunger an. Und Fiji hat echt viel Bandbreite. Und Fiji finde ich dabei nicht mal sehr beeindruckend. Ich finde die Lage von Hawaii Pro sehr beeindruckend. Jeglicher R9 390 Besitzer darf sich freuen. Für viele DX12 und Vulkan-Spiele wird man ganz gut gerüstet sein. Wenn man gegen GTX 980Ti Niveau in Zukunft tendiert, war die Karte eine verdammt gute Investition.

Stimme zu. Nur das auch 290(x) Karten dieselben Aussichten haben.

Sunrise
2016-07-14, 08:31:58
SKHynix listet nun auch HBM2 im Databook für Q3/2016:
https://www.skhynix.com/static/filedata/fileDownload.do?seq=330

DENSITY ORG. SPEED PART NUMBER PKG. FEATURE AVAIL.
4GB 256GB/s 2.0Gbps H5VR32ESM4H-20C 5mKGSD 4Hi stack, VDD/VDDQ=1.2V Q3'16
4GB 204GB/s 1.6Gbps H5VR32ESM4H-12C 5mKGSD 4Hi stack, VDD/VDDQ=1.2V Q3'16

dargo
2016-07-14, 08:37:19
Nein, etwas weniger Verbrauch bei 50% mehr Leistung ist der absolute Durchschnitt, Doom ist für AMD der absolute Bestcase und natürlich den nennst du.
Nimms mir nicht übel Stefan, aber du bist hier seit Ewigkeiten dabei und gibst den härtesten Fanboy ab. :redface:

Es ist super dass Doom sogut mit Vulkan auf AMD läuft aber wird es so bleiben? Ein Spiel unter 1000den das mal gut mit AMD performt.
AMD hat das wirklich nötig, da einfach sehr viel Games ( r9 Nano vs GTX 980 ) auf AMD schlecht laufen.
Wann begreift ihr endlich, dass der Durchschnitt aktuell für NV einfach nur deshalb wesentlich höher ausfällt weil noch in den üblichen Benchmarkparkours überwiegend High-Level-API Spiele getestet werden? Wer sich heute eine neue Grafikkarte kauft möchte sie sicherlich für die nächsten 2-3 Jahre behalten. Und die Zukunft bei AAA-Games heißt Low-Level. Doom @Vulkan ist aktuell sicherlich Bestcase. Das wird sich aber in ähnlichen Bereichen auch bei anderen Games bewegen. +/-~15% Spielraum kannst du dabei gerne in Kauf nehmen. Mit AC wirds für die Radeons halt etwas besser aussehen.

Civtam
2016-07-14, 09:06:22
Stimme zu. Nur das auch 290(x) Karten dieselben Aussichten haben.

Da bin ich als 290 Besitzer auch gespannt. Nur die 4 GB dürften ein kleiner Nachteil im Vergleich zur 390 sein.

Nightspider
2016-07-14, 09:12:49
SKHynix listet nun auch HBM2 im Databook für Q3/2016:
https://www.skhynix.com/static/filedata/fileDownload.do?seq=330

DENSITY ORG. SPEED PART NUMBER PKG. FEATURE AVAIL.
4GB 256GB/s 2.0Gbps H5VR32ESM4H-20C 5mKGSD 4Hi stack, VDD/VDDQ=1.2V Q3'16
4GB 204GB/s 1.6Gbps H5VR32ESM4H-12C 5mKGSD 4Hi stack, VDD/VDDQ=1.2V Q3'16

Interessant. Wenn also die 4GB Stacks zu erst verfügbar sind und die 8GB Stacks länger auf sich warten lassen sollten, könnte das bedeuten das Vega definitiv 4 Stacks haben müsste um 16GB zu erreichen.
Zumindest halte ich es für unwahrscheinlich das die HighEnd Karten auch nur 8GB erhalten, wie die 250 Euro Karten.

Mit 4 Stacks à 204GB/s würde man auf 816GB/s kommen.

Wäre auch interessant zu wissen ob die 1,6Gbps Chips sparsamer sind. Dürfte nicht viel ausmachen wenn beide Chips mit 1,2V betrieben werden.
Wäre natürlich auch möglich das der Vollausbau die 2Gbps Chips bekommt und der Salvage Part die 1,6Gbps Chips.

Dino-Fossil
2016-07-14, 09:33:41
Wann begreift ihr endlich, dass der Durchschnitt aktuell für NV einfach nur deshalb wesentlich höher ausfällt weil noch in den üblichen Benchmarkparkours überwiegend High-Level-API Spiele getestet werden? Wer sich heute eine neue Grafikkarte kauft möchte sie sicherlich für die nächsten 2-3 Jahre behalten. Und die Zukunft bei AAA-Games heißt Low-Level. Doom @Vulkan ist aktuell sicherlich Bestcase. Das wird sich aber in ähnlichen Bereichen auch bei anderen Games bewegen. +/-~15% Spielraum kannst du dabei gerne in Kauf nehmen. Mit AC wirds für die Radeons halt etwas besser aussehen.

Mag sein, aber zeigt sich doch, dass aktuelle nVidia-Karten Ihre Leistung eben auch mit high-level APIs relativ gut auf die Straße bringen, so dass low-level nur noch wenig Zugewinn bietet.
Sicherlich werden in Zukunft verstärkt Spiele auf low-level APIs setzen, aber deswegen sterben high-level nicht aus.

Woher kommen denn die Schwierigkeiten von AMD ihre Leistungsreserven auf die Straße zu bringen? Ist die Architektur für DX11/OGL einfach ungeeignet oder sind es doch die Treiber, die einfach immer noch schlecht optimiert sind?

AMD müsste daran auch heute noch arbeiten - low level ist toll, aber kein Allheilmittel.
Zumal es mich nicht wundern würde, wenn das Spiel eines nVidia-Affinen Developers, der eher für nVidia optimiert, auch mit DX12/Vulkan auf AMD-Hardware schlecht laufen wird.

dargo
2016-07-14, 09:41:44
Mag sein, aber zeigt sich doch, dass aktuelle nVidia-Karten Ihre Leistung eben auch mit high-level APIs relativ gut auf die Straße bringen, so dass low-level nur noch wenig Zugewinn bietet.
Sicherlich werden in Zukunft verstärkt Spiele auf low-level APIs setzen, aber deswegen sterben high-level nicht aus.

Ich spreche von AAA-Titeln, keinen Indiespielen. Bei AAA tippe ich darauf, dass es spätestens Ende 2017 keine Spiele mehr ohne Low-Level gibt. Im schlimmsten Fall kannst du die an einer Hand abzählen.


Woher kommen denn die Schwierigkeiten von AMD ihre Leistungsreserven auf die Straße zu bringen? Ist die Architektur für DX11/OGL einfach ungeeignet oder sind es doch die Treiber, die einfach immer noch schlecht optimiert sind?

Im CPU-Limit Treiber-/ + API-Overhead. Im GPU-Limit fehlende Features wie zb. AC. Bei etwas älteren Spielen war das Problem auch die alten Konsolen bzw. Spieleengines. In neueren Engines schneiden Radeons mittlerweile auch etwas besser @DX11 ab. Da machen sich langsam die GCNs in den aktuellen Konsolen bemerkbar.

PS: ich betrachte dabei besonders Hawaii/Grenada. Fiji ist mir da zu "sonderbar".

dargo
2016-07-14, 09:46:11
Interessant. Wenn also die 4GB Stacks zu erst verfügbar sind und die 8GB Stacks länger auf sich warten lassen sollten, könnte das bedeuten das Vega definitiv 4 Stacks haben müsste um 16GB zu erreichen.
Zumindest halte ich es für unwahrscheinlich das die HighEnd Karten auch nur 8GB erhalten, wie die 250 Euro Karten.

Mit 4 Stacks à 204GB/s würde man auf 816GB/s kommen.

Ich gehe bei dem kleinen Vega eher von zwei Stacks und insgesamt 512GB/s und 8GB aus. 16GB wären imho dort etwas Overkill, besonders beim Preis.

Dino-Fossil
2016-07-14, 09:46:45
Ich spreche von AAA-Titeln, keinen Indiespielen. Bei AAA tippe ich darauf, dass es spätestens Ende 2017 keine Spiele mehr ohne Low-Level gibt. Im schlimmsten Fall kannst du die an einer Hand abzählen.

Ich denke da hängt auch viel davon ab, ob eher DX12 oder Vulkan verwendet wird.
Da DX12 zwingend Win10 benötigt, Win7 aber immer noch sehr verbreitet ist, werden wohl auch in den nächsten Jahren noch die meisten Spiele einen DX11-Pfad anbieten, der auch gut genutzt wird.
Alternative wäre Vulkan, aber nur weil es logisch erscheint und gewisse Vorteile bietet muss es ja noch lange nicht gemacht werden...

dargo
2016-07-14, 09:53:23
Ich denke da hängt auch viel davon ab, ob eher DX12 oder Vulkan verwendet wird.

Für den Gamer völlig egal, beides ist Low-Level. Und wenn die Windowshasser kein Windows 10 möchten dann müssen sie halt mit dem DX11 Renderer leben. In der Übergangszeit wird es immer DX11/OpenGL + DX12 oder Vulkan geben. UWP mal außen vor.

Nightspider
2016-07-14, 10:13:37
Ich gehe bei dem kleinen Vega eher von zwei Stacks und insgesamt 512GB/s und 8GB aus. 16GB wären imho dort etwas Overkill, besonders beim Preis.

Wir müssen erstmal abwarten ob überhaupt zwei Vega Chips kommen.

Wie viel CUs hätte deiner Meinung nach der Kleine? 4096 wie Fiji? Dann wären 512GB/s wieder hart am Limit...

Klar würden auch noch 8GB gehen - ging bei Fury auch aber für Enthusiasten wäre es ein bisschen wenig. Falls aber wirklich zwei Chips kommen und nur der größere Chip 12 oder 16GB bekommt dann wäre das natürlich in Ordnung.

dargo
2016-07-14, 10:18:37
Wie viel CUs hätte deiner Meinung nach der Kleine? 4096 wie Fiji?

Maximal... ja.


Dann wären 512GB/s wieder hart am Limit...

Nicht unbedingt wenn man weiter an der Kompression feilt. Vega ist kein aufgeblasener P10. Zu den Caches ist auch nichts bekannt.


Klar würden auch noch 8GB gehen - ging bei Fury auch aber für Enthusiasten wäre es ein bisschen wenig.
Wenn sich der kleine Vega etwas über der 1080 positioniert sehe ich keine Probleme mit 8GB.

Nightspider
2016-07-14, 10:23:23
Naja die Caches noch weiter aufzublasen ist dann auch irgendwo schlecht weil Cache eben viel Platz frisst und diese ja erst mit Polaris in 14nm extrem aufgestockt wurden.
Das die Delta Kompression weiter verbessert wurde kann gut.
Nur würden 816-1024GB/s eben das Speicherbandbreitenlimit komplett eliminieren, brute force mäßig. Das wäre schon geil. ^^

Mal schauen...zu hoch sollte man seine Hoffnungen ja nie bei AMD stapeln. :D

N0Thing
2016-07-14, 10:25:42
Wir müssen erstmal abwarten ob überhaupt zwei Vega Chips kommen.

Wie viel CUs hätte deiner Meinung nach der Kleine? 4096 wie Fiji? Dann wären 512GB/s wieder hart am Limit...

Klar würden auch noch 8GB gehen - ging bei Fury auch aber für Enthusiasten wäre es ein bisschen wenig. Falls aber wirklich zwei Chips kommen und nur der größere Chip 12 oder 16GB bekommt dann wäre das natürlich in Ordnung.

Wenn man mit 4096 Einheiten auf dem Niveau der GTX 1080 landet, sind "nur" 8GB Speicher ja kein Nachteil, es gäbe einen Gleichstand. Auch mit Blick auf die Kosten wären 8GB nicht unwahrscheinlich, denn der GP104 kommt mit weniger Transistoren und kleinerem DIE daher, von daher muss AMD darauf achten, dass Vega in der Produktion nicht zu teuer wird.

dildo4u
2016-07-14, 10:36:41
Ist vega dann in Prinzip nur Fiji mit 8GB?Die Pro Mhz Leistung ist mit Polaris ja nicht gestiegen wobei ich denke das eine Fiji mit 1.25Ghz,ein ziehmliches Monster wäre so lange man eine Low Level API nutzt.(Siehe Doom)
Die Karte hat ja dann über 10 Tflops.

Nightspider
2016-07-14, 10:37:49
Das ist jetzt nur meine Meinung und Hoffnung aber ich schätze Vega schon etwas zukunftssicherer ein und gerade bei DX12 und Vulkan mit Async Compute wird Vega in manchen Games sicherlich ein gutes Stück vor der GTX1080 liegen, selbst mit "nur" 4096 CUs.
Man muss sich nur mal anschauen wir gut die RX480 in DX12 und Vulkan performt.

Klar ist Doom ein Ausnahmebeispiel und das werden wir keinesfalls in allen Spielen so erleben aber dort ist erreicht die RX480 immerhin schon 90% der Leistung einer GTX1070 und schätzungsweise 70% der Leistung der 1080.

Mit neuer Architektur und 4096 CUs sollte ein Vega schon mal 10-30% schneller sein in Games mit LL API. In Zukunft dank DX12 und Vulkan vllt sogar noch mehr.

N0Thing
2016-07-14, 10:39:52
Ist vega dann in Prinzip nur Fiji mit 8GB?Die Pro Mhz Leistung ist mit Polaris ja nicht gestiegen wobei ich denke das eine Fiji mit 1.25Ghz,ein ziehmliches Monster wäre so lange man eine Low Level API nutzt.(Siehe Doom)
Die Karte hat ja dann über 10 Tflops.

Weiß keiner, aber die Spekulationen gehen im Fall von zwei Vega Chips dahin, dass der keine die gleiche Anzahl Shader wie Fiji hat und der große so viel wie technisch möglich sind inklusive DP, also wohl maximal 6000 Shader.

Ob AMD für Vega noch etwas an der Architektur gemacht haben, weiß man nicht, nach den nach Außen hin recht kleinen Schritten von Polaris, würde ich da nicht viel erhoffen.

dildo4u
2016-07-14, 10:41:21
Das ist jetzt nur meine Meinung und Hoffnung aber ich schätze Vega schon etwas zukunftssicherer ein und gerade bei DX12 und Vulkan mit Async Compute wird Vega in manchen Games sicherlich ein gutes Stück vor der GTX1080 liegen, selbst mit "nur" 4096 CUs.
Man muss sich nur mal anschauen wir gut die RX480 in DX12 und Vulkan performt.

Klar ist Doom ein Ausnahmebeispiel und das werden wir keinesfalls in allen Spielen so erleben aber dort ist erreicht die RX480 immerhin schon 90% der Leistung einer GTX1070 und schätzungsweise 70% der Leistung der 1080.

Mit neuer Architektur und 4096 CUs sollte ein Vega schon mal 10-30% schneller sein in Games mit LL API. In Zukunft dank DX12 und Vulkan vllt sogar noch mehr.


Doom skaliert noch überhaupt nich auf Pascal kannste nicht als Maßstab nehmen.Normal ist eine 1070 56% vor der 970 in Doom nur 45%.Und das ist ohne Asynchron Compute was noch oben drauf kommt.

dargo
2016-07-14, 10:45:16
Ist vega dann in Prinzip nur Fiji mit 8GB?
Nein. Nur weil die Shaderzahl eventuell identisch ist ist es noch lange kein Fijishrink mit doppelten Speicher.

dildo4u
2016-07-14, 10:50:52
Sicher Tesselation wird gefixt sein ich meine aber die allgemeine Leistung pro CU,es würde mich irgendwie Wundern wenn AMD die Kohle hätte die Architektur jetzt noch mal von Polaris zu Vega zu ändern.

Nightspider
2016-07-14, 10:55:05
Natürlich wird die Architektur anders sein. Sonst würde das Ding Polaris heißen.

Auch wenn der Unterschied nur so groß ist wie von Hawaii zu Tonga, es ist eine andere Architektur mit Optimierungen. Sonst würde die Effizienz ja nicht steigen.

dildo4u
2016-07-14, 10:56:11
Sind Tonga und Fiji nicht auch gleich nur das Fiji HBM hat?

Grabhopser
2016-07-14, 11:20:19
Nein, Fijis Fontend ist chronisch unterdimensioniert.
Vom High-Level View ist Fiji ein Hawai in den man zu viele CUs gequetscht hat.
Deshalb kommen von 45% mehr Rohleistung in kleinen Auflösungen auch nur 50% an.

Ich verweise hier gerne auf anandtech.
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/4

N0Thing
2016-07-14, 11:25:34
Sind Tonga und Fiji nicht auch gleich nur das Fiji HBM hat?

Liest sich so in den Reviews von damals. Fiji ist quasi wie Tonga, gleiches Front-End, aber verdoppeltes Back-End und HBM. Es wird ansonsten immer davon geschrieben, dass Fiji die gleichen Optimierungen enthalten würde wie Tonga, von weiteren Verbesserungen ist nichts zu lesen.

Locuza
2016-07-14, 11:34:07
Ist vega dann in Prinzip nur Fiji mit 8GB?Die Pro Mhz Leistung ist mit Polaris ja nicht gestiegen wobei ich denke das eine Fiji mit 1.25Ghz,ein ziehmliches Monster wäre so lange man eine Low Level API nutzt.[...]
Die Leistung pro Takt ist definitiv gestiegen.
Das Instruction-Set von Gen 4 ist allerdings das gleiche wie bei Gen 3 und AMD bezeichnet beide Graphics-IPs als Version 8.
Vega wird als Version 9 bezeichnet, also immerhin neue Instruktionen kommen hinzu.

Felixxz2
2016-07-14, 12:03:55
Die Pro Mhz Leistung wird sicher um 10-15% gegenüber Fiji steigen. Polaris hat +6% gemacht gegenüber Hawaii, jedoch bei recht wenig BW und allgemein auf Kosten reduziert.

Rabiata
2016-07-14, 12:17:12
Interessant. Wenn also die 4GB Stacks zu erst verfügbar sind und die 8GB Stacks länger auf sich warten lassen sollten, könnte das bedeuten das Vega definitiv 4 Stacks haben müsste um 16GB zu erreichen.
Zumindest halte ich es für unwahrscheinlich das die HighEnd Karten auch nur 8GB erhalten, wie die 250 Euro Karten.

Mit 4 Stacks à 204GB/s würde man auf 816GB/s kommen.

Wäre auch interessant zu wissen ob die 1,6Gbps Chips sparsamer sind. Dürfte nicht viel ausmachen wenn beide Chips mit 1,2V betrieben werden.
Wäre natürlich auch möglich das der Vollausbau die 2Gbps Chips bekommt und der Salvage Part die 1,6Gbps Chips.
Ich denke, daß Vega 10 eine GTX 1080-Konkurrenz mit eher nur zwei Stacks und insgesamt 8 GB wird. Also High End, aber noch nicht Enthusiast. Das paßt dann in Speicherdurchsatz und Speichergröße zusammen.

Wenn dann später noch ein größerer Chip kommt (Vega 11?), kann man immer noch mit vier Stacks in die Vollen gehen :smile:

Käsetoast
2016-07-14, 12:21:50
Natürlich wird die Architektur anders sein. Sonst würde das Ding Polaris heißen.
Wieso das? Ob man sich nun Cape Verde, Pitcairn oder Tahiti gekauft hat - drin war von der Architektur her dasselbe. Anderer Codename hat nichts mit anderer Architektur zu tun. Ich fände es weiterhin auch extrem merkwürdig, wenn man nur wenige Monate nach Polaris mit Vega deutliche Architekturverbesserungen bringen würde...

Im gegebenen Fall wirst du dennoch wahrscheinlich nicht ganz Unrecht haben, weil Vega ja wohl mit HBM2 umgehen können muss, was bei Polaris sicherlich nicht vorgesehen ist, weswegen da an der Architektur schon was anders ist - allerdings erwarte ich da keine nennenswerten Verbesserungen an der Grundarchitektur - falls doch muss man sich an den Kopf fassen und fragen, wieso AMD mit Polaris dann jetzt was auf den Markt geworfen hat, dessen Basis in Nullkommanix wieder zum alten Eisen gehört. Klar würde man AMD für Vega was Besseres wünschen, aber ich glaube nicht, dass die die Ressourcen haben zwei grundverschiedene Architekturstände parallel zueinander bzw. mit nahe beeinander liegendem Releasezeitraum zu entwickeln...

Agent117
2016-07-14, 12:31:05
Die Pro Mhz Leistung wird sicher um 10-15% gegenüber Fiji steigen. Polaris hat +6% gemacht gegenüber Hawaii, jedoch bei recht wenig BW und allgemein auf Kosten reduziert.

Wie kommst du auf die 6%? Meinst du das hier? https://www.computerbase.de/2016-06/radeon-rx-480-test/13/#diagramm-performancerating-polaris-architektur

da wirkt die Farbkompression, die Hawaii nicht hat.

Gleicher Test Tonga vs. Tahiti:

https://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/11/

Tonga ist sogar 11% schneller, auch primär wegen der Farbkompression.
Polaris 10 hat eine schlechtere IPC als Hawaii. Schau dir mal an wie die RX 480 in diversen Benachmarks performt und rechne die Rechenleistung dagegen, dann kommts du auch etwa bei 5% niedrigerer IPC als Hawaii raus.
AMD hat Polaris wohl doch ein Stück weit verhunzt.

Akkarin
2016-07-14, 12:31:11
Bei polaris ist die leistung/flops im durchschnitt nicht gestiegen. Wie AMD jetzt mit Vega plötzlich 10-15% auf Fiji bekommen soll ist mir nicht klar, trotz schlechter skalierung von Fury.

edit: gerade nochmal nachgesehen, Fiji skaliert doch so schlecht dass biosherige designs (P10, Tonga, Hawaii) gut 15-20% trüber liegen per flop. Das ist doch erstaunlich.

Effe
2016-07-14, 12:36:33
Polaris 10 hat eine schlechtere IPC als Hawaii. Schau dir mal an wie die RX 480 in diversen Benachmarks performt und rechne die Rechenleistung dagegen, dann kommts du auch etwa bei 5% niedrigerer IPC als Hawaii raus.
AMD hat Polaris wohl doch ein Stück weit verhunzt.
Polaris hat weniger Shader als Hawaii bei vergleichbarer Leistung. Das kann schon mal nicht schlechter sein.

Hübie
2016-07-14, 12:36:44
Natürlich wird die Architektur anders sein. Sonst würde das Ding Polaris heißen.

Quatsch. Das sind Namen wie GM200 und GM204. Hawaii und Grenada ist der gleiche Unterbau, dennoch sind die Namen anders. Daran erkennt man so etwas doch gar nicht. :rolleyes:

dargo
2016-07-14, 12:46:40
Polaris 10 hat eine schlechtere IPC als Hawaii. Schau dir mal an wie die RX 480 in diversen Benachmarks performt und rechne die Rechenleistung dagegen, dann kommts du auch etwa bei 5% niedrigerer IPC als Hawaii raus.
AMD hat Polaris wohl doch ein Stück weit verhunzt.
Wie lange hatte AMD Zeit den Treiber für Hawaii zu optimieren? Und wie lange ist Polaris auf dem Markt? Mit solchen Schlussfolgerungen wäre ich noch etwas vorsichtig.

Polaris hat weniger Shader als Hawaii bei vergleichbarer Leistung. Das kann schon mal nicht schlechter sein.
Den Taktunterschied nicht vergessen.

Locuza
2016-07-14, 12:49:45
Tonga ist sogar 11% schneller, auch primär wegen der Farbkompression.
Polaris 10 hat eine schlechtere IPC als Hawaii. Schau dir mal an wie die RX 480 in diversen Benachmarks performt und rechne die Rechenleistung dagegen, dann kommts du auch etwa bei 5% niedrigerer IPC als Hawaii raus.
AMD hat Polaris wohl doch ein Stück weit verhunzt.
Du kannst bei Polaris aber nicht einfach behaupten, dass jede Verbesserung einzig und alleine durch die DCC zustande kommt.
Genauso wie es krude ist unterschiedlich konfigurierte GPUs was das Backend, die CU-Anzahl etc. angeht gegeneinander auszurechnen, um damit dann präzise Aussagen bezüglich der CU-Performance machen zu wollen.
Polaris hat die Instruction-Buffer von 12 DWORDs auf 16 erhöht und unterstützt jetzt pre-fetching.
Das wird wohl kaum in nichts resultieren oder gar die Performance verringern.

Nightspider
2016-07-14, 12:51:08
Gut der Name sagt bei AMD wirklich nicht viel aus, da habt ihr Recht.
Paar Änderungen werden aber mit Sicherheit drin sein, sonst hätte AMD nicht neulich so wegen Vega gefeiert.
Zumal der Graph eben darauf hindeutet das Vega eine bis zu 40% bessere Effizienz hat.
Unter der Haube wird der Chip sicherlich auch etwas an HBM Speicher angepasst sein, mal vom PHY abgesehen.

Möglich ist genauso das Polaris eben nur ein Zwischenschritt auf dem Weg zu Vega ist, man Polaris aber eher auf den Markt bringen wollte. Ursprünglich hat man mit Polaris sicherlich sogar Q1 und Q2 angepeilt, musste wegen der 14nm Fertigung aber bis Juni warten.

AMD würde eben auch Probleme mit dem Stromverbrauch kriegen wenn sie unter der Haube die Effizienz nicht weiter verbessern würden.

Pirx
2016-07-14, 12:53:14
Quatsch. Das sind Namen wie GM200 und GM204. Hawaii und Grenada ist der gleiche Unterbau, dennoch sind die Namen anders. Daran erkennt man so etwas doch gar nicht. :rolleyes:
Es wird sicher weitere Verbesserungen in der Art geben: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10980597&postcount=1966

Was soll also dieser neuerliche Sturm im Wasserglas?

Felixxz2
2016-07-14, 12:54:36
Wie kommst du auf die 6%? Meinst du das hier? https://www.computerbase.de/2016-06/radeon-rx-480-test/13/#diagramm-performancerating-polaris-architektur

da wirkt die Farbkompression, die Hawaii nicht hat.

Gleicher Test Tonga vs. Tahiti:

https://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/11/

Tonga ist sogar 11% schneller, auch primär wegen der Farbkompression.
Polaris 10 hat eine schlechtere IPC als Hawaii. Schau dir mal an wie die RX 480 in diversen Benachmarks performt und rechne die Rechenleistung dagegen, dann kommts du auch etwa bei 5% niedrigerer IPC als Hawaii raus.
AMD hat Polaris wohl doch ein Stück weit verhunzt.

Ja das meine ich. Niedrigere IPC ist natürlich Unsinn, bzw. muss man präzisieren "bei hleicher bw und shaderanzahl". Das Hawaii mit mehr Shadern und viel mehr BW natürlich teilweise eine höhere IPC über den Gesamtchip hat ist klar. Wenn du P10 gegen Tonga oder Tahiti bei gleicher BW vergleichts, ist P10 natürlich schneller.

10-15% auf Fiji sind absolut machbar, wenn man sich anschaut wie wenig Fiji auf die Straße bringt. Das sind ja keine Riesensprünge.

Treiber sowieso.

StefanV
2016-07-14, 12:58:03
Wann begreift ihr endlich, dass der Durchschnitt aktuell für NV einfach nur deshalb wesentlich höher ausfällt weil noch in den üblichen Benchmarkparkours überwiegend High-Level-API Spiele getestet werden? Wer sich heute eine neue Grafikkarte kauft möchte sie sicherlich für die nächsten 2-3 Jahre behalten. Und die Zukunft bei AAA-Games heißt Low-Level. Doom @Vulkan ist aktuell sicherlich Bestcase. Das wird sich aber in ähnlichen Bereichen auch bei anderen Games bewegen. +/-~15% Spielraum kannst du dabei gerne in Kauf nehmen. Mit AC wirds für die Radeons halt etwas besser aussehen.
Die Parallelen zu nV30 und R300 sind, insbesondere was die Argumentation der nVidia Fans betrifft, nicht von der Hand zu weisen...

Damals hat man auch nicht glauben wollen, dass die FXen einfach nur Müll sind und nur für alte non Shader Spiele taugen und dass die (damals) ATi Karten deutlich potenter waren, da einfach wesentlich breiter...
Und auch damals hat nVidia sehr stark optimiert, was auch Futuremark zu einem Statement veranlasst hat...

Warum glaubt ihr, dass nvidia es in diesen Tagen anders hält?!
Nur deren Hardware ist halt von vorgestern und basiert im Kern immer noch auf den ollen G80 - in der Zeit hat AMD schon mal eine ganz neue Architektur vorgestellt, die wesentlich besser war, als was man vorher hatte, nV nicht...

tm0975
2016-07-14, 13:03:42
sehr ihr es als gesichert an, dass die rx 490 eine dual-gpu-karte wird?

StefanV
2016-07-14, 13:04:07
Ob AMD für Vega noch etwas an der Architektur gemacht haben, weiß man nicht, nach den nach Außen hin recht kleinen Schritten von Polaris, würde ich da nicht viel erhoffen.
AMD hat doch angekündigt, für VEGA einiges an der Architektur zu basteln.

Polaris sollte/musste für den Treiber gleich ausschauen wie die Vorgänger, wahrscheinlich auch in Hinblick auf die Konsolen.
Das muss mit VEGA nicht der Fall sein. Da gibt es durchaus noch einiges, was man ändern kann.

Und schau dir doch auch mal an, wie krass Fiji unter Low Level APIs performt..
Die ist doch bei Doom unter 1440p etwa 26% vor der GTX 1070...

Wenn Vega jetzt auch noch 'ne etwas bessere Speicherkomprimierung bekommt, sollte das Teil durchaus die GTX 1080 schlagen...

StefanV
2016-07-14, 13:07:58
sehr ihr es als gesichert an, dass die rx 490 eine dual-gpu-karte wird?
Nein, das sind nur spekulationen. Über RX490 und was das sein könnte, ist von offizieller Seite her nichts bekannt...

Akkarin
2016-07-14, 13:10:14
Polaris hat weniger Shader als Hawaii bei vergleichbarer Leistung. Das kann schon mal nicht schlechter sein.

Doch. Ich hab mal n spreadsheet mit daten aus Leonidas analysen gemacht, und Polaris ist leicht langsamer bei gleicher shaderleistung. Die Unterschiede liegen aber eher im bereich der Messungenauigkeit.

Complicated
2016-07-14, 13:18:48
Quatsch. Das sind Namen wie GM200 und GM204. Hawaii und Grenada ist der gleiche Unterbau, dennoch sind die Namen anders. Daran erkennt man so etwas doch gar nicht. :rolleyes:

Hier steht eher P10 und P11 in diesem Verhältnis. Polaris zu Vega würde ich eher wie GM10x zu GM20x sehen wenn schon nicht wie Pascal zu Volta. Genau diese Hawaii/Grenada Kuddelmuddel will AMD ja abschaffen mit den neuen Benennungen.

Und nur weil die Architekturen kurz aufeinander folgen müssen sie ja nicht ähnlich sein. Die Entwicklung einer neuen Architektur dauert auch Jahre. Und wenn etwas 6 Monate früher fertig wird oder die vorherige sich 6 Monate verzögert dann kann man als Nvidia vielleicht einen gesunden Produktzyklus selber bestimmen, doch AMD ist nicht in dieser Lage. Es läge Nahe aus Kostengründen die Massenmärkte Polaris in grossen Stückzahlen bedienen zu lassen und dadurch etwas später zu Releasen, doch dafür günstig und mit hoher Verfügbarkeit. Und es läge Nahe mit den neuen Design im Highend ganz oben mit Vega einen möglichst ausgereiften Prozess zu nutzen aus Kostengründen und die Zeit für zusätzliche Features zu nutzen.

Agent117
2016-07-14, 13:28:50
Du kannst bei Polaris aber nicht einfach behaupten, dass jede Verbesserung einzig und alleine durch die DCC zustande kommt.
Genauso wie es krude ist unterschiedlich konfigurierte GPUs was das Backend, die CU-Anzahl etc. angeht gegeneinander auszurechnen, um damit dann präzise Aussagen bezüglich der CU-Performance machen zu wollen.
Polaris hat die Instruction-Buffer von 12 DWORDs auf 16 erhöht und unterstützt jetzt pre-fetching.
Das wird wohl kaum in nichts resultieren oder gar die Performance verringern.

Präzise Aussagen wollte ich garnicht machen weil da viel zu viel mit rein spielt. Aber wenn man am Vergleich Tonga vs. Tahiti sieht dass Tahiti bei gleicher Bandbreite ohne DCC 11% langsamer ist und dann mit ausreichend Bandbreite nur noch 1% langsamer und sich dann Polaris vs. Hawaii anschaut, kann man doch schon sagen dass ein Großteil der 6% Verbesserungen auf DCC zurückzuführen ist. Hawaii @ 256Gb/s ist einfach total unterdimensioniert. Das sind immerhin 33% weniger Bandbreite. Man müsste mal wissen was DCC auf Polaris wirklich im Mittel bringt und dann die Speichertakte beider Chips je nach Spiel und Vorteil von DCC anpassen, das ist aber sehr aufwendig und ohne größere Ungenauigkeiten auch nicht machbar. Dass Polaris nun mehr Instructions durchschleusen kann ist ja richtig und die Tesselation wurde ja auch nicht unerheblich verbessert aber ob ersteres in Spielen was bringt kann man leider nicht nachvollziehen. Dass der nun 2Mb große Cache den sie ja auch deutlich verbessert haben wollen viel gebracht hat sehe ich auch nicht. Vielleicht hat man sich wirklich durch die Verbesserungen einen neuen Flaschenhals eingefangen oder braucht in Spielen noch Treiberarbeit.

Ja das meine ich. Niedrigere IPC ist natürlich Unsinn, bzw. muss man präzisieren "bei hleicher bw und shaderanzahl". Das Hawaii mit mehr Shadern und viel mehr BW natürlich teilweise eine höhere IPC über den Gesamtchip hat ist klar. Wenn du P10 gegen Tonga oder Tahiti bei gleicher BW vergleichts, ist P10 natürlich schneller.


Es ging aber um einen Vergleich Hawaii vs. Polaris bei gleicher Bandbreite (ok doppelt so viele Rops) und gleicher Rechenleistung. Die unterschiedliche Performance kommt auch durch die Polaris Veränderungen, die je nach Spiel mal mehr mal weniger bringen. Soweit ist das klar. Nur tut halt die Farbkompression Polaris im Mittel um geschätzte 8-10% vor Hawaii katapultieren. Gibt darüber genug Tests, neben Tahiti vs. Tonga wurde auch mal Carrizo vs. Kaveri getestet, da brachte DCC im Mittel 10%, das deckt sich also mit den Vergleich Tonga Tahiti.

Ich behaupte einfach mal Polaris@ 2048SP und 970Mhz ist bei gleicher Bandbreite etwa schnell wie Tonga@ 2048SP und 970Mhz und nicht natürlich schneller . Man muss dabei auch noch bedenken dass DCC bei Polaris ausgehend von Tonga nochmal verbessert wurde.

iuno
2016-07-14, 13:32:38
Sind Tonga und Fiji nicht auch gleich nur das Fiji HBM hat?
Nicht zu 100%, aber die Aenderungen sind eher unbedeutend hier.

btw, VEGA 11 taucht jetzt auch im OpenCL Treiber auf, das war vor kurzem noch nicht so

SI: TAHITI
CI/GFX7: MILOS, KRYPTOS, HAWAII, NEVIS, PENNAR, BONAIRE, KABINI
VI/GFX8: ICELAND, TONGA, CARRIZO, BERMUDA, RACERX, FIJI
GFX81: AMUR, STONEY, ELLESMERE, DERECHO
GFX9: GREENLAND, RAVEN1X, VEGA10, VEGA11

Zudem scheint Raven Ridge Vega-IP zu sein

Interessant. Wenn also die 4GB Stacks zu erst verfügbar sind und die 8GB Stacks länger auf sich warten lassen sollten, könnte das bedeuten das Vega definitiv 4 Stacks haben müsste um 16GB zu erreichen.
Zumindest halte ich es für unwahrscheinlich das die HighEnd Karten auch nur 8GB erhalten, wie die 250 Euro Karten.
War doch klar, dass 8Hi Stacks erst spaeter kommen, das wurde ja auch schon vor Ewigkeiten von Hynix so angekuendigt.



Ich denke, daß Vega 10 eine GTX 1080-Konkurrenz mit eher nur zwei Stacks und insgesamt 8 GB wird. Also High End, aber noch nicht Enthusiast. Das paßt dann in Speicherdurchsatz und Speichergröße zusammen.

Wenn dann später noch ein größerer Chip kommt (Vega 11?), kann man immer noch mit vier Stacks in die Vollen gehen :smile:
Ja, davon gehe ich auch aus, sofern Vega10 wirklich der kleine Chip ist und spaeter noch was groesseres nachkommt.
Mit der Info oben sehe ich das doch auch als ziemlich sicher an. Zwischendurch hatte ich ja Zweifel ;p
Theoretisch denkbar waere aber auch ein Chip mit 4 HBM Interfaces, der mal mit 2 und mal mit 4 Stacks verkauft wird, auf unterschiedlich grossen Interposern.

Agent117
2016-07-14, 13:35:02
Interessant! Und es ist auch von Vega 11 die Rede. Dann sind 2 Vega Chips ja sogut wie bestätigt.
Auch interessant dass Greenland und Vega getrennt genannt werden. Da ist noch vieles denkbar, vielleicht ist Greenland doch ein eingener Chip für HTCP und AMDs Server Geschäft?

HOT
2016-07-14, 13:44:09
Nicht zu 100%, aber die Aenderungen sind eher unbedeutend hier.

btw, VEGA 11 taucht jetzt auch im OpenCL Treiber auf, das war vor kurzem noch nicht so

SI: TAHITI
CI/GFX7: MILOS, KRYPTOS, HAWAII, NEVIS, PENNAR, BONAIRE, KABINI
VI/GFX8: ICELAND, TONGA, CARRIZO, BERMUDA, RACERX, FIJI
GFX81: AMUR, STONEY, ELLESMERE, DERECHO
GFX9: GREENLAND, RAVEN1X, VEGA10, VEGA11

Zudem scheint Raven Ridge Vega-IP zu sein

[...]
Interessant, dass Vega10 und Greenland beide aufgezählt werden, ich hatte immer den Verdacht, dass es sich hier um zwei verschiedene Chips handeln könnte. Greenland könnte dem GP100 gar nicht so unähnlich sein. Dass RavenRidge Vega werden würde war eigentlich klar, da er ja erst später in 2017 erscheinen soll. Selbiges dürfte für die Scorpio gelten.

Locuza
2016-07-14, 14:05:39
[...]
btw, VEGA 11 taucht jetzt auch im OpenCL Treiber auf, das war vor kurzem noch nicht so

SI: TAHITI
CI/GFX7: MILOS, KRYPTOS, HAWAII, NEVIS, PENNAR, BONAIRE, KABINI
VI/GFX8: ICELAND, TONGA, CARRIZO, BERMUDA, RACERX, FIJI
GFX81: AMUR, STONEY, ELLESMERE, DERECHO
GFX9: GREENLAND, RAVEN1X, VEGA10, VEGA11

Zudem scheint Raven Ridge Vega-IP zu sein
[...]

Puuh, sehr schön zu sehen das Raven-Ridge höchstwahrscheinlich mit der Vega-IP erscheint und nicht mit Polaris.
Interessant das es Ellesmere gibt, aber keine Polaris-Namen, dagegen aber Greenland und Vega10/11.
Ich kann mir aber kaum vorstellen, dass Greenland und Vega10 unterschiedliche GPUs sind oder hat AMD etwa sich den Luxus erlaubt eine HPC- und Gaming-Ausführung zu entwickeln?
Daneben kommt noch die APU und ein paar Zen-dies, ich kann mir kaum vorstellen das AMD für all die Dinge ausreichend Ressourcen hat.
Interessantes Thema, bis es sich auflöst.

Nakai
2016-07-14, 14:06:58
Mit Greenland wird die GPU der HPC-APU gemeint sein. Das ist keine Standalone GPU, wie Vega10/11. Selbstverständlich hat das Treiberkonsequenzen, so wie jegliche GPU einer APU in den Treibern auftaucht.

Im Grunde ist Vega10 = Greenland.

Ahja, warum seit ihr euch so sicher, dass Vega11 ein Chip oberhalb von von Vega10 ist?

y33H@
2016-07-14, 14:10:10
Intern redet AMD eh von Ellesmere, selbst die Renderings der RX 480 sind so benannt ^^

"9310_ellesmere_cam1_02_0010_4K"

Hübie
2016-07-14, 14:12:15
Hier steht eher P10 und P11 in diesem Verhältnis. Polaris zu Vega würde ich eher wie GM10x zu GM20x sehen wenn schon nicht wie Pascal zu Volta. Genau diese Hawaii/Grenada Kuddelmuddel will AMD ja abschaffen mit den neuen Benennungen.

Und nur weil die Architekturen kurz aufeinander folgen müssen sie ja nicht ähnlich sein. Die Entwicklung einer neuen Architektur dauert auch Jahre. Und wenn etwas 6 Monate früher fertig wird oder die vorherige sich 6 Monate verzögert dann kann man als Nvidia vielleicht einen gesunden Produktzyklus selber bestimmen, doch AMD ist nicht in dieser Lage. Es läge Nahe aus Kostengründen die Massenmärkte Polaris in grossen Stückzahlen bedienen zu lassen und dadurch etwas später zu Releasen, doch dafür günstig und mit hoher Verfügbarkeit. Und es lege Nahe mit den neuen Design im Highend ganz oben mit Vega einen möglichst ausgereiften Prozess zu nutzen aus Kostengründen und die Zeit für zusätzliche Features zu nutzen.

Du hast ja Recht, aber die Namen sagen einfach mal nix darüber aus. Das wollte ich herausstellen. Es könnte (theoretisch) also sogar so kommen wie mit GF114<->GF116 wo eklatante Änderungen in der Architektur vorkommen. Vom Videoencoder-Teil dann mal abgesehen.

Ich erwarte dass die Änderungen bei Vega drastischer sind und Polaris eine Iteration dahin. Wissen werden wir es bald. ;)

Der_Korken
2016-07-14, 14:12:21
Ahja, warum seit ihr euch so sicher, dass Vega11 ein Chip oberhalb von von Vega10 ist?

Wo sollte man ihn sonst platzieren? Wenn man Vega 10 mit 4096SPs, <400mm² und GTX1080-Performance mal fixiert, bleibt entweder ein dicker Compute-Chip >400mm² übrig oder aber er landet irgendwo im Bereich von P10/GP106, um genug Abstand zu V10 zu haben. Letzteres wäre aber irgendwie unlogisch, weil P10 dann nach vllt nicht mal einem Jahr schon eol wäre. Und dass man zwischen P10 und P11 noch einen Chip quetscht, wäre auch komisch, weil die RX470 schon <200$ liegen wird. Da ist kein Platz für zwei Chips.

Hübie
2016-07-14, 14:12:54
Zwischen 2560 und 4096 ist ne Menge Platz :D

Locuza
2016-07-14, 14:24:36
Mit Greenland wird die GPU der HPC-APU gemeint sein. Das ist keine Standalone GPU, wie Vega10/11. Selbstverständlich hat das Treiberkonsequenzen, so wie jegliche GPU einer APU in den Treibern auftaucht.

Im Grunde ist Vega10 = Greenland.

Ahja, warum seit ihr euch so sicher, dass Vega11 ein Chip oberhalb von von Vega10 ist?
Laut den Fudzilla Leaks war aber Greenland eine standalone GPU auf einem Interposer und über GMI mit der Zeppelin-CPU verknüpft:
http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_XL.jpg

Da Greenland "nur" zwei HBM-Stacks bei 512 GB/s ansprechen kann, habe ich bei dem entsprechenden Gedanken Greenland = Vega 10, Vega 11 darüber eingeschätzt, da der GP100 schon auf 720 GB/s kommt und AMD wohl schon Pläne hat noch mehr aufzulegen.
Eine GPU mit 4096-Bit ist eine naheliegende Spekulation.

Nakai
2016-07-14, 14:26:37
Wo sollte man ihn sonst platzieren? Wenn man Vega 10 mit 4096SPs, <400mm² und GTX1080-Performance mal fixiert, bleibt entweder ein dicker Compute-Chip >400mm² übrig oder aber er landet irgendwo im Bereich von P10/GP106, um genug Abstand zu V10 zu haben. Letzteres wäre aber irgendwie unlogisch, weil P10 dann nach vllt nicht mal einem Jahr schon eol wäre. Und dass man zwischen P10 und P11 noch einen Chip quetscht, wäre auch komisch, weil die RX470 schon <200$ liegen wird. Da ist kein Platz für zwei Chips.

Ok und wie groß wird Vega10? Wenn der Chip auf eine HPC-APU kommt, darf er nicht wirklich größer als 400mm² sein. Eher auf Tahiti/Tonga-Größe.

Wird Vega10 größer als 400mm² kann man davon ausgehen, dass etwas dazwischen kommt.

Der_Korken
2016-07-14, 14:27:30
Zwischen 2560 und 4096 ist ne Menge Platz :D

Harhar :D

Ich glaube man würde den eigenen Chips damit zu sehr Konkurrenz machen. Ein 48CU-Chip wäre zu dicht an einem niedriger getakteten V10-Salvage dran und bei einem 44er Chip wäre der Salvage zu dicht an der 480 dran. Zwischen zwei Chips sollte schon mindestens 50% Abstand sein, d.h. V10 müsste schon 80CUs haben, damit da noch was zwischen passt. Es sei denn, Vega schafft plötzlich Taktraten >1,6Ghz oder bringt auf einen Schlag 20% mehr IPC. Dann wären auch 44/64CUs für Vega denkbar, aber das halte ich für arg unwahrscheinlich.

Edit: @Nakai: Überschlagen wir mal: Wenn wir davon ausgehen, dass die Architektur etwa gleich bleibt, sollte V10 höchstens 10mm²/CU benötigen, wie P10. Da aber das I/O nicht mitwächst und der HBM-MC kleiner wird, sollte man eigentlich ein gutes Stück drunter liegen. Liegt er >400mm² hat AMD entweder was falsch gemacht oder es gab große performance-steigende Änderungen, um die Fläche zu rechtfertigen. Dann gäbe es natürlich wieder Platz dadrunter, aber V10 wäre dann kein GP104-Konkurrent mehr, sondern darüber.

HOT
2016-07-14, 14:38:22
V10 wird sicherlich ein reiner Consumer-Chip mit 2 HBM-Stacks, eben Flächenoptimiert. Greenland dürfte auch 4 Stapel unterstützen und wird mMn deutlich über 400mm² liegen und neben 1:2 DP auch einiges an I/O-Gedöns mitbringen.

Vega10: HighEnd GPU mit 350mm² mit 64CUs und 2 HBM-Stapeln (230W)
Greenland: 500mm²-GPU mit 64CUs, 4HBM Stapeln und mehrere weitere I/O Anschlüsse (275W)
Vega11: HighEnd GPU mit 550mm² mit 96CUs und 4 HBM-Stapeln (300W+)

Der_Korken
2016-07-14, 14:44:07
Wie ist das eigentlich bei den APUs mit der Fertigung? Soweit ich das vernommen habe, sollen die Zen CPUs bei TSMC gefertigt werden, während man es bei Vega noch nicht genau weiß. Wenn man beides zusammenbringen will, würde das doch eher dafür sprechen, dass man auch beides auf den TSMC-Prozess optimiert, oder?

dargo
2016-07-14, 14:46:14
Zwischen 2560 und 4096 ist ne Menge Platz :D
Für 2560SPs einen neuen Chip designen wo P10 schon 2304 hat? :confused:

Ok und wie groß wird Vega10?
Ich tippe auf 350-375mm².

Sunrise
2016-07-14, 14:47:36
Ok und wie groß wird Vega10? Wenn der Chip auf eine HPC-APU kommt, darf er nicht wirklich größer als 400mm² sein. Eher auf Tahiti/Tonga-Größe.

Wird Vega10 größer als 400mm² kann man davon ausgehen, dass etwas dazwischen kommt.
Vega10 sollte irgendwo zwischen 350-400mm² groß sein, das kann man ganz grob hochrechnen. Dieser bekommt maximal 8GB HBM2 (2x 4Hi-Stacks an 2048bit SI). Das ist der Gegenspieler für die 1070 und die 1080 und zusätzlich auch für Workstations (SP-Performance) interessant.

Alles darüber ist kein reiner Workstation-Gaming-Chip mehr, sondern der Hawaii-Nachfolger mit deutlich mehr DP-Leistung, VRAM und Diesize. Dieser Chip wird in diversen Märkten verkauft werden.

Greenland ist wahrscheinlich nur eine Bezeichnung für die HPC-GPU der HPC-APU mit etwas anderen Grunddaten.

Hübie
2016-07-14, 14:53:50
Harhar :D

Ich glaube man würde den eigenen Chips damit zu sehr Konkurrenz machen. Ein 48CU-Chip wäre zu dicht an einem niedriger getakteten V10-Salvage dran und bei einem 44er Chip wäre der Salvage zu dicht an der 480 dran. Zwischen zwei Chips sollte schon mindestens 50% Abstand sein, d.h. V10 müsste schon 80CUs haben, damit da noch was zwischen passt. Es sei denn, Vega schafft plötzlich Taktraten >1,6Ghz oder bringt auf einen Schlag 20% mehr IPC. Dann wären auch 44/64CUs für Vega denkbar, aber das halte ich für arg unwahrscheinlich.

Edit: @Nakai: Überschlagen wir mal: Wenn wir davon ausgehen, dass die Architektur etwa gleich bleibt, sollte V10 höchstens 10mm²/CU benötigen, wie P10. Da aber das I/O nicht mitwächst und der HBM-MC kleiner wird, sollte man eigentlich ein gutes Stück drunter liegen. Liegt er >400mm² hat AMD entweder was falsch gemacht oder es gab große performance-steigende Änderungen, um die Fläche zu rechtfertigen. Dann gäbe es natürlich wieder Platz dadrunter, aber V10 wäre dann kein GP104-Konkurrent mehr, sondern darüber.

Rechnerisch sollte V10 mit 4096 ALUs und HBM Interface bei ~314 mm² (~18x17,4 mm) liegen. Dazu dann Interposer-Untersatz und HBM-Stacks neben dran. Würde beim Package vielleicht so 32², also ~1024 mm² Interposer, ergeben. Alles geschätzt.
Die GPU wird ja deutlich kleiner als Fiji aber die HBM-Stacks höher und die Fläche (afaik) gleich.
War Fiji eigentlich mit Silizium aufgefüllt? Ich erinnere mich gerade nicht. :redface:

Zusammengefasst also:

Fiji * 0,527 = 314 mm²
etwa gleich großer Interposer
~8,4-8,5 Mrd Transistoren
4096 ALUs
64 ROPs
16 GB HBM2


Edit: Das klingt winzig im Vergleich zu Pascal und vor allem Fiji

Der_Korken
2016-07-14, 14:57:23
Mir kommen 8,5 Mrd. Transistoren (und 314mm²) ehrlich gesagt zu wenig vor. Fiji hatte schon 8,9 Mrd. Transistoren, obwohl der Die schon komplett mit ALUs vollgestopft war. Wenn man da noch das Frontend oder die ALUs intern aufbohren will, geht das eher Richtung 10 Mrd.

Locuza
2016-07-14, 15:10:08
Rechnerisch sollte V10 mit 4096 ALUs und HBM Interface bei ~314 mm² (~18x17,4 mm) liegen.
[...]
Edit: Das klingt winzig im Vergleich zu Pascal und vor allem Fiji
Das klingt selbst gegenüber Polaris 10 winzig.

Polaris 10:
232mm²
256-Bit GDDR5 (8Gbps)
4-Fach Frontend
36 CUs (40 von mir aus)
32 ROPs
2 MB L2$

Vega10:
314mm² (+35%)
2048-Bit HBM2 (2Gbps) (Vermutlich etwas kleiner als 256-Bit GDDR5)
4-Fach Frontend? (Grob gleiche Größe?)
64 CUs (+60-78%)
64 ROPs (+100%)
4 MB L2$ (Naheliegend, außer AMD möchte hier sparen)

UVD, VCE und paar andere Dinge bleiben gleich.

Das wäre ziemlich sportlich nur 35% mehr Fläche zu verbrauchen, viel zu sportlich aus meiner Sicht.

AffenJack
2016-07-14, 15:11:52
Die Rechnung kann man ganz vergessen. Die passt hinten und vorne nicht. Beginnt schon bei Fiji x 0,527 wo ich nicht weiß, wo das herkommen soll. Bei 4000 SP denke ich eher an 400mm² und frage mich deshalb ob Vega 10 nicht eher weniger SP haben wird. Es hieß doch öfter Greenland wurde gecancelt, vielleicht ist man von 4096 SP eher in Richtung 3456 Shader oder so gegangen und darüber dann ein weiterer Chip.

Sunrise
2016-07-14, 15:19:36
Die Rechnung kann man ganz vergessen. Die passt hinten und vorne nicht. Beginnt schon bei Fiji x 0,527 wo ich nicht weiß, wo das herkommen soll. Bei 4000 SP denke ich eher an 400mm² und frage mich deshalb ob Vega 10 nicht eher weniger SP haben wird. Es hieß doch öfter Greenland wurde gecancelt, vielleicht ist man von 4096 SP eher in Richtung 3456 Shader oder so gegangen und darüber dann ein weiterer Chip.
https://www.techpowerup.com/221269/amd-greenland-vega10-silicon-features-4096-stream-processors

https://www.techpowerup.com/img/16-03-28/96b.jpg

4096 SPs ist eine recht gesunde Anzahl, eher würde man P10 verdoppeln, was ich als wahrscheinlicher erachte, als V10 mit zuwenig SPs auszustatten. Das ist hinsichtlich AMDs Packdichte mit weniger Takt auch besser, damit eine gewisse Ziel-Leistung erreicht wird und die Perf/W beeinflusst das auch sehr positiv.

Aus der Sicht der Diegröße sind natürlich weniger SPs sinnvoll, da kleinerer Die, aber wenn du ein 2048bit SI mit HBM2 und quasi doppeltem Durchsatz (512GB/s) als P10 optimal nutzen willst, dann brauchst du etwa einen doppelten P10, der 256GB/s Durchsatz hat.

N0Thing
2016-07-14, 15:19:44
Zumal der Graph eben darauf hindeutet das Vega eine bis zu 40% bessere Effizienz hat.
Unter der Haube wird der Chip sicherlich auch etwas an HBM Speicher angepasst sein, mal vom PHY abgesehen.

Da bin ich auch mal gespannt, was da am Ende bei herum kommt. Die Steigerung der Effizienz um den Faktor 2,8, bzw. 2,5 bei Polaris hat AMD ja auch recht kreativ errechnet.

HBM2 und Taktraten näher am Sweetspot können im Vergleich zu Polaris schon mal einen Vorteil bringen. Wie viel dann noch von den Architekturverbesserungen beigesteuert wird, ist dann die spannende Frage. Ich hoffe AMD gelingt mit Vega ein guter Sprung nach vorne.


Für 2560SPs einen neuen Chip designen wo P10 schon 2304 hat? :confused:


Das wird wohl eine scherzhafte Anspielung auf den Vollausbau von Polaris 10 gewesen sein. ;)

Wie ist das eigentlich bei den APUs mit der Fertigung? Soweit ich das vernommen habe, sollen die Zen CPUs bei TSMC gefertigt werden, während man es bei Vega noch nicht genau weiß. Wenn man beides zusammenbringen will, würde das doch eher dafür sprechen, dass man auch beides auf den TSMC-Prozess optimiert, oder?

Soweit ich weiß, kommt Zen weiterhin von Global Foundries, eventuell wird es wieder APUs vom TSMC geben.

AffenJack
2016-07-14, 15:29:49
https://www.techpowerup.com/221269/amd-greenland-vega10-silicon-features-4096-stream-processors

https://www.techpowerup.com/img/16-03-28/96b.jpg

4096 SPs ist eine recht gesunde Anzahl, eher würde man P10 verdoppeln, was ich als wahrscheinlicher erachte, als V10 mit zuwenig SPs auszustatten. Das ist hinsichtlich AMDs Packdichte mit weniger Takt auch besser, damit eine gewisse Ziel-Leistung erreicht wird und die Perf/W beeinflusst das auch sehr positiv.

Ja, aber es gab auch schon linkedin Profile mit Projekten die gecancelt wurden und bei Greenland wurde das ja schon öfter genannt. mit 4096 SP passt da einfach kein ordentlicher Chip mehr drüber. Wenn ich mal etwas rechne:

Polaris Packdichte: 24,6 Mio/mm²
Fiji hat 8,9 Milliarden transistoren, mit besserem Front End und Architekturverbesserungen von Polaris/Vega ist man bei ~10 Mill = 406mm², bei 2 Stacks spart man noch etwas am Speicherkontroller, aber dafür muss DP usw wieder rein, wenn man das Ding auch als APU verwursten will, also bleiben 400mm². Bei 6000 Shader muss man dann auch auf 600mm² gehen, irgendwie klingt da für mich etwas zu riskant.

iuno
2016-07-14, 15:35:05
Ahja, warum seit ihr euch so sicher, dass Vega11 ein Chip oberhalb von von Vega10 ist?

Die Frage ist imho, wie viel "Ballast" V10 mit sich tragen muss, verglichen mit P10. Wenn es mehr ein Fiji-Shrink ist, wird der Chip eher klein, wenn er aber wieder 1/2 FP64 und mglw. gar doppelte FP16 Leistung hat, wird das wohl kosten. Dann hat AMD weitere "Pro"-Features wie die Hardware-Virtualisierung, mit jeder Generation komplexere HSA Features usw. was sie einbauen koennen. Dann muss man aber auch den Interconnect bedenken, der V10 angeblich mit der CPU verbinden soll

Zwischen 2560 und 4096 ist ne Menge Platz :D
Sicher, aber wo willst du da ein anstaendiges Produkt mit HBM unterbringen?
Ich erwarte zumindest nicht, dass sie nochmal auf ein sehr hochtaktendes 384 oder gar 512 Bit SI setzen, das wuerde die Effizienz zu sehr verhageln.

Ich denke aber auch, dass aus oekonomischer Sicht HBM2 bei einem deutlich kleineren Chip wenig Sinn macht:

Dass V10 mit 64 CUs und "nur" 2 Stacks kommt, dient als Grundlage dieser Spekulationen (siehe HPC APU).
Dass V10 mit 64 CUs 4 Stacks bekommt, kann ich mir nicht vorstellen. Das waere ein riesiges Ungleichgewicht aus CUs und Bandbreite, verglichen mit dem bisher gesehenen. Ich nehme beim Spekulieren ja auch immer gerne Hawaii dazu, weil das der letzte "richtige" und gute HPC Chip ist.

Insofern ergeben sich fuer mich grob folgende Moeglichkeiten:

- V11 wird kleiner als V10, ein Consumer-Produkt wie Polaris. Also irgendwas um die V11 Varianten a-c. Nur ein Stack reicht hier aber nicht, das ergibt selbst mit 2 Gbps nur die 256 GB/s, die ja auch P10 schon hat. Sofern man den HBM nicht untertaktet, landet man also bei mindestens 409.6 GB/s. Bei der Bandbreite ergibt alles unter 50 CUs fuer mich keinen Sinn und deutlich mehr waere dann schon wieder zu nah an den 64 CUs.
Man wird aber auch wohl kaum zwei Chips mit 2048 Bit SI entwerfen. V10(b) passt vom Bandbreitenverhaeltnis ins Schema, wenn man noch etwas Puffer fuer HPC laesst und davon ausgeht, dass ggue. Hawaii auch der Takt steigen kann.

- V11 wird groesser als V10 und das HPC Monster, das mit viel Leistung, Bandbreite und Speicher(!) mit GP100 und KNL konkurrieren kann. Der Chip ist dann auch am oberen Ende des Machbaren (Flaeche, Verbrauch) - warum sollte da AMD nicht hin wollen? V10 wird wohl kaum 300 Watt verbrauchen und 600 mm² gross werden

Chip| CUs|GB/s| Bit| Gbps| GB/s/CU| max. Speicherausbau in GiB (8Hi)
P11| 16| 112| 128| 7| 7| 8
P10| 36| 256| 256| 8| 7.1| 16
V11(a)| 48| 409.6| 2048| 1.6| 8.5| 8(16)
V11(b)| 50| 409.6| 2048| 1.6| 8.2| 8(16)
V11(c)| 52| 409.6| 2048| 1.6| 7.9| 8(16)
V10(a)| 64| 409.6| 2048| 1.6| 6.4| 8(16)
V10(b)| 64| 512| 2048| 2| 8| 8(16) - rot falls Topdog
V10(c)| 64| 819.2| 4096| 1.6| 12.8| 16(32)
V11(d)| 96| 819.2| 4096| 1.6| 8.5| 16(32)
Hawaii| 44| 320| 512| 5| 7.2| 32

Die fuer mich plausibelsten Varianten sind mal fett gedruckt. Bei allem anderen gibt es fuer mich einfach mind. einen Punkt der die Variante jeweils disqualifiziert (rot).

Wenn endlich jemand P10 bei ~1 GHz und (deutlich) unter 1,0 V vermessen wuerde, koennte man auch mal bessere Annahmen bzgl. der Leistungsaufnahme treffen.
Ein richtiger Die Shot von P10 waere natuerlich auch mal was...

Hübie
2016-07-14, 15:37:15
Hast Recht die Rechnung hab ich verwurstet. Fiji hat nicht 8,1 Mrd Transistoren und hat auch nur 2 MB Cache. War aus dem Kopf. Sitz jetzt am PC und geh das noch mal durch. :redface: Kam mir auch winzig vor.

Die 0,527 ergaben sich dann aus der Unterschiedlichen Skalierung (Caches z.B. skalieren mit Faktor ~0,78, während eine ALU schnell 0,55-0,52 hat).

Sunrise
2016-07-14, 15:48:13
Wenn wir rein von Polaris ausgehen mit identischer DCC-Generation, dann brauchen wir für 4096SPs auch etwa 512GB/s Durchsatz, damit man diese ordentlich auslasten kann. Das ergäbe sogar noch etwas mehr Spielraum beim Takt als P10, da die Anzahl der SPs sich relativ zu P10 nicht ganz verdoppelt.

Und dann fehlt einfach drüber noch was, für HPC und ein Hawaii-Nachfolger, der den Namen auch verdient.

Bei V10 gehe ich nicht von hoher DP-Leistung aus, denn selbst Fiji hatte die nicht, warum sollte sich das bei identischer Bandbreite (DCC hilft hier nicht!) plötzlich ändern?

Deshalb ist für mich klar:
V10 ist 2048bittig und bekommt 8GB HBM2 und hat ausschließlich hohe SP-Leistung (Workstation, Gaming)
V11 ist 4096bittig (siehe Fiji) und hat damit auch genug Spielraum für ordentlich DP-Performance, weil man nicht genug Bandbreite haben kann.

dargo
2016-07-14, 16:09:10
Wenn endlich jemand P10 bei ~1 GHz und (deutlich) unter 1,0 V vermessen wuerde, koennte man auch mal bessere Annahmen bzgl. der Leistungsaufnahme treffen.

Gehst du beim V10 von nur 1Ghz aus? Ich hoffe es werden mindestens 1,1Ghz, besser 1,233Ghz damit man mit 10TFLOPs prahlen kann. :D

Nightspider
2016-07-14, 16:12:09
Deshalb ist für mich klar:
V10 ist 2048bittig und bekommt 8GB HBM2 und hat ausschließlich hohe SP-Leistung (Workstation, Gaming)
V11 ist 4096bittig (siehe Fiji) und hat damit auch genug Spielraum für ordentlich DP-Performance, weil man nicht genug Bandbreite haben kann.

Theoretisch schon aber widerspricht es nicht etwas dem extrem dünnen Portfolie von AMD in den letzten Jahres das sie nach 2 Polaris Chips jetzt auch noch zwei Vegas Chips herausbringt die sich unterscheiden?

Ich weiß jetzt nicht wie viel Arbeit das macht wenn sich V10 und V11 in den DP Fähigkeiten unterscheiden aber ich denke gerade darüber nach ob das nicht zu viel für AMD ist.

Das muss natürlich nichts heißen. Es kann ja auch sein das AMD schon die letzten Jahre vermehrt auf 2 Polaris und 2 Vega Chips hingearbeitet hat und es kann auch sein das der Vega Topdog viele Monate später erscheint.

So oder so auch die 540-600mm² sind sehr sportlich für einen relativ neuen Prozess auch wenn Nvidia das genauso macht.
Aber ich kann mich nicht erinnern das AMD schon mal so früh bei einem neuen Prozess einen so riesigen Chip gebracht hat.

Gut wäre es natürlich. Das Ding würde sich als HPC Chip super verkaufen.

dargo
2016-07-14, 16:15:01
Theoretisch schon aber widerspricht es nicht etwas dem extrem dünnen Portfolie von AMD in den letzten Jahres das sie nach 2 Polaris Chips jetzt auch noch zwei Vegas Chips herausbringt die sich unterscheiden?

Man hat sich bei Tonga und Hawaii recht lange ausgeruht, von daher...


Das muss natürlich nichts heißen. Es kann ja auch sein das AMD schon die letzten Jahre vermehrt auf 2 Polaris und 2 Vega Chips hingearbeitet hat und es kann auch sein das der Vega Topdog viele Monate später scheint.

Das sowieso.

iuno
2016-07-14, 16:19:31
Gehst du beim V10 von nur 1Ghz aus? Ich hoffe es werden mindestens 1,1Ghz, besser 1,233Ghz damit man mit 10TFLOPs prahlen kann. :D
Zumindest fuer die HPC Variante koennte das durchaus zutreffen.
V10 als Grafikkarte fuer Consumer wuerde ich schon >1 GHz erwarten. Sollte ein wirklich fetter V11 mit 6k SP erscheinen, koennte der aber wiederum um ~1 GHz landen, um die 300 Watt nicht zu sprengen

dargo
2016-07-14, 16:21:38
Zumindest fuer die HPC Variante koennte das durchaus zutreffen.

Achso... du meinst ne Art Nano @Vega.


Sollte ein wirklich fetter V11 mit 6k SP erscheinen, koennte der aber wiederum um ~1 GHz landen, um die 300 Watt nicht zu sprengen
Ja, bei dem großen Vega würde ich auch eher auf ca. 1Ghz tippen.

Nightspider
2016-07-14, 16:23:09
@iuno: Schöne Tabelle. So gingen mir die Zahlen auch durch den Kopf aber in der Tabelle ist es schön übersichtlich.

Wenn wir rein von Polaris ausgehen mit identischer DCC-Generation, dann brauchen wir für 4096SPs auch etwa 512GB/s Durchsatz, damit man diese ordentlich auslasten kann. Das ergäbe sogar noch etwas mehr Spielraum beim Takt als P10, da die Anzahl der SPs sich relativ zu P10 nicht ganz verdoppelt.

Natürlich nur wenn Vega so niedrig taktet wie Polaris.

Falls(!) Vega wirklich von TSMC kommen sollte könnte es aber sein das Vega höhere Taktraten erreicht.

Im schlimmsten Fall wäre ein hypothetischer Vega 10 mit 4096 SPs und nur 512GB/s noch mehr im Speicherbandbreitenlimit als die RX480.

Und so oder so: So stark wie Polaris mit dem Ramtakt skaliert wären die 512GB/s recht knapp bemessen, auch wenn 64 CUs keine Verdopplung von 36 CUs sind sondern nur 77% mehr.

Zumal wir ja, wie gesagt, hoffen das die CUs bei Vega leistungsfähiger sind als bei Polaris, da die CUs von Polaris und Fiji sich nur marginal unterscheiden.

Im (Speicherbandbreiten-) Worstcase muss Vega nur 15% schneller sein pro CU und 10% höher takten und man wäre schon genauso stark limitiert wie Polaris. Das wäre schon arg beschissen.

dargo
2016-07-14, 16:30:47
Theoretisch denkbar wären auch 3 Stacks @612-768GB/s und 12GB. Ich glaube aber eher nicht daran. Zu hohe Kostentreiber.

Nightspider
2016-07-14, 16:33:20
Hatte ich ja auch schon vor paar Tagen überlegt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=562438&page=461

Ist halt die Frage wie man die Stacks dann anordnet.

iuno
2016-07-14, 16:41:23
Achso... du meinst ne Art Nano @Vega.

Ja, bei dem großen Vega würde ich auch eher auf ca. 1Ghz tippen.
Ja, aber nicht nur. Wie gesagt, HPC. Da ist man immer naeher am Sweetspot. Hawaii laeuft als FirePRO auch nicht mit 1 GHz und man muss das ganze natuerlich auch entsprechend der gaengigen Grenzen unterbringen. Bei V10 ist zusaetzlich eben auch noch der Zweiteinsatz auf dem MCM zu beachten und bei V11 wuerde es wohl mit 6k SP knapp was die 300 W Grenze angeht.

Hatte ich ja auch schon vor paar Tagen überlegt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=562438&page=461

Ist halt die Frage wie man die Stacks dann anordnet.
Ja, HBM2 stacks sind aber deutliclh groesser und die GPU deutlich kleiner als bei Fiji (wenn du jetzt hier noch bei dem kleineren Vega bist).

Ph03n!X
2016-07-14, 16:41:50
Glaubst Ihr das Vega 10 noch in diesem Jahr kommt?

iuno
2016-07-14, 16:43:57
Das wird wohl ganz knapp. Vielleicht kommt er so noch in 2016 wie Polaris in H1 kam ;p

dargo
2016-07-14, 16:46:23
@Nightspider
3 Stacks neben einander halte ich eher für ausgeschlossen da V10 wesentlich kleiner als Fiji sein wird. Das heißt einzelne Zuleitungen vom oberen und unteren Stack müssten zwangsläufig länger sein. Ich kenne mich aber bei den Verbindungen nicht so aus um es beurteilen zu können ob das zum Problem wird. Eventuell ist die Idee von Screemer mit dem Drehen der Stacks um 90° gar nicht mal so schlecht.

Ich dachte eher an sowas.
56676

Das wäre allerdings wieder Verschwendung der Die-Fläche ohne einer komplett neuen internen Anordnung bei der GPU.

Edit:
Sowas wäre auch ganz witzig. :tongue:
56678

Sunrise
2016-07-14, 16:47:11
Glaubst Ihr das Vega 10 noch in diesem Jahr kommt?
https://twitter.com/GFXChipTweeter/status/745887920809218049

Raja: Long way to go before you see it

"Long way to go" klingt nicht gerade nach Übermorgen, dieses Jahr wird sehr sehr knapp.

Nightspider
2016-07-14, 16:51:21
Ja, HBM2 stacks sind aber deutliclh groesser und die GPU deutlich kleiner als bei Fiji (wenn du jetzt hier noch bei dem kleineren Vega bist).

Jepp. Hatte ich unter dem Post dann auch irgendwo nochmal geschrieben.

Es würde theoretisch nur klappen wenn V10 einen länglichen Die bekommt so das der Länge entlang 3 Stacks hinpassen aber das ist wohl eher unwahrscheinlich.

StefanV
2016-07-14, 17:32:09
Fiji hat 8,9 Milliarden transistoren, mit besserem Front End und Architekturverbesserungen von Polaris/Vega ist man bei ~10 Mill = 406mm², bei 2 Stacks spart man noch etwas am Speicherkontroller, aber dafür muss DP usw wieder rein, wenn man das Ding auch als APU verwursten will, also bleiben 400mm². Bei 6000 Shader muss man dann auch auf 600mm² gehen, irgendwie klingt da für mich etwas zu riskant.
Ja, genau wie damals bei der R300, bei der auch niemand (auch nVidia nicht) wahrhaben wollte, dass das ein dicker, breiter Klotz mit 8pixel Pipelines und fettem 256bit Speicherinterface sein wird. Damit hat auch niemand gerechnet.

Und trotzdem ist es dann am Ende so gekommen...

Also es ist ja eben NICHT so, dass man (=ATi) sowas noch nie gemacht hätte, ganz im Gegenteil. Hat man sehr wohl. Nur hat man sich nach dem Reinfall der Radeon HD2900 entschieden mehr kleinere Dies zu machen, warum auch immer...
Zumal man damals auch eine sehr platzsparende Architektur hatte und mit einem AFAIR 400mm² CHip mit einem 600mm² Chip mithalten konnte...

Also durchaus nicht ausgeschlossen...

Zumal AMD ja auch davon spricht, Marktanteile zurückzuerobern und das recht hoch zu priorisieren, da ist es dann auch möglich, dass man (noch?) mal zeigt, was man so auf die Beine stellen kann, wenn mans will.

Nightspider
2016-07-14, 17:34:11
Wie wärs damit? ~400mm² und 3 größere HBM2 Stacks.

https://abload.de/img/vega1036j6u.png

StefanV
2016-07-14, 17:35:13
Deshalb ist für mich klar:
V10 ist 2048bittig und bekommt 8GB HBM2 und hat ausschließlich hohe SP-Leistung (Workstation, Gaming)
V11 ist 4096bittig (siehe Fiji) und hat damit auch genug Spielraum für ordentlich DP-Performance, weil man nicht genug Bandbreite haben kann.
Und Greenland 1024bittig??

Das würde ich jetzt auch nicht völlig ausschließen wollen, dass AMD sowas macht Zumal sie ja auch was für die dicken APUs brauchen...

StefanV
2016-07-14, 17:42:22
Das muss natürlich nichts heißen. Es kann ja auch sein das AMD schon die letzten Jahre vermehrt auf 2 Polaris und 2 Vega Chips hingearbeitet hat und es kann auch sein das der Vega Topdog viele Monate später erscheint.
Seit Beginn der 28nm Produktion hat AMD ja mit Tahiti begonnen, Pitcairn kam relativ bald danach wie auch Cape Verde.
Sowie Oland...

Dann hat man deutlich später noch mal Bonaire und Hawaii gebracht...
Ein wenig Später dann noch Tonga und Fiji...

Gut, das sind durchaus 2 Serien, wie auch nVidia, aber ich denke schon, dass man beim Ausfall der 20nm Serie sich mehr auf 14nm konzentriert hat und nur Chips auf 28nm zurück portiert hat, die auch schon sehr weit waren (wie Fiji und Tonga).

Also da ist es schon sehr wahrscheinlich, dass man in dieser Generation deutlich mehr bringt als zu Anfang der 28nm Fertigung, eben weil man die Notwendigkeit dafür hat...

PS: Und warum schliesst ihr Vega auf 1.5GHz aus?
Es ist ja nicht so, dass AMD nicht hoch takten könnte, wenn sie wollen, die Bulldozer beweisen ja, dass sie das können...

Der_Korken
2016-07-14, 17:43:25
Und so oder so: So stark wie Polaris mit dem Ramtakt skaliert wären die 512GB/s recht knapp bemessen, auch wenn 64 CUs keine Verdopplung von 36 CUs sind sondern nur 77% mehr.

Es wurde hier schon mal die Vermutung geäußert, dass das Problem vielleicht nicht die Speicherbandbreite an sich ist, sondern die Latenz, weil den CUs die Register ausgehen und dann auf den Speicher warten müssen. Es kann sich beim Bandbreitenbedarf also noch was tun mit Vega - Nvidia schafft es schließlich auch mit deutlich weniger auszukommen.

Wenn wir schon beim Spekulieren sind: Wäre es denkbar, dass AMD das Frontend bei Vega gar nicht großartig aufbohrt, sondern stattdessen ganze CUs abschaltet, sobald sie nicht ausgelastet sind, um die gesparte Energie in mehr Takt zu investieren? Dadurch würde man mit wenig Transistoren viele FLOPs erreichen (s. Fiji), die einem bei LL-APIs und 4K-Auflösung weiterhelfen. Zusätzlich würde man bei DX11 nicht zu stark abfallen, weil man bei Bedarf auf FLOPs verzichtet und stattdessen den Geometrie-Durchsatz erhöhen kann und die wenigen ausgelasteten CUs besser ausnutzt. Im Prinzip passt das Abschalten und Boosten imho sehr gut zu einem GCN-Design, das viel FLOPs/mm² liefert, aber in vielen Situationen nicht gut ausgelastet ist.

dargo
2016-07-14, 17:54:58
PS: Und warum schliesst ihr Vega auf 1.5GHz aus?
Es ist ja nicht so, dass AMD nicht hoch takten könnte, wenn sie wollen, die Bulldozer beweisen ja, dass sie das können...
Weil zwischen 12,3 und 5,8TFLOPs eine viel zu große Lücke entstehen würde.


Wenn wir schon beim Spekulieren sind: Wäre es denkbar, dass AMD das Frontend bei Vega gar nicht großartig aufbohrt, sondern stattdessen ganze CUs abschaltet, sobald sie nicht ausgelastet sind, um die gesparte Energie in mehr Takt zu investieren? Dadurch würde man mit wenig Transistoren viele FLOPs erreichen (s. Fiji), die einem bei LL-APIs und 4K-Auflösung weiterhelfen. Zusätzlich würde man bei DX11 nicht zu stark abfallen, weil man bei Bedarf auf FLOPs verzichtet und stattdessen den Geometrie-Durchsatz erhöhen kann und die wenigen ausgelasteten CUs besser ausnutzt. Im Prinzip passt das Abschalten und Boosten imho sehr gut zu einem GCN-Design, das viel FLOPs/mm² liefert, aber in vielen Situationen nicht gut ausgelastet ist.
Macht für mich gar keinen Sinn wo schon die ersten GCNs für eine LL-API ausgerichtet waren. Imho ist High-Level bald Geschichte.

Botcruscher
2016-07-14, 18:05:27
Weil zwischen 12,3 und 5,8TFLOPs eine viel zu große Lücke entstehen würde.
Da passt die Resterampe mit 1/3 bis 1/4 Verschnitt voll rein.

Die APUs bekommen 2 Stapel. Da kommt ganz sicher kein Chip mit 3.

Nightspider
2016-07-14, 18:09:36
Für eine APUs reichen 2 Stacks auch völlig aus denke ich.

Zumindest wenn sich die APU im ~400-450mm² Bereich bewegt.

dargo
2016-07-14, 18:09:38
Da passt die Resterampe mit 1/3 bis 1/4 Verschnitt voll rein.

Was soll das genau sein? Salvage vom Salvage vom Salvage? :D

Der_Korken
2016-07-14, 18:25:42
Macht für mich gar keinen Sinn wo schon die ersten GCNs für eine LL-API ausgerichtet waren. Imho ist High-Level bald Geschichte.

Meinst du nicht, dass du mit deinem Abgesang auf DX11 ein bischen übertreibst? Zum einen gibt es auch heute noch Spiele mit DX11, die viel Leistung brauchen und die ich vielleicht gerne spielen möchte und zum anderen wird sich LL-Programmierung in etwa so schnell durchsetzen wie DX10 es (nicht) getan hat.

Abgesehen davon ist das, was ich geschrieben habe eigentlich sehr gut für LL: Je besser die CUs ausgelastet sind, desto effizienter arbeiten sie, weil ich mit kleinerem Takt auch immer die Spannung mitsenken kann. Außerdem gibt es sehr viele CUs, sodass das Potenzial bei guter LL-Programmierung sehr hoch ist. Das starke Boosten bei geringer Auslastung ist ja nur ein Mittel, um mit wenig Transistoraufwand auch bei DX11 noch was rauszuholen.

Elkinator
2016-07-14, 18:45:48
Wie ist das eigentlich bei den APUs mit der Fertigung?
Vermutlich GF, vielleicht ein Teil von Samsung.
Die Konsolen-SOCs werden bei Samsung gefertigt.

Soweit ich das vernommen habe, sollen die Zen CPUs bei TSMC gefertigt werden,
AMD wird alles bei GF/Samsung fertigen lassen.

während man es bei Vega noch nicht genau weiß.
Sicher GF oder Samsung, die IP wurde einfach für 14LPP entwickelt, da jetzt etwas bei TSMC zu fertigen wäre nur unnötig teuer.

Wenn man beides zusammenbringen will, würde das doch eher dafür sprechen, dass man auch beides auf den TSMC-Prozess optimiert, oder?
Warum sollte AMD das machen?

dargo
2016-07-14, 18:57:02
Meinst du nicht, dass du mit deinem Abgesang auf DX11 ein bischen übertreibst?

Nein.


Zum einen gibt es auch heute noch Spiele mit DX11, die viel Leistung brauchen und die ich vielleicht gerne spielen möchte und zum anderen wird sich LL-Programmierung in etwa so schnell durchsetzen wie DX10 es (nicht) getan hat.

Kannst du gerne machen, dafür wird Vega auch ohne solche Spielereien schnell genug sein.

StefanV
2016-07-14, 19:00:02
Weil zwischen 12,3 und 5,8TFLOPs eine viel zu große Lücke entstehen würde.
Das ist ein Grund, aber kein HIndernis...

Damals, vor langer langer Zeit, war die Lücke zwischen RV350 und R300 auch ziemlich groß, einen '6 Piper' gab es nicht.

Von daher würde ich das jetzt nicht soo unwahrscheinlich finden...

dargo
2016-07-14, 19:03:11
Das ist ein Grund, aber kein HIndernis...

Spätestens der Stromverbrauch wird zum Hindernis. Entweder viele CUs beim "moderaten" Takt oder weniger CUs beim hohen Takt, je nachdem was besser ins Design passt. Beides wird leider nicht gehen.

Langlay
2016-07-14, 21:58:05
Was soll das genau sein? Salvage vom Salvage vom Salvage? :D

Gabs auch schonmal. HD5870 (1600 5-Vec-ALUs), HD5850(1440 5-Vec-ALUs) und HD5830(1120 5-Vec-ALUs) und die basierten alle auf dem Cypress Chip.

Die HD5830 war dann auch nur noch ein weniger schneller als die HD5770 (800 5-Vec-ALUs)

dargo
2016-07-14, 22:01:24
Und wie willst du das dann in den jeweiligen Segmenten mit HBM2 runterskalieren? Der kleinste Salvage dann nur noch mit 4GB wo P10 schon 8GB hat? Wäre auch nicht so prahle.

Langlay
2016-07-14, 22:05:05
Die kriegen alle 2 Stacks mit 8GB, der Topdog mit 512GB/s und später Option auf 16 GB VRAM. Und die Abgespeckten kriegen dann den lahmen 400GB/s HBM RAM.

dargo
2016-07-14, 22:09:17
Ich mag nicht so recht daran glauben, dass wir Anfang 2017 einen V10 Salvage vom Salvage mit 8GB HBM2 für ~350€ sehen werden. Das wäre ungefähr ne "gesunde" Abgrenzung zur nächsten Leistungsstufe über P10. Einen P10 mit 8GB würde ich Anfang 2017 bei ca. 200-220€ sehen. Aber vielleicht überschätze ich auch die Preise von HBM2.

Langlay
2016-07-14, 22:15:21
Naja die 5830 kam gute 5 Monate nach der 5870 & 5850. Also wenn ich optimistisch bin und annehme Vega10 kommt Ende Nov. 2016 wären wir dann im April-Mai 2017.

Bis dahin vergeht ja auch noch nen bischen Zeit.

HOT
2016-07-14, 22:16:22
Mal ne Frage, waren die 64CUs eigentlich nur für Greenland gesetzt oder auch für V10? Ansonsten könnte V10 ja auch nur 56CUs haben.

Schaffe89
2016-07-14, 22:26:37
Macht für mich gar keinen Sinn wo schon die ersten GCNs für eine LL-API ausgerichtet waren. Imho ist High-Level bald Geschichte.

Und das wird AMD außer leichten Zugewinnen von 5 bis 10% rein gar nichts helfen, da Low Level genauso wenig in der Lage ist AMD´s verhunztes Design auszulasten, das sieht man sehr sehr deutlich an den 4k Benchmarks von Doom unter Vulkan oder auch an dem neuen Directx12 Benchmark.

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Hohe Erwartungen schüren und nachher dann auf die Nase fallen, das übliche.:redface:

Schaffe89
2016-07-14, 22:31:45
Seit Beginn der 28nm Produktion hat AMD ja mit Tahiti begonnen, Pitcairn kam relativ bald danach wie auch Cape Verde.
Sowie Oland......

Damals als AMD´s Finanzen noch deutlich besser waren als heute.

Also da ist es schon sehr wahrscheinlich, dass man in dieser Generation deutlich mehr bringt als zu Anfang der 28nm Fertigung, eben weil man die Notwendigkeit dafür hat...

Gerade mal einen Chip released und keine Worte mehr zur rx470x und rx460 wenn die endlich mal kommen sollen. Sieht nicht danach aus, als ob man hier was raushaut, eher dass man das ganze wegen großer Probleme stark verzögert.

PS: Und warum schliesst ihr Vega auf 1.5GHz aus?
Es ist ja nicht so, dass AMD nicht hoch takten könnte, wenn sie wollen, die Bulldozer beweisen ja, dass sie das können

Der Vergleich mit einer CPU in einer anderen Fertigung ist jetzt wie relevant?
AMD hat seit Tahiti den Takt kaum steigern können und jetzt mit Vega sollen auf einmal 1,5ghz möglich sein, dann frage ich mich bei welcher TDP das ganze passieren soll.:freak:

bbott
2016-07-14, 22:40:42
Der nächste DX12 Vorteil für AMD:
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/

Die RX 480 kommt nahe an die 980.

Elkinator
2016-07-14, 22:45:59
WAs habt ihr immer alle mit Low-Level?

Mantle, Vulkan und DX12 sind nicht Low-Level!

Setsul
2016-07-14, 22:48:34
PS: Und warum schliesst ihr Vega auf 1.5GHz aus?
Es ist ja nicht so, dass AMD nicht hoch takten könnte, wenn sie wollen, die Bulldozer beweisen ja, dass sie das können...
Bulldozer ist mit Abstand das schlechteste Beispiel dafür. Bulldozer sollte noch viel höher um die schlechtere IPC auszugleichen aber schon bei 4 GHz war die Leistungsaufnahme schwachsinnig hoch.

Elkinator
2016-07-14, 22:52:32
Das lag aber zum Teil auch an der nie gut laufenden 32nm Fertigung.

Setsul
2016-07-14, 22:56:58
Was wir ja momentan befürchten, dass wieder der Fall ist.

Schaffe89
2016-07-14, 23:02:30
Der nächste DX12 Vorteil für AMD:
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/

Die RX 480 kommt nahe an die 980.

Nahe an der GTX 980 ist die rx480 doch schon im normalen Testparcour auch schon unter Full HD (4%), ich finde nicht, dass AMD in dem Benchmark irgendetwas außer ganz minimalistisch zulegen kann, die Fury X liegt genau da wo sie sonst auch immer platziert ist. GTX 980 Ti +- 5%.

WAs habt ihr immer alle mit Low-Level?

Mantle, Vulkan und DX12 sind nicht Low-Level!

Wieso denn nicht?

Elkinator
2016-07-14, 23:02:42
Warum sollte es denn so sein?
Aktuell schaut es eher genau anders rum aus!

Oder werden hier mit Absicht Gerüchte gestreut, um es für AMD schlecht aussehen zu lassen?

Bin echt froh, daß AMD auf 14LPP statt 16FF+ gesetzt hat...

Setsul
2016-07-14, 23:08:12
Naja allzu beindruckend sieht es nicht aus, aber P10 scheint einfach zu hoch getaktet zu sein.
Der Rest sind wohl Kinderkrankheiten bei GloFo.

Wir werden ja sehen wie Zen und Vega in Sachen Takt und Leistungsaufnahme aussehen.

14LPP dürfte einfach recht angenehm sein weil die nächsten Konsolen SOCs (sollte ziemlich genau P10 sein) dann viel weniger Designaufwand sind. Gleicher Prozess und man hat notfalls oder einfach bei deutlichem Mehrbedarf die Möglichkeit zu Samsung zu wechseln ohne riesigen Aufwand zu betreiben.
AMD muss Geld sparen und alles auf 14LPP könnte eine ganze Menge sparen.

Schaffe89
2016-07-14, 23:08:52
Ich wäre froh, wenn du für deine Aussagen mit Ausrufezeichen Quellen liefern würdest, mein Lieber Elkinator.
Muss ja nicht sein, dass du den gleiche Unsinn den du bei PCGH abziehst auch noch hier im 3DCenter abziehst.

Bin echt froh, daß AMD auf 14LPP statt 16FF+ gesetzt hat...

Bisher sieht es nicht danach aus, als ob man über die Wahl von AMD froh sein könnte, denn bisher überzeugen die Produkte aus dem Prozess hinsichtlich deren Energieeffizienz weniger.
Woran das liegen mag, kann man nicht genau sagen.
Warum du darüber froh sein willst, ja das möchte ich gerne mal wissen. Riecht nach sinnlosem pro AMD Trolling.:mad:

Oder werden hier mit Absicht Gerüchte gestreut, um es für AMD schlecht aussehen zu lassen?


Viel eher drehen die AMD Befürworter in letzter Zeit am Rad weil der Launch schlecht war und nicht überzeugend, deswegen kochen die ganzen Threads in den Foren über vor lauter Panik.

Elkinator
2016-07-14, 23:14:18
Und du glaubst P10 würde mit 16FF+ höher takten?
Die 28nm GPUs von NVIDIA takten auch höher als GCN1-3, ist aber die selbe Fertigung.
Daraus kann man also nichts ableiten!

Die Konsolen-SOCs kommen eh von Samsung.

maximus_hertus
2016-07-14, 23:14:36
Nahe an der GTX 980 ist die rx480 doch schon im normalen Testparcour auch schon unter Full HD (4%), ich finde nicht, dass AMD in dem Benchmark irgendetwas außer ganz minimalistisch zulegen kann, die Fury X liegt genau da wo sie sonst auch immer platziert ist. GTX 980 Ti +- 5%.


Wenn ich mir anschaue, dass die RX 470 z.B. in der PCGH im Schnitt hinter(!) einer Stock-GTX 970 landet sind 4% hinter der GTX 980 ein erheblicher Sprung nach vorne.

Bei Computerbase liegt die RX 480 im Schnitt bei 6-8% vor der Stock-GTX 970, im 3DM DX12 dann 18%. Klar, keine Welten, aber doch mehr als nur minimalistisch.

Schaffe89
2016-07-14, 23:18:16
Wenn ich mir anschaue, dass die RX 470 z.B. in der PCGH im Schnitt hinter(!) einer Stock-GTX 970 landet sind 4% hinter der GTX 980 ein erheblicher Sprung nach vorne.

Die rx470 existiert noch nicht mal und der Grund warum die rx480 im PCGH Index so schlecht liegt, ist den AMD Treibern geschuldet, weil sie bei Wolfenstein irgendeinen Bug haben, den AMD bisher nicht gelöst hat und dieser ins Performancerating mit einfließt. CB hat Wolfenstein nicht mit im Parcour.

Zudem testet PCGH inkl. High Quality AF, Computerbase nicht, Quervergleiche über mehrere Indizes funktionieren recht schlecht.

Klar, keine Welten, aber doch mehr als nur minimalistisch.

Aber nur vs GTX 970, die anderen Maxwellkarten halten sich noch recht gut.

Setsul
2016-07-14, 23:26:19
@Elkinator
AMD hat von 28nm auf 14nm ungefähr 25% Takt gewonnen, nVidia von 28nm auf 16nm 50%.
Daraus kann man sehr wohl etwas ableiten.

Wenn man sich den Apple A9 anschaut sollte 14LPP zwar dichter sein, aber mehr Strom verbrauchen. Wenn ich mich verrechnet hab, hat AMD aber eher sogar weniger an Dichte gewonnen, auf keinen Fall aber mehr. Darauf kann man die Taktraten auch nicht schieben.

Also anscheinend sehen wir dass sich das was vermutet / gemunkelt wurde (14LPP nicht so effizient, hohe Taktraten schwierig) sich bewahrheitet aber gleichzeitig vom einzigen Vorteil (Packdichte) nichts zu sehen ist.

maximus_hertus
2016-07-14, 23:26:26
Die rx470 existiert noch nicht mal und der Grund warum die rx480 im PCGH Index so schlecht liegt, ist den AMD Treibern geschuldet, weil sie bei Wolfenstein irgendeinen Bug haben, den AMD bisher nicht gelöst hat und dieser ins Performancerating mit einfließt. CB hat Wolfenstein nicht mit im Parcour.

Zudem testet PCGH inkl. High Quality AF, Computerbase nicht, Quervergleiche über mehrere Indizes funktionieren recht schlecht.



Aber nur vs GTX 970, die anderen Maxwellkarten halten sich noch recht gut.

Ups, meinte die RX 480, habe mich da verschrieben. Quervergleiche sind nicht optimal, sicherlich, allerdings kann man schon sagen, dass die RX 480 im Schnitt gerade so die "Stock"-GTX 970 schlägt. Die GTX 980 liegt da im Schnitt dann doch noch ein gutes Stück weiter vorne.

Aber selbst wenn man nur CB betrachtet, habe ich ja auch schon geschriben, dass man den Vorsprung zur GTX 970 von 6-8 auf 18% vergrößern konnte. Minimalistisch ist das nicht. Nichts Riesengroßes, eben ein ordentlicher Gewinn. Zeigen künftige Spiele ebenfalls dieses Verhalten + evtl. etwas mehr VRAM LAstigkeit, könnte die RX 480 gar die GTX 980 hinter sich lassen, statt sich mit der GTX 970 "herumzuärgern".

Linmoum
2016-07-14, 23:33:31
Wenn ich mir anschaue, dass die RX 470 z.B. in der PCGH im Schnitt hinter(!) einer Stock-GTX 970 landet sind 4% hinter der GTX 980 ein erheblicher Sprung nach vorne.

Bei Computerbase liegt die RX 480 im Schnitt bei 6-8% vor der Stock-GTX 970, im 3DM DX12 dann 18%. Klar, keine Welten, aber doch mehr als nur minimalistisch.
Bei PCGH darf man nicht vergessen, dass der Index aus FullHD (50%), WQHD (25%) und UHD (25%) besteht, wohingegen es bei CB eben spezifische Performance-Ratings für die entsprechende(n) Auflösung(en) sind.

Elkinator
2016-07-14, 23:35:14
Nein, davon kann man nichts ableiten!
Nein, der A9 wird nicht in 14LPP gefertigt!

aber gleichzeitig vom einzigen Vorteil (Packdichte) nichts zu sehen ist.
Jetzt reicht es aber langsam mit dem Bullshit:\

P10 ist viel kleiner als GP104, sollte man da schon berücksichtigen.
Bei der Leistung/mm² liegt AMD vorne!

Schaffe89
2016-07-14, 23:48:29
P10 ist viel kleiner als GP104, sollte man da schon berücksichtigen.
Bei der Leistung/mm² liegt AMD vorne!

Wer ein bisschen rechnen kann, der merkt dass AMD das nicht im vergleich zu GP104 tut und zu GP106 wird es sich auch nicht ausgehen.
GP106 ist etwa 200mm² groß und leistet allem Anschein nach mehr als AMD´s rx480.
GP104 ist 314mm² Groß und Leistet 70% mehr als AMD´s 233mm² großer Chip bei 33% mehr Fläche.

Nachdem Nvidia AMD bei der Effizienz seit der HD7970 eingeholt hatte, haben sie AMD nun hinsichtlich der Effizienz überholt und auch bei AMD´s Steckenpferd mehr Leistung pro mm² herauszuholen haben sie AMD mittlerweile überholt.

Setsul
2016-07-14, 23:51:11
@Schaffe89
Du vergisst dass GP104 doch viel größer ist.
Außerdem kann man daraus nichts ableiten.

AMD hat die bessere Architektur, klar und deutlich und 14LPP ist viel besser als 16FF+. Dass die Packdichte nicht höher ist, die Taktraten niedriger und Leistaufnahme höher ist reiner Zufall und daraus lässt sich überhaupt nichts ableiten.

Nakai
2016-07-15, 00:18:50
Wer ein bisschen rechnen kann, der merkt dass AMD das nicht im vergleich zu GP104 tut und zu GP106 wird es sich auch nicht ausgehen.
GP106 ist etwa 200mm² groß und leistet allem Anschein nach mehr als AMD´s rx480.
GP104 ist 314mm² Groß und Leistet 70% mehr als AMD´s 233mm² großer Chip bei 33% mehr Fläche.

Nachdem Nvidia AMD bei der Effizienz seit der HD7970 eingeholt hatte, haben sie AMD nun hinsichtlich der Effizienz überholt und auch bei AMD´s Steckenpferd mehr Leistung pro mm² herauszuholen haben sie AMD mittlerweile überholt.

Mhh, Polaris würde ich immer noch als ein urpsrüngliches 20nm-Projekt angesehen. Man bleibt einigermaßen konkurrenzfähig. Mehr nicht.

Vega wird interessant. Im Endeffekt vollzieht "zwei" Generationssprünge in einem Jahr etwa. Ich bin auf Vega sehr gespannt. Vega10 wird etwa auf GM204-Niveau landen.

Rincewind
2016-07-15, 00:59:21
V10 nur GM204? Das wäre für mich entäuschend.

horn 12
2016-07-15, 01:04:09
GM204 Niveau
Wohl Pascal GP 104 wolltest schreiben...

Dino-Fossil
2016-07-15, 01:10:52
Mhh, Polaris würde ich immer noch als ein urpsrüngliches 20nm-Projekt angesehen. Man bleibt einigermaßen konkurrenzfähig. Mehr nicht.

Wissen wir doch gar nicht. Auch Tonga und Fiji wurden schon als rückportierte 20nm Chips gesehen. Und ich kann mir nicht so recht vorstellen, dass Polaris, falls er denn für 20nm gedacht war, anschließend keine Überarbeitung mehr erfahren hat.
Genauso möglich ist, dass sich AMD doch ein wenig verkalkuliert hat - entweder weil Pascal viel früher kam, als erwartet, oder weil der Chip wirklich schlechter ausfiel als erhofft (in puncto Taktbarkeit oder Effizienz).

Und weiter negativ gedacht, kommt Vega auch deswegen so spät, weil HBM2 nicht schnell genug in ausreichenden Mengen verfügbar/bezahlbar ist, nicht unbedingt weil AMD da noch so viel an der Architektur gedreht hat.

N0Thing
2016-07-15, 01:24:14
Weil zwischen 12,3 und 5,8TFLOPs eine viel zu große Lücke entstehen würde.

Wenn AMD schon mit dem kleinen Polaris 10 schwer mit dem Anstieg der Leistungsaufnahme bei höheren Taktraten zu kämpft hat, wird das mit den größeren Chips nicht besser aussehen. Einen Takt deutlich oberhalb dessen, was man effizient mit Polaris 10 erreichen kann, erscheint mir relativ unwahrscheinlich. Das sehe ich eher als mögliches Problem, als dass AMD mit einem zu schnellen Chip unzufrieden wäre. ;)

BlacKi
2016-07-15, 01:33:55
@Schaffe89
Du vergisst dass GP104 doch viel größer ist.
Außerdem kann man daraus nichts ableiten.

AMD hat die bessere Architektur, klar und deutlich und 14LPP ist viel besser als 16FF+. Dass die Packdichte nicht höher ist, die Taktraten niedriger und Leistaufnahme höher ist reiner Zufall und daraus lässt sich überhaupt nichts ableiten.
nimm doch einfach mal die 314mm² des gp104 und deaktiviere 1/4, da kommt man auf 235mm². selbst wenn es 250mm² wären, so ist die 1070 erheblich schneller als die 480, trotz ähnlicher fläche.

also die perf. pro fläche ist bei nv definitiv besser!

Setsul
2016-07-15, 01:41:02
@BlackKi
Sarkasmus ist geschrieben immer schwer zu erkennen.
Die Rechnung geht nicht exakt auf wegen ROPs und SI aber ja, perf./mm² ist deutlich höher bei Pascal.

Elkinator's Konter zu jedem Argument das im nicht passt ist "daraus kann man nichts ableiten".

Langlay
2016-07-15, 02:39:38
Die Rechnung geht nicht exakt auf wegen ROPs und SI aber ja, perf./mm² ist deutlich höher bei Pascal.


Hinzukommt auch nocht das teilaktiviere Chips in der Praxis meist etwas weniger Leistung verlieren als aussgehend von der geringeren Rohleistung zu erwarten wäre. Ganz gut kann man das bei der Fury und Fury X sehen.

mczak
2016-07-15, 04:51:39
Wenn AMD schon mit dem kleinen Polaris 10 schwer mit dem Anstieg der Leistungsaufnahme bei höheren Taktraten zu kämpft hat, wird das mit den größeren Chips nicht besser aussehen. Einen Takt deutlich oberhalb dessen, was man effizient mit Polaris 10 erreichen kann, erscheint mir relativ unwahrscheinlich. Das sehe ich eher als mögliches Problem, als dass AMD mit einem zu schnellen Chip unzufrieden wäre. ;)
Naja also Vega 10 ist ja nicht einfach ein Polaris 10 mit mehr Einheiten. Vielleicht hat man da etwas optimiert um höheren Takt zu erreichen bei gleicher Spannung (so wie das nvidia mit Pascal offensichtlich getan hat), der Chip erscheint ja doch einiges später als Polaris 10. Aber auch dann würde wohl tatsächlich kaum viel mehr als der Maximaltakt der RX 480 drinliegen.

Elkinator
2016-07-15, 05:41:43
Durch optimierungen ist da einiges erreichbar, selbst bei gleichem Prozess.
Da muß man nur mal Carrizo mit Bristol Ridge vergleichen.

Der Prozess selbst wurde ja auch noch verbessert.

Deswegen ergibt TSMC ja keinen Sinn, da würde AMD wieder von vorne anfangen, mit 14LPP haben sie schon erfahrungen gesammelt, die sie in die Optimierungen einfließen lassen können.

dargo
2016-07-15, 06:56:10
Und das wird AMD außer leichten Zugewinnen von 5 bis 10% rein gar nichts helfen, da Low Level genauso wenig in der Lage ist AMD´s verhunztes Design auszulasten, das sieht man sehr sehr deutlich an den 4k Benchmarks von Doom unter Vulkan oder auch an dem neuen Directx12 Benchmark.

Sorry, aber du hast keinen blassen Schimmer wovon du redest.

Ravenhearth
2016-07-15, 07:49:35
Die 480 verbraucht 70% weniger als Hawaii, bei Fiji vs. Vega wird das zwar nicht ganz so viel sein, aber immer noch deutlich. Ich tippe auf 225W bei 1,2-1,3GHz. Vega 11 dann 300W.

Prozentrechnung much? 70% weniger als Hawaii wären höchstens 90W. Du meinst eher eine 70% höhere Effizienz, also ~160W.

HOT
2016-07-15, 07:56:12
Wenn man nur auf die Sammelratings bei den Reviews schaut darf man dabei nicht vergessen, dass oft Wolfenstein mitgetestet wird und es da noch einen furchtbaren Treiberbug gibt. Das zieht das Rating natürlich runter. Ansonsten liegt die Referenz RX480 beinahe durchgängig knapp hinter der 390X, mit etwas Treiberoptimierung sicherlich darüber. Die Karte wird hier immer noch falsch eingeschätzt.

Prozentrechnung much? 70% weniger als Hawaii wären höchstens 90W. Du meinst eher eine 70% höhere Effizienz, also ~160W.
Ja für die ganz pingeligen... ist halt falsch gerechnet aber doch klar was gemeint war.

Ach mensch, hätte AMD bei der Tonga doch auch 28nm HP genutzt, wie NV beim GM204... dann hätten die auch 1,4GHz Takt schaffen können ... ach moment ...

Ailuros
2016-07-15, 09:14:02
Leider laesst Vega noch so lange auf sich warten, dass die idiotischen Maerchen dafuer leider weiterleben duerfen.

UnderTheRock
2016-07-15, 09:59:40
Aber was geb ich mich mit euch Trollen überhaupt noch ab, da ausser unsinn von euch nichts kommt, willkommen auf der Ignore-Liste...
:uban:

GCN war halt nie eine DX11-API.
Aber anderen Usern trollen vorwerfen :facepalm:

Dabei ist jedem klar, dass NVIDIA in Sachen Perf/Fläche vor AMD liegt. Nicht so deutlich wie in Perf/Leistungsaufnahme, aber doch deutlich.

Dino-Fossil
2016-07-15, 10:02:47
Manche biegen sich wohl echt alles zurecht?

Man muß schon die leistugn unter DX12/Vulkan zum Vergleich nehmen, wie es bei DX11 aussieht ist total egal.

Das GCN unter DX12/Vulkan endlich besser zeigen kann, was in der Architektur steckt, ist schön, aber ich denke trotzdem, dass es zu früh ist einen Abgesang auf DX11 zu singen.
DX11 (und älter!) wird uns noch einige Jahre begleiten, in Form von älteren Spielen und auch Neuerscheinungen.
Natürlich reicht die Leistung bei den neuen Karten für ältere Titel meist aus, aber man brauch es nicht wegzudiskutieren, dass eine gewisse Schwäche in einigen Bereichen bestehen bleibt.
Das mag mich oder andere hier nicht davon abhalten eine AMD-Karte zu kaufen, aber es ist eben einer der Gründe warum NVidia deutlich mehr Marktanteil hat.

HOT
2016-07-15, 10:21:57
Es ist absehbar, dass alles, was Grafikleistung wirklich erfordern wird, auf den neuen APIs aufsetzen wird. Natürlich wird für viele kleinere Projekte DX11 aktuell bleiben, aber ganz sicher nicht bei den Grafikperlen.

BlacKi
2016-07-15, 10:25:12
Es ist absehbar, dass alles, was Grafikleistung wirklich erfordern wird, auf den neuen APIs aufsetzen wird. Natürlich wird für viele kleinere Projekte DX11 aktuell bleiben, aber ganz sicher nicht bei den Grafikperlen.
ich fand division grafisch nicht schlecht, davon auszugehen, das alle prachtvollen spiele nur noch in dx12 erscheinen, halte ich für falsch.

StefanV
2016-07-15, 10:28:38
@Elkinator
AMD hat von 28nm auf 14nm ungefähr 25% Takt gewonnen, nVidia von 28nm auf 16nm 50%.
Daraus kann man sehr wohl etwas ableiten.
Aber nur beim Default Takt, nicht beim maximalen.

Denn was du unterschlägst ist schlicht, dass sich da nicht soo wirklich viel geändert hat, was die maximale Taktbarkeit betrifft...
Da sind es dann auch eher um die 25%...

Screemer
2016-07-15, 10:44:01
ich fand division grafisch nicht schlecht, davon auszugehen, das alle prachtvollen spiele nur noch in dx12 erscheinen, halte ich für falsch.
Angeblich soll die snowdropengine nen dx12 pfad bekommen. Ob der allerdings noch in Division zu sehen sein wird wage ich zu bezweifeln. Hoffentlich ist da aber jemand anderes zuständig als für das Balancing von Division...

dargo
2016-07-15, 10:50:40
ich fand division grafisch nicht schlecht, davon auszugehen, das alle prachtvollen spiele nur noch in dx12 erscheinen, halte ich für falsch.
Schon mal daran gedacht, dass The Devision für DX12 zu früh kam? Watch Dogs 2 kommt mit DX12 und dann sicherlich auch alles andere von Ubisoft mit den neuen Engines, wie zb. ein neues Assassin's Creed.

Setsul
2016-07-15, 10:53:33
@StefanV
Dann mal los, welche Chips wollen wir vergleichen?
Ich würde Tonga und Polaris 10 nehmen, man könnte aber auch Pitcairn nehmen, ähnlichere Größe.
Für nVidia GM204 und GP104?

Dino-Fossil
2016-07-15, 11:19:22
Es ist absehbar, dass alles, was Grafikleistung wirklich erfordern wird, auf den neuen APIs aufsetzen wird. Natürlich wird für viele kleinere Projekte DX11 aktuell bleiben, aber ganz sicher nicht bei den Grafikperlen.

Stimmt schon, aber es gibt auch bei AAA immer mal ein paar Nachzügler.
Beispiel: Bethesda - die hinken der aktuellen Technik immer 2-3 Jahre hinterher und die Spiele verkaufen sich trotzdem wie warme Semmeln.
Und dann gibt's eben auch die unselige Bindung von DX12 an Win10. Allein schon dadurch werden die meisten großen Spiele wohl noch für Jahre einen alternativen DX11-Renderpfad bieten, es sei denn die Entwickler setzen auf Vulkan (was zu wünschen wäre).

Elkinator
2016-07-15, 11:46:14
:uban:
Warum?
War doch nur die Wahrheit, noch sachlicher geht es wohl nicht!

Aber anderen Usern trollen vorwerfen :facepalm:
Ich habe nunmal mehr Ahnung als viele, nicht meine Schuld wenn du nicht alles verstehst:\

Dabei ist jedem klar, dass NVIDIA in Sachen Perf/Fläche vor AMD liegt. Nicht so deutlich wie in Perf/Leistungsaufnahme, aber doch deutlich.
Die Wahrheit tut wohl weh!

UnderTheRock
2016-07-15, 12:00:11
Ich habe nunmal mehr Ahnung als viele, nicht meine Schuld wenn du nicht alles verstehst:\
Ja, was verstehe ich auch nicht, dass GCN eine "DX11-API" (Zitat Elkinator) ist? ;D;D;D

Ach ja, stimmt: Weil das Bullshit ist.

Die Wahrheit tut wohl weh!
Ja, dir. Denn GP106 ist bei ~200mm² deutlich kleiner als P10 und trotzdem schneller.

Ergo: Bessere Leistung/Fläche.

Deshalb ist GP104 bei 35% mehr Fläche auch 60% schneller ;D

Aber wahrscheinlich pullst du jetzt deinen üblichen K12Beste: Einfach so lange die Lüge wiederholen, bis du sie selbst glaubst.

AtTheDriveIn
2016-07-15, 12:02:38
Stimmt schon, aber es gibt auch bei AAA immer mal ein paar Nachzügler.
Beispiel: Bethesda - die hinken der aktuellen Technik immer 2-3 Jahre hinterher und die Spiele verkaufen sich trotzdem wie warme Semmeln.
Und dann gibt's eben auch die unselige Bindung von DX12 an Win10. Allein schon dadurch werden die meisten großen Spiele wohl noch für Jahre einen alternativen DX11-Renderpfad bieten, es sei denn die Entwickler setzen auf Vulkan (was zu wünschen wäre).

mMn wird die Industrie wenig Rücksicht auf Win7/8 User nehmen, das war bei 64Bit auch ähnlich. Es wird einfach als Vorraussetzung für das Spiel gelistet und fertig.

Sehe es ansonsten ähnlich wie HOT: In naher Zukunft wird Dx11 keine Rolle mehr spielen bei den Großprojekten. In vielleicht 12 Monaten werden im Benchmarkparkour der gängigen Presse nur noch wenige nicht-DX12, nicht-Vulkan Titel zu finden sein. Sieht also ganz gut aus für AMD, alles ab R200 wird ordentlich gepushed. Auch Nvidia wird dadurch profitieren, nennenswert allerdings erst mit ihren post-Maxwell GPUs

Dino-Fossil
2016-07-15, 12:06:24
Denn GP106 ist bei ~200mm² deutlich kleiner als P10 und trotzdem schneller.

Warten wir erstmal unabhängige Reviews ab.
Wobei es unter DX11 sicherlich zutreffen wird. DX12/Vulkan bin ich mir noch nicht sicher, da könnte die 480 durchaus besser sein.

Bestes Argument pro 1060 wird aber für viele die Effizienz sein, ich schätze da wird man sich sehr deutlich von der in dieser Hinsicht etwas enttäuschenden 480 absetzen können.

UnderTheRock
2016-07-15, 12:11:44
Warten wir erstmal unabhängige Reviews ab.
Wobei es unter DX11 sicherlich zutreffen wird. DX12/Vulkan bin ich mir noch nicht sicher, da könnte die 480 durchaus besser sein.
Wenn wir mal von 200mm² für GP106 ausgehen (ich denke eher es wird etwas weniger, mal abwarten), müsste die RX480 15% schneller sein. Das halte ich für sehr unrealistisch, außer CherryPicking mit Doom. Über die Masse an Spielen aber einfach nicht möglich.

dildo4u
2016-07-15, 12:12:01
Ich sehe nicht wo DX12 durchgänig ein Win für AMD ist,vorallem wenn sie neue GPU's verkaufen wollen.Ihre alten halten ja offenbar ganz gut mit,das ist das Absurde NV wird deutlich eher was Neues verkaufen,da nur Pascal von Asynchron Compute profitiert.

dargo
2016-07-15, 12:12:40
Stimmt schon, aber es gibt auch bei AAA immer mal ein paar Nachzügler.
Beispiel: Bethesda - die hinken der aktuellen Technik immer 2-3 Jahre hinterher und die Spiele verkaufen sich trotzdem wie warme Semmeln.
Und dann gibt's eben auch die unselige Bindung von DX12 an Win10. Allein schon dadurch werden die meisten großen Spiele wohl noch für Jahre einen alternativen DX11-Renderpfad bieten, es sei denn die Entwickler setzen auf Vulkan (was zu wünschen wäre).
Du kennst aber schon die aktuellen Zahlen von Steam was die Verbreitung von Win10 angeht? Die Prozentzahl steigt kontinuierlich von Monat zu Monat.


Ja, dir. Denn GP106 ist bei ~200mm² deutlich kleiner als P10 und trotzdem schneller.

Du hast schon offizielle Benchmarks zum GP106? Zeig her. Und wieviele Low-Level Spiele sind im Parkour drin? Wir hatten auch schon gesehen wie schnell die GTX960/770 im Vergleich zum Tahiti (wie alt ist diese GPU bereits? 4 Jahre?) bei High-Level waren und wo sie jetzt bei LL stehen.

Ich sehe nicht wo DX12 durchgänig ein Win für AMD ist,vorallem wenn sie neue GPU's verkaufen wollen.Ihre alten halten ja offenbar ganz gut mit,das ist das Absurde NV wird deutlich eher was Neues verkaufen,da nur Pascal von Asynchron Compute profitiert.
Das ist also dein letztes Pro Argument für Nvidia? Dann bin ich beruhigt. :tongue: Kleiner Tipp... irgendwann wird auch bei AMD der Speicher limitieren. Es gibt genug Spieler mit Pitcairn, Tahiti, Hawaii mit 2, 3 und 4GB Speicher.

AffenJack
2016-07-15, 12:17:42
Warten wir erstmal unabhängige Reviews ab.
Wobei es unter DX11 sicherlich zutreffen wird. DX12/Vulkan bin ich mir noch nicht sicher, da könnte die 480 durchaus besser sein.

Bestes Argument pro 1060 wird aber für viele die Effizienz sein, ich schätze da wird man sich sehr deutlich von der in dieser Hinsicht etwas enttäuschenden 480 absetzen können.

Unter DX12 wird es ziemlich sicher die 480 sein, da muss man nur auf die Gflops gucken, denn die geben in DX12 halbwegs das Leistungsverhältnis wieder:

Referenz 480~1200mhz = 5,5 Tflops
Referenz 1060 im best case ~1700mhz =4,4 Tflops

Auch wenn Nvs Fps/Gflop höher ist, so ist der Unterschied in DX12 nicht mehr so groß. Da wird die 480 sicher siegen.

Setsul
2016-07-15, 12:18:56
@dargo
Lustigerweise wird aber gerade Valve Entwickler eher dazu bringen wollen Vulkan zu benutzen.

dargo
2016-07-15, 12:22:04
@dargo
Lustigerweise wird aber gerade Valve Entwickler eher dazu bringen wollen Vulkan zu benutzen.
Können sie tun, spricht ja nichts gegen. DX12 und Vulkan können wunderbar neben einander existieren.

tm0975
2016-07-15, 12:27:41
Deshalb ist GP104 bei 35% mehr Fläche auch 60% schneller ;D

Aber wahrscheinlich pullst du jetzt deinen üblichen K12Beste: Einfach so lange die Lüge wiederholen, bis du sie selbst glaubst.

ich dachte jetzt mehr an doom@vulcan. da wo die alten lahmen furies die 1070 locker stehen lassen. ich finde die orientierung an dx11 auch nicht sonderlich sinnvoll. der alte müll läuft doch sowieso schnell genug auf aktuellen karten. mich interessiert 4k in modernen api's, also dx12 und vulcan.

btw. gibts einen termin für die 480 nitro? war irgendo zu lesen, ob schon testsamples von den customs verschickt wurden?

Dino-Fossil
2016-07-15, 12:34:14
btw. gibts einen termin für die 480 nitro? war irgendo zu lesen, ob schon testsamples von den customs verschickt wurden?

Sapphire hat inoffiziell(?) was für nächste Woche ge-teased.

UnderTheRock
2016-07-15, 12:37:22
Und wieviele Low-Level Spiele sind im Parkour drin?
ich dachte jetzt mehr an doom@vulcan.
Ich sehs schon, wie demnächst jedes Review gebasht wird, bei dem Doom mit Vulkan nicht getestet wird :facepalm:

Kommt wieder so ein "mimimim-PCGH-ist-so-böse" :P

Sorry, Doom unter Vulkan ist einfach Cherrypicking.

scully1234
2016-07-15, 12:40:06
ich dachte jetzt mehr an doom@vulcan. da wo die alten lahmen furies die 1070 locker stehen lassen.

Ist das jetzt das neue Porno Heftchen an dem man sich aufgeilt ?

Von Ast zu Ast zu huepfen ist vielleicht nicht sonderlich zielfuehrend ,wenn der Wald morsch ist...

Koennte sein das einem ein kurzes Intermezzo bevor steht, wenn man nicht das grosse Ganze betrachtet, sondern nur ein Feature aus nem kompletten Featureset

Ausserdem hat Beteshda dazu doch schon ein Bisschen was erklaert warum und wieso das derzeit so aussieht...

iuno
2016-07-15, 12:40:16
Leider laesst Vega noch so lange auf sich warten, dass die idiotischen Maerchen dafuer leider weiterleben duerfen.

Dann erleuchte uns doch :P
Was genau ist idiotisch? Dass es zwei Vega chips gibt? Dass V10 = Greenland ist?

AtTheDriveIn
2016-07-15, 12:44:40
Sorry, Doom unter Vulkan ist einfach Cherrypicking.

Mag im Moment stimmen, aber das Positive ist eben, dass es zeigt wohin die Reise geht. Die Hardware von AMD wird besser ausgenutzt und nicht mehr so stark durch den Treiber gebremst. AMD wird sicher sehr zufrieden sein, dass ihr Rückstand in der Treiberentwicklung sich quasi in Luft auflöst.

Intel dürfte sich ärgern, da ihr CPU Performancevorteil bei Spielen weniger ins Gewicht fällt. Auch hier profitiert AMD, diesmal als CPU Entwickler.

UnderTheRock
2016-07-15, 12:49:44
Mag im Moment stimmen, aber das Positive ist eben, dass es zeigt wohin die Reise geht. Die Hardware von AMD wird besser ausgenutzt und nicht mehr so stark durch den Treiber beeinflusst.
Nicht wirklich, bisher war alles mit Unterstützung von AMD optimiert. Interessant wird es, wenn die Entwickler alleine arbeiten, ohne die Hilfe von AMD. Dann wird es beileibe sehr ungemütlich *hust* projectcars *hust*

Was genau ist idiotisch? Dass es zwei Vega chips gibt? Dass V10 = Greenland ist?
ich denke er meint das Loblied, dass jetzt schon wieder auf Vega angestimmt wird und das hinterher genauso verpuffen wird wie bei Polaris.

G3cko
2016-07-15, 12:51:07
ich fand division grafisch nicht schlecht, davon auszugehen, das alle prachtvollen spiele nur noch in dx12 erscheinen, halte ich für falsch.

Divion ist ein gutes Beispiel für GCN Konsolen-Optimierung. Die 7970ghz ist hier auf Titan1 Niveau. Nur oben raus mangelt es am overhead. Ist hier ersteinmal ein dx12 integriert sieht auch hier nvidia kein Land.


http://www.3dcenter.org/news/die-grafikkarten-performance-unter-division

scully1234
2016-07-15, 12:58:34
Ist hier ersteinmal ein dx12 integriert sieht auch hier nvidia kein Land.


http://www.3dcenter.org/news/die-grafikkarten-performance-unter-division

ein Bisschen Realitaet fuer den Boden unter den Fuessen...


https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

macht einen ab und an mal weniger zum Man mit der roten Nase in der Manege

obwohl so nen Hypetrain zu fahren scheint fuer einige wohl lustiger als die Realitaet

Linmoum
2016-07-15, 13:01:04
ein Bisschen Realitaet fuer den Boden unter den Fuessen...


https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102448&postcount=3616

Mehr muss man dazu erstmal nicht sagen, ansonsten reale Spieleperformance nehmen und auf Doom warten. Dort wird es hoffentlich nicht so ewig wie bei der "Freischaltung im Treiber" dauern, bis AC auch auf Nvidia funktioniert.

dargo
2016-07-15, 13:12:09
Nicht wirklich, bisher war alles mit Unterstützung von AMD optimiert. Interessant wird es, wenn die Entwickler alleine arbeiten, ohne die Hilfe von AMD. Dann wird es beileibe sehr ungemütlich *hust* projectcars *hust*

Genau... weil bei pCars Nvidia überhaupt nicht beteiligt war. :facepalm: Sag mal... hast du dir den neuen Account nur angelegt um in diesem Forum Unruhe zu stiften? Den Eindruck gewinnt man immer mehr.

Thunder99
2016-07-15, 13:44:55
Wenn Vega nicht mehr 2016 kommen sollte wäre das wohl sehr bitter. Das Weihnachtsgeschäft braucht AMD umso mehr!

Zu Vulkan und AMD Stärke sollte man das nicht überbewerten aber es kann durchaus sein wohin die Reise geht. Und zeigt halt auch das nvidia wo es darauf ankommt schon den OpenGL Treiber optimiert hat was AMD halt nicht in dem Maßen macht, meiner Meinung nach.

Dino-Fossil
2016-07-15, 13:48:14
Sorry, Doom unter Vulkan ist einfach Cherrypicking.

Wenn man es als einziges Beispiel nimmt mag das sein, aber in einem breiten Feld aus verschiedenen Vulkan- und DX12-Titeln wohl kaum.
Und dann wird man ja hoffentlich sehen, wie sich GCN vs Maxwell/Pascal in den neuen APIs verhält - und auch einen Vergleich zu DX11 ziehen können.

Schnoesel
2016-07-15, 13:49:48
An was es letztendlich liegt ist doch ziemlich egal. Imo ist es Fakt das AMD und Nvidia unter Vulkan/DX12 wieder enger zusammenrücken und das sollte uns eigentlich alle freuen.

PS: Was ich vermisse ist ein DX12/Vulkan Special von allen Spielen die die neuen APIs jetzt schon nutzen. So wenige sind es doch mittlerweile gar nicht:

AOTS
Hitman
DOOM
Tomb Raider
Quantum Break
GOW
The Talos Principle
Forza
Warhammer
...

Könnte zumindest einen Ausblick geben wohin die Reise geht oder gibts da immer noch technische Probleme?

Setsul
2016-07-15, 14:28:56
@dargo
Ich sollte mich wohl deutlicher ausdrücken: Valve will Vulkan auf jeden Fall wegen SteamOS. Windows 7/8 komplett auszuschließen ist Schwachsinn also bleibt die Wahl zwischen 4 Möglichkeiten:
1. Vulkan für SteamOS, DX11 für Win 7/8/10
2. Vulkan für SteamOS, DX11 für Win 7/8, DX12 für Win 10
3. Vulkan für SteamOS und Win 7/8, DX12 für Win 10
4. Vulkan für alles.

Darauf wollte ich hinaus. Dort wo der Anteil von Win 10 am höchsten ist (Steam) ergibt DX12 am wenigsten Sinn. Valve selbst will und wird DX12 nicht nutzen und wenn sie Steam Machines retten wollen werden sie versuchen möglichst viele davon zu überzeugen das Selbe zu tun.

Genauso hat Microsoft gewisse Interessen an UWP / DX12. Gerade UWP und Win 10 Exklusivität verkomplizieren das ganze einfach. Sonst hätten die meisten Vulkan links liegen gelassen und wären nur von DX11 zu DX12 gegangen, aber Microsoft strengt sich wirklich an das alles so schmerzhaft wie möglich zu machen.

Pirx
2016-07-15, 14:48:44
Sehe ich auch so, wenn es nicht technische (oder kurzfristig monetäre) Gründe gibt, warum sollte ein Entwickler nicht Vulkan nutzen? Damit hätte er grundsätzlich alle User im Boot (und noch mehr:D).

dargo
2016-07-15, 14:52:51
Zu Vulkan und AMD Stärke sollte man das nicht überbewerten aber es kann durchaus sein wohin die Reise geht. Und zeigt halt auch das nvidia wo es darauf ankommt schon den OpenGL Treiber optimiert hat was AMD halt nicht in dem Maßen macht, meiner Meinung nach.
Die Tests im starken CPU-Limit zeigen genau das Gegenteil.


PS: Was ich vermisse ist ein DX12/Vulkan Special von allen Spielen die die neuen APIs jetzt schon nutzen. So wenige sind es doch mittlerweile gar nicht:

AOTS
Hitman
DOOM
Tomb Raider
Quantum Break
GOW
The Talos Principle
Forza
Warhammer
...

Könnte zumindest einen Ausblick geben wohin die Reise geht oder gibts da immer noch technische Probleme?
Die technischen Probleme heißen da UWP. Außer Warhammer... das hat noch einen ziemlichen Betastatus.

Sehe ich auch so, wenn es nicht technische (oder kurzfristig monetäre) Gründe gibt, warum sollte ein Entwickler nicht Vulkan nutzen? Damit hätte er grundsätzlich alle User im Boot (und noch mehr:D).
Weil ne XB1 und nächstes Jahr Scorpio DX12 verwenden. Die Portierung dürfte somit einfacher für den PC sein als bei Vulkan neu anzusetzen.

AffenJack
2016-07-15, 14:52:58
Leichteste Portierbarkeit von der Xbox One unter Umständen, während Vulkan mehr Arbeit macht? Das könnte ich mir zumindest als Grund vorstellen, falls es so ist.

Schnoesel
2016-07-15, 15:06:28
Die technischen Probleme heißen da UWP. Außer Warhammer... das hat noch einen ziemlichen Betastatus.

Hieß es nicht Microsoft wolle das lösen im Mai? Das ist so ein Käseverein das gibts nicht. Bereue es mittlerweile schon auf Win 10 umgestiegen zu sein.

N0Thing
2016-07-15, 15:08:05
Leider laesst Vega noch so lange auf sich warten, dass die idiotischen Maerchen dafuer leider weiterleben duerfen.

Wenn du dich hier als Märchenonkel so rar machst, müssen eben andere Leute einspringen. :P :D

dargo
2016-07-15, 15:15:14
Hieß es nicht Microsoft wolle das lösen im Mai? Das ist so ein Käseverein das gibts nicht. Bereue es mittlerweile schon auf Win 10 umgestiegen zu sein.
Microsoft hat zwar Ahnung von Betriebssystemen, vom PC-Gaming aber offenbar nicht. Ich weiß ja nicht was die unter "Probleme lösen" verstehen... ich verstehe darunter jedenfalls was anderes.

Beispiel Forza 6: APEX.

Versprochen wurde Vsync Off. Davon ist aber im Prinzip nichts gekommen denn die Framerate ist immer noch bis 90fps an die Bildschirmfrequenz gekoppelt (zwischen 91 und 119Hz nicht getestet). Witziger wird es mit 120 und 144Hz. Da haste plötzlich nur noch die Hälfte, nämlich 60 und 72fps obwohl die Hardware mehr kann. :crazy: Versprochen wurde VRR. Gekommen ist zwar VRR, aber völlig kaputt. Was bringt mir VRR wenn ich ständiges Ruckeln bis Mikroruckeln habe? Gar nichts. Ich möchte allerdings nicht unbedingt die ganze Schuld Microsoft geben schließlich könnte es auch an den Devs liegen. Für Turn 10 bsw. ist die PC-Plattform Neuland. Imho sollte MS den ganzen UWP Mist über Bord werfen und einen exklusiven Fullscreen dafür anbieten. Hat Jahrzehnte bestens funktioniert, plötzlich trennt man sich davon :down:, weil man ja so schneller auf den Desktop wechseln kann. X-D

Lurtz
2016-07-15, 15:42:30
Leichteste Portierbarkeit von der Xbox One unter Umständen, während Vulkan mehr Arbeit macht? Das könnte ich mir zumindest als Grund vorstellen, falls es so ist.
Es hieß doch schon unter der Hand, dass das DX der XBone doch ziemlich unterschiedlich zum PC wäre.

Microsoft hat zwar Ahnung von Betriebssystemen, vom PC-Gaming aber offenbar nicht. Ich weiß ja nicht was die unter "Probleme lösen" verstehen... ich verstehe darunter jedenfalls was anderes.

Beispiel Forza 6: APEX.

Versprochen wurde Vsync Off. Davon ist aber im Prinzip nichts gekommen denn die Framerate ist immer noch bis 90fps an die Bildschirmfrequenz gekoppelt (zwischen 91 und 119Hz nicht getestet). Witziger wird es mit 120 und 144Hz. Da haste plötzlich nur noch die Hälfte, nämlich 60 und 72fps obwohl die Hardware mehr kann. :crazy: Versprochen wurde VRR. Gekommen ist zwar VRR, aber völlig kaputt. Was bringt mir VRR wenn ich ständiges Ruckeln bis Mikroruckeln habe? Gar nichts. Ich möchte allerdings nicht unbedingt die ganze Schuld Microsoft geben schließlich könnte es auch an den Devs liegen. Für Turn 10 bsw. ist die PC-Plattform Neuland. Imho sollte MS den ganzen UWP Mist über Bord werfen und einen exklusiven Fullscreen dafür anbieten. Hat Jahrzehnte bestens funktioniert, plötzlich trennt man sich davon :down:, weil man ja so schneller auf den Desktop wechseln kann. X-D
One seamless desktop experience. Die verkaufen dir das noch als Feature.

dargo
2016-07-15, 15:43:36
Es hieß doch schon unter der Hand, dass das DX der XBone doch ziemlich unterschiedlich zum PC wäre.

Unterschiedlicher zu Vulkan oder weniger unterschiedlich?

TheGood
2016-07-15, 15:51:45
Polaris sollte/musste für den Treiber gleich ausschauen wie die Vorgänger, wahrscheinlich auch in Hinblick auf die Konsolen.
...

DAs ist natürlich eine interessante These.

Ich gebe auch zu beachten dass Polaris 10 zuerst entwickelt wurde und danach Polaris 11. Vielleicht unterscheiden sich diese beiden Architekturen sogare deutlich in den Stromsparmechanismen? Erste Andeutungen dazu gibt es ja bereits.

Schaffe89
2016-07-15, 16:18:36
Sorry, aber du hast keinen blassen Schimmer wovon du redest.

Der Unterschied ist halt dass ich Directx12 als Verbesserung für AMD sehe, aber nicht als generellen Leistungsschub betrachte, das ist halt nunmal das Fazit das man nach den bisherigen Tests ziehen sollte, alles andere ist das übliche penetrante Übersteigern, das du genauso den Nvidia Anhängern mehrfach vorwirfst. Man sollte das ganze einfach mit Gelassenheit sehen.

Ich denke der aktuelle Directx12 Benchmark zeigt es ganz gut.

Unter Directx12: GTX480 auf dem Niveau einer GTX 980, Fijii leicht über GTX 980 Ti
Directx12 ist außer bei async compute übrigens nicht dafür Zuständig die Auslastung von AMD´s Design auszubügeln, das kann Directx12 oder Vulkan gar nicht.

Bei Mantle damals hat man auch relativ schnell gemerkt das das nicht so ist.
Verbesserungen in niedrigeren Auflösungen und durch async compute ja, aber das sind doch minimale, also 5 bis 10%. Besser als nichts und das tut dem Markt gut, wenn eine rx480 zumindest auf die GTX 1060 dann aufschließen kann.

dargo
2016-07-15, 16:31:17
Der Unterschied ist halt dass ich Directx12 als Verbesserung für AMD sehe, aber nicht als generellen Leistungsschub betrachte, das ist halt nunmal das Fazit das man nach den bisherigen Tests ziehen sollte, alles andere ist das übliche penetrante Übersteigern, das du genauso den Nvidia Anhängern mehrfach vorwirfst. Man sollte das ganze einfach mit Gelassenheit sehen.

Und genau das ist falsch! Je nach Hardwarekonstellation, Spiel und Spielszene ist der Leistungsschub sogar gigantisch.

MR2
2016-07-15, 16:41:20
http://www.pcgameshardware.de/3DMark-Software-122260/News/Time-Spy-DirectX-12-1201680/

Hoffentlich kommt die rx490 nicht doch als x2

dargo
2016-07-15, 16:51:54
Warum nicht? Wenn es genug Käufer dafür gibt... ansonsten würde man die nicht bringen. Vielleicht verspricht man sich davon mehr Absatz bei VR. Vega wird denke ich unter komplett anderer Bezeichnung kommen... zb. Fury 2.

Schaffe89
2016-07-15, 17:03:41
Und genau das ist falsch! Je nach Hardwarekonstellation, Spiel und Spielszene ist der Leistungsschub sogar gigantisch.

Dir ist schon klar, dass die Verbesserungen bei Vulkan und Doom unter 4K sogut wie ausbleiben, was das im einzelnen bedeutet muss man doch jetzt nicht extra erklären, man fährt halt voll ins Grafiklimit und siehe da GTX 1070 und Fury X in etwa gleichauf, wie zu erwarten.

In den Auflösungen darunter siehst du eine gute AMD Skalierung, aber das wird ein Nvidia Treiber teilweise wieder hinbügeln, da bin ich mir sicher und wenn das nicht passiert gibt es andere Spiele die Nvidia wieder besser liegen.

Dino-Fossil
2016-07-15, 17:10:13
Die Frage ist doch, ob NVidia ihre Leistungsreserven bereits in DX11 ausfahren können und deswegen durch DX12/Vulkan nicht viel dazu gewinnen, während AMD's GCN-Architektur durch DX12/Vulkan die Rohleistung endlich auch auf die Straße bringen.

In dem Fall kann NVidia nämlich durch Treiberverbesserungen nicht viel reißen, es ist einfach kaum brachliegende Leistung vorhanden. Profitieren würden NVidia Karten natürlich immer noch von der CPU-Entlastung (wenn auch wiederum möglicherweise weniger als AMD).

dargo
2016-07-15, 17:12:21
Mein Gott... Schaffe, hast du nen Brett vor dem Kopf?

Schau dir einfach die einzelnen Benchmarks zu Doom und Vulkan im Vulkanthread an. Das ist echt nicht mehr auszuhalten. Dort steht alles drin, auch Skalierungen mit Nvidia! Seit wann ist 4K Standard am PC? Die Masse ist bei 1080p, ein kleinerer Teil bei 1440p und ein winziger bei 4k. Hast du aktuell eine schnelle CPU wirst du in 4k die Vorteile in Doom bei NV erst mit einer Grafikkarte GTX1080*2, noch stärkere Vorteile mit GTX1080*3 sehen, und zwar mit deiner aktuellen CPU und nicht mit einer die in 2-4 Jahren aktuell ist. Ist das echt so schwer zu verstehen?

Hakim
2016-07-15, 17:15:43
Das würde doch z.B bei den Performance Rating werten die 490 schlecht aussehen lassen wenn das CF zwar sagen wir in 7 von 10 Spielen funktioniert und die 3 Spiele den Wert nach unten ziehen. Was aber auch insgesamt ok wäre da dies ja auch tatsächlich die Realität entsprechen würde. Also auch die Spiele Berücksichtigen die nicht davon profitieren.