PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

gedi
2016-06-02, 21:03:52
Ich würde da eine Boost-Funktion ähnlich derer NVs erwarten, also >5TFlops up to 5.83TFlops

maximus_hertus
2016-06-02, 21:04:03
Die Frage ist ja, ob die 1266 MHz eine Art Max-Boost sind oder ein "dauerhafter" Takt.

scully1234
2016-06-02, 21:04:09
Mythos;11054586'] Wenn man euch drei noch ein paar Stunden weiter fantasieren lässt, .

Die Aussage kam von Hallock himself, also rueck dein verletztes Ego gerade ,und komm klar damit...

Das und nicht mehr wurde gepostet, und hier bekommen gleich einige nen Herzkasper deswegen,weil ihre Kalkulation nun nicht mehr stimmt:freak:

dildo4u
2016-06-02, 21:06:52
die 1266MHz kann man doch inzwischen als recht fest ansehen... oder habe ich das falsch verstanden?
Es steht gar nix fest vielleicht kann die Karte die Taktrate unter Last nicht lange halten.Nano drosselt ja z.b gerne mal.

http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/3/#abschnitt_die_turbotaktraten_der_r9_nano

Elkinator
2016-06-02, 21:07:37
die 1266MHz kann man doch inzwischen als recht fest ansehen... oder habe ich das falsch verstanden?
Das soll der Basiatakt sein, ob und wie hoch der Boost geht ist nicht bekannt.

Gegen die GTX 1070 wird die RX 480 aber eh nicht ankommen.

P10 soll aber 40 CUs haben, vielleicht komtm noch eine Karte mit vollem Chip!

maximus_hertus
2016-06-02, 21:09:22
Wie man in diversen Foren (von diversen Redakteuren) mitbekommt, wird die RX 480 wohl nicht die GTX 980 "packen", aber schneller als die GTX 970 raus kommen. Im Prinzip genau wie die R9 390. Ich könnte mir gut vorstellen, dass die R9 390 ganz knapp geschlagen wird (Full HD) und in 4K liegt dann die R9 390 wieder ganz leicht vorne. Im Mittel also grob +0-5% zur R9 390 Performance und daher ziemlich in der Mitte zwischen GTX 970 und GTX 980. Aber es kann auch nur Fake etc. sein. Also ruhig Blut, sind ja nicht mal 4 Wochen bis zu den Reviews :)

Und ganz ehrlich, wer interessiert hier die RX 480 bzw. die bisherigen Pascal Karten? Unter 12-13 TFlops ist doch alles nur Kleinkrieg und nicht der Rede wert :D


Edit: Zur 83% Aussage => vielleicht beziht sich das auf alle Auflösungen mit dem entsprechenden Detail-Setting, so dass es für den speziellen Bench nicht 100% passt? Es gibt einfach zu viele Fragezeichen, um hier ernsthaft wegen einer "AMD Marketing" (ok, der war schlecht :D ) Aussage hier die Performance zu bestimmen.

dargo
2016-06-02, 21:10:15
Die Frage ist ja, ob die 1266 MHz eine Art Max-Boost sind oder ein "dauerhafter" Takt.
Spielt bei reiner Betrachtung der theoretischen Leistung keine Rolle. Bei Nvidia beziehen sich die TFLOPs auch auf den offiziellen Boosttakt. Wenn du da eine GTX1080 FE als Beispiel nimmst dann hat die keine 8,87TFLOPs mehr sondern "nur" noch 8,2TFLOPs weil sie nach einer ordentlichen Aufwärmphase mit ~1,6Ghz taktet, also eher dem Basistakt.

[MK2]Mythos
2016-06-02, 21:11:12
P10 soll aber 40 CUs haben, vielleicht komtm noch eine Karte mit vollem Chip!
Wie bereits erwähnt, wurde bei der Präsentation auch nur von 36 CUs gesprochen, woher kommt dieses hartnäckige Gerücht über 40 CUs?

Ravenhearth
2016-06-02, 21:11:20
Ich glaube auch, dass die 1266MHz nur der maximale Boost sind wie bei der Nano, und die Karte die meiste Zeit niedriger taktet, so zwischen 1100 und 1200 MHz, das sind dann auch immer >5 TFLOPs

dargo
2016-06-02, 21:14:52
Mythos;11054609']Wie bereits erwähnt, wurde bei der Präsentation auch nur von 36 CUs gesprochen, woher kommt dieses hartnäckige Gerücht über 40 CUs?
Soweit ich weiß wurde nur speziell von einer RX480 mit 36 CUs gesprochen. Das muss ja nicht zwangsläufig eine RX485/490 mit 40CUs ausschließen. Alles noch relativ offen.

dildo4u
2016-06-02, 21:15:07
Wie man in diversen Foren (von diversen Redakteuren) mitbekommt, wird die RX 480 wohl nicht die GTX 980 "packen", aber schneller als die GTX 970 raus kommen. Im Prinzip genau wie die R9 390. Ich könnte mir gut vorstellen, dass die R9 390 ganz knapp geschlagen wird (Full HD) und in 4K liegt dann die R9 390 wieder ganz leicht vorne. Im Mittel also grob +0-5% zur R9 390 Performance und daher ziemlich in der Mitte zwischen GTX 970 und GTX 980. Aber es kann auch nur Fake etc. sein. Also ruhig Blut, sind ja nicht mal 4 Wochen bis zu den Reviews :)

Und ganz ehrlich, wer interessiert hier die RX 480 bzw. die bisherigen Pascal Karten? Unter 12-13 TFlops ist doch alles nur Kleinkrieg und nicht der Rede wert :D
Die Karte ist gut da die neue PS4 die selbe GPU hat,man wird also in 1080p lange damit auskommen.Nur sollte man halt realistische Erwartungen haben,bei 199$ muss AMD ja auch noch ein bissel Gewinn machen.

Ich glaube auch, dass die 1266MHz nur der maximale Boost sind wie bei der Nano, und die Karte die meiste Zeit niedriger taktet, so zwischen 1100 und 1200 MHz, das sind dann auch immer >5 TFLOPs
Jup das würde die Folie erklären wenn der Takt schwankt können sie keine Konkrete Zahl nennen.

Dino-Fossil
2016-06-02, 21:15:47
Mythos;11054609']Wie bereits erwähnt, wurde bei der Präsentation auch nur von 36 CUs gesprochen, woher kommt dieses hartnäckige Gerücht über 40 CUs?

Wunschdenken.

Aber wer weiß, manche Wünsche werden ja wahr, vielleicht auch der.
Würde da aber fürs erste keine so großen Hoffnungen reinlegen.

Hakim
2016-06-02, 21:19:37
hm wenn das stimmt könnte die RX480 und GTX1060 auf ziemlich selben Niveau liegen, wenn die Darstellung bei Inno3D mit der Einordnung der möglichen 1060 zwischen 970 und 980 steht. Mal die Tests abwarten, ich hab nur das Gefühl das selbst wenn es so wäre NV dennoch mehr verlangen wird als die 199$

y33H@
2016-06-02, 21:20:11
Das soll der Basistakt sein, ob und wie hoch der Boost geht ist nicht bekannt.Wo hast du das denn her? :freak:

[MK2]Mythos
2016-06-02, 21:23:00
Auf einer Folie war afair ganz eindeutig Polaris mit 36 CUs beziffert.
Wie dem auch sei, ich habe bereits im März meine Vermutung geäußert, P10 würde auf dem Niveau von R390 landen, was nun so eingetroffen ist und auch okay ist. AMD wird mit Sicherheit viele Käufer für die Karte finden.
Nun müssen sie nur noch Ende des Jahres ZEN und Vega bringen und der Laden läuft wieder.

Elkinator
2016-06-02, 21:30:20
Mythos;11054609']Wie bereits erwähnt, wurde bei der Präsentation auch nur von 36 CUs gesprochen
Weil die RX 480 auch nur 36CUs aktiv hat.

gedi
2016-06-02, 21:30:46
Ich habe mal eine Frage zum aots-Benchmark: Ist es prinzipiell möglich auf AMD-Karten AC zu deaktivieren und trotzdem den DX12-Renderpfad zu benutzen?

dildo4u
2016-06-02, 21:36:39
Ja man kanns in einer ini abschalten.


http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/

gedi
2016-06-02, 21:40:13
Wäre eine solche Aktion im Benchbrowser sichtbar?

dildo4u
2016-06-02, 21:43:25
Denke schon nur wird AMD keine Benches ohne AC hochladen.

gedi
2016-06-02, 21:47:35
Nur so ergibt das Ergebnis allerdings Sinn und so passt auch die Leistung im Vergleich zu Hawaii und Fiji.

dildo4u
2016-06-02, 21:51:28
Wie gesagt es ist möglich das sich der Takt wie bei der Nano absenkt unter Last,daher gibt AMD keine feste TFlops Zahl an.Man sollte bedenken DX12 wird gerade die AMD's deutlich besser auslasten als DX11,das könnte die Karte vielleicht bei Ashes ins TDP Limit zwingen.Es macht auch Sinn die Karte so zu beschränken wenn sie nur mit 1X6 Pin kommt.

dargo
2016-06-02, 21:59:29
Wie gesagt es ist möglich das sich der Takt wie bei der Nano absenkt unter Last,daher gibt AMD keine feste TFlops Zahl an.
Du vergleichst hier ernsthaft einen fetten ~600mm² Fiji der extrem auf Effizienz getrimmt wurde mit einem ~232mm² Polaris 10? :uconf3:

Ravenhearth
2016-06-02, 22:02:08
Das ist doch kein Argument, Polaris kann genauso gut eine ähnliche Limitierung haben.

dildo4u
2016-06-02, 22:03:04
Die Karte kommt nur mit 1X6Pin daher könnte das TDP Limit recht streng sein.
Wer weiß in was für billig OEM Rechner die Karte verbaut werden soll bei 199$ wäre ich auch sehr Konservativ,da manche Hersteller die Karte bestimmt mit einem China Böller NT verbauen.

gedi
2016-06-02, 22:05:35
Der Boost wird sich anders auswirken, als auf anderen Radeons - denke ich mal. Bisher konnte AMD (u.a. auch bei Nano) immer einen festen TFlop-Wert angeben. Ich vermute, dass der Boost ähnlich gelöst ist wie bei NV. Sprich Standarttakt ca. 1.1G, Boost bei PT100% bis zu 1.266G. Wenn man das PT erhöht, dann gibbet auch unter Umständen mehr GPU-Takt.

dargo
2016-06-02, 22:08:24
Das ist doch kein Argument, Polaris kann genauso gut eine ähnliche Limitierung haben.
:facepalm:

P10 hat 39% Die-Größe von Fiji und 25W weniger TDP als die Nano und dann soll Ersterer auch so harte Limits bekommen? :crazy:

Edit:
Wo sind die harten Limits bei Tonga Pro geblieben, der immer noch deutlich größer als P10 ist?
AMD PowerTune-Limits

Die maximale Leistungsaufnahme ohne manuellen Treibereingriff lag bei rund 160 Watt in Spielen. AMD nennt die TDP der R9 285 mit 190 Watt. Unter Furmark konnten wir die Leistungsaufnahme auf rund 185 Watt steigern – somit bleibt insgesamt noch viel Luft für mögliches Übertakten.
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index16.php

Selbst mit Furmark kam man bei der Club3D nicht ins TDP-Limit und konnte die 945Mhz halten, was immer noch minimales OC vom Hersteller ist. Default warens 918Mhz.
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index11.php

Dildo fantasiert mal wieder nur rum.

Ravenhearth
2016-06-02, 22:23:01
Vielleicht gibts auch ein Temp-Limit wie bei Hawaii am Anfang, oder weißt du mehr als wir?

gedi
2016-06-02, 22:42:51
:facepalm:

P10 hat 39% Die-Größe von Fiji und 25W weniger TDP als die Nano und dann soll Ersterer auch so harte Limits bekommen? :crazy:

Edit:
Wo sind die harten Limits bei Tonga Pro geblieben, der immer noch deutlich größer als P10 ist?

http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index16.php

Selbst mit Furmark kam man bei der Club3D nicht ins TDP-Limit und konnte die 945Mhz halten, was immer noch minimales OC vom Hersteller ist. Default warens 918Mhz.
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index11.php

Dildo fantasiert mal wieder nur rum.

... auch 6TFlops bedeuten >5TFlops

Jetzt fantasiere ich auch mal

PT 100%: 1.1G-1.26G ~110W - ~130W
PT Maxed out: up to ~1.37G - ~ 150W

|MatMan|
2016-06-02, 23:07:00
Fixe Taktraten sind irgendwie old-school. Wo gibt es denn sowas noch, außer bei den älteren AMD GPUs? Es hat doch sonst alles an CPUs und GPUs "Turbo"-Modes um Temperatur- und Power-Spielräume auszunutzen!

StefanV
2016-06-02, 23:21:19
Gegen die GTX 1070 wird die RX 480 aber eh nicht ankommen.
Warum??

Ich sehe dafür nicht unbedingt einen Grund - außer natürlich nVidias Treiberspielchen, die aber unter DX12 nicht mehr so besonders gut funktionieren...

Und das dürtfte auch der Grund sein, warum z.B. die R9-280X im PCGH Bench von The Division sich mit der GTX780 anlegen kann - von der Rohleistung sind beide nicht so wirklich weit entfernt. Und jetzt auch bei der auf die Straße gebrachte Leistung, eben weil hier nicht mehr bis der Arzt kommt, optimiert wurde...

krissbay
2016-06-02, 23:27:31
Fixe Taktraten sind irgendwie old-school. Wo gibt es denn sowas noch, außer bei den älteren AMD GPUs? Es hat doch sonst alles an CPUs und GPUs "Turbo"-Modes um Temperatur- und Power-Spielräume auszunutzen!

ein GPU ist kein CPU. GPU-boost sollte mMn. nicht existieren. der GPU-boost Takt führt zu Unterschieden zwischen Modellen der gleichen Serie, da dieser Takt nicht von allen Exemplaren erreicht werden kann.
Wenn AMD z.B eine GPU Takt von 1200 Mhz angibt, hat man die Garantie dass alle Exemplare das gleiche Verhalten zeigen werden.

StefanV
2016-06-02, 23:29:09
Denke schon nur wird AMD keine Benches ohne AC hochladen.
Um die Leistungsfähigkeit der eigenen Chips zu verschleiern, warum sollten sie das nicht tun, wenn sie auch ohne AC das gewünschte Ergebnis bekommen können?!


Denn bisher schauts ja eher schlecht aus, was Aussagen zu der Leistungsfähigkeit der Polaris Chips betrifft.
Da hält sich AMD überraschend zurück und stapelt sehr tief...


Von daher sollten wir, was die Performance betrifft, erst mal die Füße still halten und abwarten, was denn nun letztendlich kommt.
Es ist ja auch nicht auszuschließen, dass man bisher noch gar nicht das 'Finale BIOS' benutzt und die Retail Karten ein anderes haben könnten...

Woher wissen wir denn, dass die 1266MHz, die gesichtet wurden, der Realität entsprechen?
Woher wissen wir, dass hier ein BIOS mit Retail Settings ist und kein Preproduction Sample mit niedrigeren Taktraten als die MP liefert?
Woher wissen wir, dass die Polaris die GTX 1070 gar nicht erreichen können?!

Da ist noch vieles offen, da es keinerlei belastbaren Werte gibt, kann man nur vermuten und hoffen - und am Ende kommt es doch ganz anders.

Das einzige, was bestätigt wurde, ist, dass man ab dem 10. anfängt, die Polaris Karten auszuliefern.
Und dass eine Version für 199$ im Handel sein wird...

Aber woher wissen wir, dass das hier jetzt der große ist und nicht der kleine, teildeaktivierte?!
Woher wissen wir das alles?!

dildo4u
2016-06-02, 23:40:25
Und das dürtfte auch der Grund sein, warum z.B. die R9-280X im PCGH Bench von The Division sich mit der GTX780 anlegen kann - von der Rohleistung sind beide nicht so wirklich weit entfernt. Und jetzt auch bei der auf die Straße gebrachte Leistung, eben weil hier nicht mehr bis der Arzt kommt, optimiert wurde...
Ubisoft verkauft irgendwas im Bereich 80-90% auf Konsole natürlich wird die Engine auf GCN optimiert und das schmeckt der 280X.Wäre das nicht der Fall hätte das Team versagt vorallem da Kepler seit der 970 immer weniger vom Markt ausmacht,also warum sollte Ubisoft drauf achten ob es auf einer 780 gut performt.

Dino-Fossil
2016-06-02, 23:40:44
Woher wissen wir, dass die Polaris die GTX 1070 gar nicht erreichen können?!

Viel kleinerer Chip auf niedrigeren Taktraten, der für ein niedrigeres Segment gedacht ist.
Alle Leaks (so wenige es auch sind) deuten klar in Richtung der Performance einer 390(x) oder zwischen 970 und 980. Vielleicht in einigen Fällen mal etwas mehr (wenn ein Spiel der Architektur besonders liegt).
Der Chip, der es mit der 1070 und 1080 aufnehmen soll, wird Vega sein.

AMD wird nicht plötzlich einen 2 GHz Polaris raushauen, schon gar nicht nach dem jüngsten Presseevent. Und sicherlich hätten sie dann den Preis nicht so niedrig angesetzt.

Nakai
2016-06-02, 23:44:21
eine GPU ist kein CPU. GPU-boost sollte mMn. nicht existieren. der GPU-boost Takt führt zu Unterschieden zwischen Modellen der gleichen Serie, da diese Takt nicht von allen Exemplaren erreicht werden kann.
Wenn AMD z.B eine GPU Takt von 1200 Mhz angibt, hat man die Garantie dass alle Exemplare das gleiche Verhalten zeigen werden.

Das gilt genauso für CPUs.


Und das dürtfte auch der Grund sein, warum z.B. die R9-280X im PCGH Bench von The Division sich mit der GTX780 anlegen kann - von der Rohleistung sind beide nicht so wirklich weit entfernt. Und jetzt auch bei der auf die Straße gebrachte Leistung, eben weil hier nicht mehr bis der Arzt kommt, optimiert wurde...

Beide haben 3GB Speicher. Irgendwann wird das der Limit. Eine R9 290X liegt mittlerweile nahezu immer vor einer GTX 780Ti. Sobald 1440p geht der GTX 780Ti der Speicher aus. Ich bin ja gespannt, wie sich dann 6GB Karten vs 8GB schlagen. Fiji hätte 8GB gebraucht und man wäre wohl nochmal 5~10% schneller...und irgendwann wird man starke Einbußen auch diesbezüglich haben. Eine GTX970 wird in Zukunft noch mehr Probleme haben...naja man kann die Karte immer noch wechseln...macht auch nicht jeder.

Ansonsten zu Polaris:
P10 wird sich so einordnen, wie es der 3DMark von videocardz wohl "prophezeit". Das trifft genau meinen Erwartungen und den Erwartungen einiger hier. Alle anderen, sei es Grün oder Rot, sollten sich mal beruhigen.

Deswegen gibt es einen Coda'schen Facepalm für euch alle: :facepalm:

Was er wohl so treibt? Ich denke er lächelt etwas über die Zeit hier, seit er bei Id Tech ist. ;)

Egoim
2016-06-02, 23:48:35
Fixe Taktraten sind irgendwie old-school. Wo gibt es denn sowas noch, außer bei den älteren AMD GPUs? Es hat doch sonst alles an CPUs und GPUs "Turbo"-Modes um Temperatur- und Power-Spielräume auszunutzen!

Das ist doch eine absolut bedauerliche Entwicklung... Allein beim OC schon kann man doch nur die Hände über dem Kopf zusammenschlagen...

nimm eine GTX 980 mit 1300Mhz, gib ihr + 20Mhz und sie läuft plötzlich 1457MHz, gib ihr + 60 und nichts ändert sich... gib ihr + 61, plötzlich steht da 1469MHz uns die Karte schmiert im Valley ab... TOLL. Und wenn es dann mal läuft? springt sie plötzlich komplett sinnlos hin und her.

Nee, da is mir meine 290X lieber, da sage ich +50% Powertarget und +250mV und dann kann ich auf den MHz genau sagen, was ich will und schön experimentieren :)

gedi
2016-06-02, 23:51:34
Ansonsten zu Polaris:
P10 wird sich so einordnen, wie es der 3DMark von videocardz wohl "prophezeit". Das trifft genau meinen Erwartungen und den Erwartungen einiger hier. Alle anderen, sei es Grün oder Rot, sollten sich mal beruhigen.

Deswegen gibt es einen Coda'schen Facepalm für euch alle: :facepalm:

Was er wohl so treibt? Ich denke er lächelt etwas über die Zeit hier, seit er bei Id Tech ist. ;)

Sehe ich exakt genauso: Custom 980-Performance. Nichts für den notorischen Highend-User, allerdings eine sehr nette Karte zu einem Top-Preis.

Aber das mit dem facepalm war nicht sehr nett :biggrin:

|MatMan|
2016-06-03, 00:01:52
Das ist doch eine absolut bedauerliche Entwicklung... Allein beim OC schon kann man doch nur die Hände über dem Kopf zusammenschlagen...

nimm eine GTX 980 mit 1300Mhz, gib ihr + 20Mhz und sie läuft plötzlich 1457MHz, gib ihr + 60 und nichts ändert sich... gib ihr + 61, plötzlich steht da 1469MHz uns die Karte schmiert im Valley ab... TOLL. Und wenn es dann mal läuft? springt sie plötzlich komplett sinnlos hin und her.

Nee, da is mir meine 290X lieber, da sage ich +50% Powertarget und +250mV und dann kann ich auf den MHz genau sagen, was ich will und schön experimentieren :)
Allein für mobile wird die Boost Geschichte benötigt.
Klar war es "früher" einfacher vorherzusagen wie sich die GPU verhalten wird. Dafür wird jetzt gute Kühlung direkt mit mehr Takt belohnt - find ich super. Und so anders ist OC mit Boost nun auch nicht. Limit für Power anheben, Takt- und ggf. Spannungsoffsets mit geeignet vordernden Szenen testen und fertig. Was du mit der GTX 980 beschreibst, konnte ich so noch nie beobachten. Außerdem kann man doch auslesen, aus welchem Grund der Takt im Moment nicht höher geht (z.B. mit GPU-Z).

Ich wollte gar keine Diskussion über Boost lostreten, sondern sagen: Wir werden das gebooste nicht mehr los und ich erwarte, dass Polaris das Boost-Verhalten mindestens so weit treiben wird wie Fiji, eher noch weiter.

Nakai
2016-06-03, 00:05:40
Aber das mit dem facepalm war nicht sehr nett :biggrin:

Man muss sich davon doch nicht unbedingt angesprochen fühlen.;)
Ich denke die Meisten wissen, ob sie angesprochen wurden oder nicht.
Dich kann ich sogar beruhigen, du warst nicht angesprochen. ;D

AMD wird P10 klar über GM204 eingeordnet haben. Ein GP106 würde ich eher maximal auf GM204-Niveau sehen. P10 ist seine eigene Klasse. P11 macht es ähnlich. Der Vorteil von GP104 ist es auch, dass man weit nach unten skaliert. Und da wird die Perf/Watt generell besser. Kurz P10 im Vollausbau wird in GP104-Salvage-Regionen reinher vom Energieverbrauch vordringen und dabei eine schlechtere Performance-Energieeffizienz aufweisen. Das gleiche Spiel wiederholt sich natürlich in alle Richtungen. Ich vermute, AMD hat P10 und P11 wohl mit anderen Hintergedanken geplant.

Der Kampfpreis von 199~249$$ ist ein starkes Signal. P11 wird dann eher bei 99~149$ liegen, evtl sogar weniger.

Egoim
2016-06-03, 00:07:42
Ich hoffe sowas baut AMD nicht in die Desktop Karten ein ^^

hatte das Problem BTW mit einer GTX750Ti, GTX 760, 3 GTX 770, GTX 780, GTX 780Ti und einer GTX 980 ... denke kaum, dass es ungewollt ist ^^

scully1234
2016-06-03, 00:22:04
hatte das Problem BTW mit einer GTX750Ti, GTX 760, 3 GTX 770, GTX 780, GTX 780Ti und einer GTX 980 ... denke kaum, dass es ungewollt ist ^^


Added voltage/frequency curve customization support. You may use traditional core clock slider on NVIDIA GeForce GTX 1070 and 1080 graphics cards to apply fixed offset to all voltage/frequency curve points (http://www.guru3d.com/files-details/msi-afterburner-beta-download.html)

fuer den der kein mod Bios benutzen kann oder will

illidan
2016-06-03, 00:22:33
hatte das Problem BTW mit einer GTX750Ti, GTX 760, 3 GTX 770, GTX 780, GTX 780Ti und einer GTX 980 ... denke kaum, dass es ungewollt ist ^^
Soll ich jetzt meine NV-Historie mit GPUs aufzählen, bei denen Übertakten gut und vorhersehbar funktionierte? Die Liste wäre ähnlich lang und aktuell...

gedi
2016-06-03, 01:05:05
Allein für mobile wird die Boost Geschichte benötigt.
Klar war es "früher" einfacher vorherzusagen wie sich die GPU verhalten wird. Dafür wird jetzt gute Kühlung direkt mit mehr Takt belohnt - find ich super. Und so anders ist OC mit Boost nun auch nicht. Limit für Power anheben, Takt- und ggf. Spannungsoffsets mit geeignet vordernden Szenen testen und fertig. Was du mit der GTX 980 beschreibst, konnte ich so noch nie beobachten. Außerdem kann man doch auslesen, aus welchem Grund der Takt im Moment nicht höher geht (z.B. mit GPU-Z).

Ich wollte gar keine Diskussion über Boost lostreten, sondern sagen: Wir werden das gebooste nicht mehr los und ich erwarte, dass Polaris das Boost-Verhalten mindestens so weit treiben wird wie Fiji, eher noch weiter.

Der grüne Daumen ... Bis zu Maxwell konnte man aber per entsprechendem Bios-Mod dem Verhalten gut entgegenwirken. Ist aber OT

Bei P10 sehe ich auf AMD-User ähnliches auf zukommen wie den NV-Usern bei Pascal. Soll heißen, OC bis zu einem bestimmten Limit (bei P10 z.B. 175W) und darüber hinaus geht nichts mehr. Was allerdings leider u.a. auch wirtschaftlich Sinn macht: Bei 199$ sollte man kein 1000-Layer PCB mit 48 Spannungswandlern erwarten. Zum anderen versammeln sich bei P10 vermutlich 6.5Bil. Transistoren auf lediglich 235mm^2 Diefläche - die müssen erst mal, trotz relativ niedriger TDP, wirkungsvoll gekühlt werden.

Hakim
2016-06-03, 01:14:31
Spricht was dagegen das die Hersteller bei den Custom Karten bessere PCBs samt Kühler verbauen und 2 x 6 Pin Anschluss zwecks besserem OC?

gedi
2016-06-03, 01:28:51
Generell nein, allerdings war es doch Intel selbst welches argumentiert hat in Bezug 22nm <-> 14nm Prozess, dass für den Moment das Ende der Fahnenstange beinahe erreicht ist.

Mittlerweile sehe ich es so: 700€ für eine 1080 sind gerechtfertigt, da atm die einzige Karte, welche out of the Box 2160p zufriedenstellend darstellen kann, 400€ für eine sehr schnelle 1440p-Karte in Form einer 1070 sind gut angelegt und vermutlich 230-280€ für eine 1440p-Karte in Form von P10 sind eine Ansage, welche es seit der 4870 nicht mehr gab.

Nightspider
2016-06-03, 04:08:24
Bezüglich 40CUs....vielleicht bekommt die ersten 12Monate wieder nur Apple den Vollausbau. :D

dildo4u
2016-06-03, 05:24:32
Ich hab den AMD Bench mal nachgestellt komme auf 30fps mit meiner 970@1.3Ghz,wo die 480 laut CB bei 34fps landet.

http://abload.de/img/480bench2va1b.png

Ist aber schwer zu vergleichen da Crazy Setting + 8xMSAA massiv auf den Vram geht. Vieleicht können ja Leute mit 8GB Karten gegentesten.

Isen
2016-06-03, 05:38:50
Es stellt sich auch die Frage, wie tief sie dort gestapelt haben und wie viel ein passender Treiber rausholt (siehe Doom)

dildo4u
2016-06-03, 05:45:47
Es stellt sich auch die Frage, wie tief sie dort gestapelt haben und wie viel ein passender Treiber rausholt (siehe Doom)
Ashes läuft schon ziemlich gut auf AMD eins der wenigen Games wo Fury X deutlich schneller als die 1070 ist.Das haben sie nicht umsonst als Beispiel genommen.

http://abload.de/img/dnengcka0w.png

https://youtu.be/-FWtJXmtITs

Isen
2016-06-03, 05:57:54
@dildo4u,

ich Rede ja auch von außerhalb Ashes. Bei dem braucht es wohl eher weniger nen Treiber, weil es ja ohnehin gut auf AMD optimiert ist
Die verwenden da den 16.5.2, der aktuellste 16.5.3. Gilt das auch für Polaris?
Mit Ashes kann man schön tief stapeln :D während der Rest es als Best Case betrachtet.

Nightspider
2016-06-03, 06:03:10
Bei gut optimierten DX12 Titeln wird das ganze Verhältnis eher noch 10-20% zu AMD kippen, sofern Async Compute genutzt wird.
Dann wird die RX480 nicht weit hinter der GTX1070 liegen in manchen Titeln.

Das ist zumindest meine Einschätzung auch wenn sie den üblichen Nvidia Fanboys hier nicht passen wird.

Ganz zu schweigen davon das ja sowieso immer mehr Games auf CGN optimiert werden dank der Konsolen.

dargo
2016-06-03, 06:26:35
Bezüglich 40CUs....vielleicht bekommt die ersten 12Monate wieder nur Apple den Vollausbau. :D
So unrealistisch wäre das gar nicht. Vielleicht wollte AMD unbedingt mit Polaris sehr agressiv in den Desktop-Bereich rein und deshalb erstmal nur max. den größeren Salvage. Und die vollen 40CUs spart man sich für den Herbst/Winter auf damit man vor Vega noch was Neues bieten kann. Womöglich dann auch mit GDDR5X.

Edit:
Mal was anderes... ist eigentlich bekannt warum AMD den exklusiven Vertrag mit Apple bei Tonga XT eingegangen ist? Gabs von Apple mehr Geld pro Stück als das was man im Desktop erwarten würde oder gings AMD eher um eine sichere Abnahme von vielen Stückzahlen?

Isen
2016-06-03, 06:40:25
Beides oder? ... gesichert mehr Abnahmen als im Retail Markt.

iuno
2016-06-03, 08:04:20
Bzgl. 40 CUs, das ist afaik nur Gerede, es gibt keinen einzigen handfesten Hinweis darauf, dass dem wirklich so ist, oder irre ich?
Dass Apple Tonga XT zeitweise Exklusiv bekommen hat kann einfach an frueheren Vertraegen liegen, die die eingegangen sind, urspruenglich womoeglich sogar noch fuer 20nm Chips geplant.

Complicated
2016-06-03, 08:18:05
Es gibt lediglich den Hinweis auf eine etwas teurere Version von der RX480. Allgemein wird aber eher erwartet, dass sich der Unterschied mit der Speicherbestückung 4GB vs. 8 GB erschöpft. Vom Preisgefüge her würden aber 50,- € Aufpreis für lediglich 4 GB Speicher als etwas zu hoch wahr genommen. Aus diesem Grund spekulieren viele auf lediglich 20-30,- € Aufpreis. Allerdings wäre es durchaus drin, dass AMD hier mit 40 CU den großen mit 8 GB bestückt und die RX480 mit 4 GB der Salvage ist - dann würden 50,- € Aufpreis einen echten 8 GB Preis-/Leistungsknaller bedeuten.

dargo
2016-06-03, 08:30:00
Bzgl. 40 CUs, das ist afaik nur Gerede, es gibt keinen einzigen handfesten Hinweis darauf, dass dem wirklich so ist, oder irre ich?

Gab es damals einen handfesten Hinweis bei Tonga, dass es mehr als 1792SPs sind? Muss mir entgangen sein.

iuno
2016-06-03, 08:31:28
Den gab es durchaus: transistor count und die size
Selbst wenn wir beides wuessten kannst du das jetzt bei 14 LPP aber schwer einschaetzen :P

dargo
2016-06-03, 08:33:19
Also kannst du einen P10 mit 40CUs noch nicht ausschließen. :P

iuno
2016-06-03, 08:35:51
Das tue ich nicht, ich beharre aber auch nicht staendig darauf, dass dem so ist - oder eben auch nicht ;p

Dural
2016-06-03, 09:08:49
Bei AMD hat jede GPU mehr SP, schon seit dem R600 :P

...und keine einzige GPU kam jemals mit mehr SP raus, bei Tonga war es von Anfang an klar das dieser mehr hatte :rolleyes:

Und nur so als Info, es ist ziemlich dämlich die GPU am Anfang nicht voll zu bringen, die Marketing Abteilung ist um jedes % mehr Leistung ziemlich Froh, da macht man das Produkt doch nicht künstlich schlechter. Einzig wenn man sie nicht voll bringen kann wegen der Ausbeute, wie es ab und zu NV bei ihren Big Chips macht würde es etwas Sinn machen, bei einer so kleinen GPU dürfte das aber wohl kaum zutreffen.

Wie so wünschen sich die AMD jungs eigentlich immer mehr SP? So ein Wunsch hat man doch nur wenn man mit dem Produkt nicht zufriden ist. :wink:

Goser
2016-06-03, 09:10:24
Ab wann werden dier ersten polaris Karten ungefähr im Handel sein?

Isen
2016-06-03, 09:14:18
Anfang nächsten Monat ? ...

Egoim
2016-06-03, 09:16:14
ab dem 29. sollen die Karten (auch in DE) in den Regalen stehen

kuj0n
2016-06-03, 09:17:34
29. Juni soll Verkaufsstart sein.

Zergra
2016-06-03, 09:31:41
Und nur so als Info, es ist ziemlich dämlich die GPU am Anfang nicht voll zu bringen, die Marketing Abteilung ist um jedes % mehr Leistung ziemlich Froh, da macht man das Produkt doch nicht künstlich schlechter. Einzig wenn man sie nicht voll bringen kann wegen der Ausbeute, wie es ab und zu NV bei ihren Big Chips macht würde es etwas Sinn machen, bei einer so kleinen GPU dürfte das aber wohl kaum zutreffen.


Möglichweise ist das doch alles nur Show :D , man könnte ja am auch an dem gleichen Tag auch eine RX 490 verkaufen. Die dann die 2560SP hat.

Für Vega gibt es dann einfach die 500er Serie, oder sie nennen Sie dann RY 490 xD.

Dino-Fossil
2016-06-03, 09:49:37
Ich denke eine hypothetische 40CU P10 wäre dann immer noch eher für eine 480X geeignet, oder evtl. in der nächsten Generation für die 580.
Für eine 490 bringt der Chip nicht genug Performance mit, man würde sich letztlich kaum von der RX 480 absetzen und vor allem gegen die 1070 und 1080 immer noch recht schwach aussehen.
Da bräuchte AMD aber etwas passendes in den 90er GPUs.

Alles in allem halte ich zwar die 40CU P10 nicht für unmöglich, aber doch für unwahrscheinlich. Lasse mich da aber hinterher gerne eines Besseren belehren.

HOT
2016-06-03, 09:53:58
[...]

Edit:
Mal was anderes... ist eigentlich bekannt warum AMD den exklusiven Vertrag mit Apple bei Tonga XT eingegangen ist? Gabs von Apple mehr Geld pro Stück als das was man im Desktop erwarten würde oder gings AMD eher um eine sichere Abnahme von vielen Stückzahlen?
Ich glaube kaum, dass das ein Exklusivvertrag war, da Tonga ja auch anderswo als M295X zur Verfügung stand. AMD wird einfach keine Marktchancen für TongaXT im Massenmarkt gesehen haben. Schaut man sich heute Tahiti an, hatten sie recht. Das war auch sicherlich der Hauptgrund für das kastrierte Speicherinterface: Tonga sollte nie als XT in den Desktop-Markt.
Bei der 380X wird der Druck der Kartenhersteller so groß gewesen sein, dass man TongaXT dann bringen MUSSTE - und scheiterte. So eine küstliche Speicher-Kastrierung machen die sicherlich nicht noch mal. Und sie werden sicherlich nicht noch mal einen Chip durch eine gleichwertigen ersetzen. Tonga war in jederlei Hinsicht ein Fail mMn.

Bzgl. 40 CUs, das ist afaik nur Gerede, es gibt keinen einzigen handfesten Hinweis darauf, dass dem wirklich so ist, oder irre ich?
Dass Apple Tonga XT zeitweise Exklusiv bekommen hat kann einfach an frueheren Vertraegen liegen, die die eingegangen sind, urspruenglich womoeglich sogar noch fuer 20nm Chips geplant.

Es muss aber sowas geben, da das Loch zwischen knapp 6TFlops der 480 und den sicherlich 9,5-10TFlops von Vega-salvage recht groß ist. Dazwischen passt genau eine Karte - AMD MUSS eine 490, also ein 300€-Produkt, anbieten. Vega selbst ist sicherlich schon 500-Serie. Ich denke, wir werden eine 7-8 TFlops RX490 im September/Oktober dann sehen, wenn GDDR5X in größeren Mengen, evtl auch von anderen Speicherherstellern, verfügbar ist. Ich denke, dass die Gerüchte hier auch weiter durcheinandergekommen sind. Oktober kommt nicht Vega10 sondern die RX490 und Vega10 dann im nächsten Jahr.

Disco_STFU
2016-06-03, 09:55:10
Rechnen wir am besten einfach mit 390 Leistung. Alles darüber ist dann Schmankerl! :)

dargo
2016-06-03, 09:56:38
Ich denke eine hypothetische 40CU P10 wäre dann immer noch eher für eine 480X geeignet, oder evtl. in der nächsten Generation für die 580.
Für eine 490 bringt der Chip nicht genug Performance mit, man würde sich letztlich kaum von der RX 480 absetzen und vor allem gegen die 1070 und 1080 immer noch recht schwach aussehen.
Da bräuchte AMD aber etwas passendes in den 90er GPUs.

Das ist doch Quatsch. :)

Natürlich muss bei einem möglichen 40CUs P10 der Takt auch etwas angehoben werden. Ansonsten machen die theoretischen 11% mehr Rechenleistung kaum Sinn. Es würden schon 1366/1400Mhz reichen und schon hast du 20/23% mehr gegenüber RX480. Ganz normaler Abstand wie bei den üblichen GPUs bei AMD. Wenn P10 nicht hart am Sweetspot taktet (wovon ich erstmal nicht ausgehe) dürfte das noch in 180W TDP passen. Ich gehe davon aus, dass die RX480 und RX470 auch nur 20-25% trennen.

victore99
2016-06-03, 09:57:59
Das AMD-Namensschema ändert sich :D
Ich freue mich schon auf eine RTX 580, 590 als Dual-GPU und unten RT-Karten. Naja. Oberkreativ ist der neue Name nicht, klingt aber neu und anders.

Ich war ja auch Verfechter der 40 CU-Theorie.. Aber nur, weil es sich schön liest :D
Teildeaktivierung macht aber auch iwie Sinn.. GloFo dürfte kaum Erfahrungen mit Chips einer solchen Art wie GPUs halt haben.

iuno
2016-06-03, 10:03:48
AMD wird einfach keine Marktchancen für TongaXT im Massenmarkt gesehen haben. Schaut man sich heute Tahiti an, hatten sie recht. Das war auch sicherlich der Hauptgrund für das kastrierte Speicherinterface: Tonga sollte nie als XT in den Desktop-Markt.
Bei der 380X wird der Druck der Kartenhersteller so groß gewesen sein, dass man TongaXT dann bringen MUSSTE - und scheiterte.
So eine grobe fehlkonstruktion passiert aber idR. nicht. Tonga wird grob und in anderer Form fuer 20 nm geplant gewesen sein, Apple und andere OEMs wollten den urspr. 20nm Chip aber haben und dann wird man Tonga halt gebaut haben. Alleine als Testballon fuer VI vor Carrizo und Fiji kann ich mir den Chip auch schlecht vorstellen.

Es muss aber sowas geben, da das Loch zwischen knapp 6TFlops der 480 und den sicherlich 9,5-10TFlops von Vega-salvage gigantisch ist. AMD MUSS eine 490, also ein 300€-Produkt, anbieten. Vega selbst ist sicherlich schon 500-Serie.
Und wenn AMD immer noch "Probleme" mit dem Takt hat koennte Vega auch wieder mit nur 1 GHz kommen, das wuerde auch die vermeintlich stark gesteigerte Effizienz erklaeren. Bzw. falls das Teil auch in einem MCM eingesetzt wird, wird der Takt dort eh nicht so wahnsinnig hoch sein koennen, evtl. hat sich das auf das Design des Chips ausgewirkt. Zudem gibt es davon auch wieder salvage und dann ist der Unterschied wieder wie bei Hawaii-Fiji bzw. minimal groesser.
Natuerlich ist es auch moeglich, dass P10 40 CUs hat, GDDR5X umgehen kann und eine entsprechende Variante noch nachkommt, aber das ist halt bisher genauso Spekulation und eben nicht die einzige Moeglichkeit.
Zu alldem wissen wir doch noch rein gar nichts.

Rabiata
2016-06-03, 10:06:02
Wie so wünschen sich die AMD jungs eigentlich immer mehr SP? So ein Wunsch hat man doch nur wenn man mit dem Produkt nicht zufriden ist. :wink:
Mehr Performance ist immer nett. Aber in dem Fall halte ich die Aufregung für übertrieben:
Vega ist ja schon angekündigt, und wird eine (hypothetische) 40 CU Polaris weit hinter sich lassen. Dann sollten auch die zufrieden sein, die bisher jedem Hinweis nach ein bißchen mehr Leistung bei Polaris hinterherhecheln.

Apropos Vega:
Wenn AMDs Preispolitik bei Vega so aussieht wie bei Polaris, könnte ich mir Vega für 400 bis 500 $ vorstellen. Das wäre doch mal ne Vorlage :wink:

victore99
2016-06-03, 10:18:41
Mehr Performance ist immer nett. Aber in dem Fall halte ich die Aufregung für übertrieben:
Vega ist ja schon angekündigt, und wird eine (hypothetische) 40 CU Polaris weit hinter sich lassen. Dann sollten auch die zufrieden sein, die bisher jedem Hinweis nach ein bißchen mehr Leistung bei Polaris hinterherhecheln.

Apropos Vega:
Wenn AMDs Preispolitik bei Vega so aussieht wie bei Polaris, könnte ich mir Vega für 400 bis 500 $ vorstellen. Das wäre doch mal ne Vorlage :wink:
4k Shader, der Cut 3 bis 3,5k, dann noch ein 4096er HBM2-IF, 4MB Cache und Goodbye GP104 :D
Das wäre was. Ich glaube aber kaun, dass HBM2 so billig ist. Selbst bei nur 2 Stacks.

Dino-Fossil
2016-06-03, 10:22:42
Das ist doch Quatsch. :)



Der Weisheit letzter Schluss sind deine Überlegungen aber auch nicht. :wink:

Ich bleib dabei, P10 erscheint mir zu schwach um auch noch die 490er Serie abzudecken, selbst mit 40CU und ein paar % mehr Takt.

Wir wissen schließlich auch noch nicht, wie Vega aussehen wird - der kleinere Vega Chip kann ja durchaus klein genug ausfallen, um in der beschnittenen Variante einen passenden Abstand zu P10 zu bekommen.

iuno
2016-06-03, 10:31:03
Ganz klasse, die 8 GiB Version soll eine "Founder's Edition" sein :P
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/
(Update 2)
Das ist bei den ganzen Ashes Gerede ganz untergegangen oder habe nur ich das verpasst?

DeadMeat
2016-06-03, 10:38:56
Ganz klasse, die 8 GiB Version soll eine "Founder's Edition" sein :P


Da steht doch nur das es "nur" für die 8er Version eine Referenz geben wird, nichts aber von teurem direkt vor-Verkauf.

iuno
2016-06-03, 10:41:13
:facepalm:
Stimmt natuerlich mein hastiges Lesen mal wieder. hatte gedacht es gibt fuer die 8 GiB Version nur Referenz, und keine AIB Karten.
Aber dennoch interessant, die OEMs werden also die 8 GiB oder Partnerkarten nehmen muessen. In OEM PCs sind doch eher Referenzmodele ueblich oder?

Botcruscher
2016-06-03, 10:43:18
Hä?!? Natürlich wird AMD nur ein Referenzdesign rauswerfen. Wo liest du das was von einer Idiot-Edition?

PS:
Es ist offensichtlich, dass AMD quasi eine eigene Geforce GTX 970, also eine extrem populäre Grafikkarte zum fairen Preis, kreieren möchte.
Gibt es für den Verweis auf die Abscheulichkeit eigentlich Produktplacement Punkte?

Es ist offensichtlich, dass AMD eine populäre Grafikkarte zum fairen Preis kreieren möchte.
Wäre vermutlich zu neutral und informativ. Beendet endlich die Werbung für die Verarsche und lasst die Karte in der Nachladerucklerhölle sterben.
In OEM PCs sind doch eher Referenzmodele ueblich oder?
Das was im Einkauf am günstigsten war. AMDs Referenzdesigns sind das eigentlich nicht.

victore99
2016-06-03, 10:43:19
Ganz klasse, die 8 GiB Version soll eine "Founder's Edition" sein :P
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/
(Update 2)
Das ist bei den ganzen Ashes Gerede ganz untergegangen oder habe nur ich das verpasst?
Da steht:

nur Referenzdesigns für die 8-GiB-Karten entwickeln.

Mögliche Bezüge:

Nur für die 8G-Karten Referenzdesigns.
Nur Referenzdesigns.

Weiter unten wird das klar:

Außerdem wird AMD selbst offenbar nur Referenzdesigns für die 8-GiB-Karten entwickeln. Es liegt also an den Boardpartnern, Custom Designs für Radeon RX 480 mit 4 GiB zu erstellen. Von den 8-GiB-Varianten wird es demnach voraussichtlich sowohl Referenz- als auch Custom Designs geben.

Zitate von dem obrigen Link der PCGH.

Gorkon
2016-06-03, 10:43:58
Spricht doch eigentlich nur dafür, dass selbst AMD 4GB als zu wenig ansieht, bzw. glaubt, dass relativ wenige zu einer 4GB-Version greifen würden. Die Arbeit wird halt komplett auf die Board-Partner abgewälzt ;)

y33H@
2016-06-03, 10:50:18
Es wird freilich 8 GByte Customs geben, kann man sich auf der Computex BCD angucken.

Dural
2016-06-03, 10:51:13
Also wenn die Ref. wirklich so kommt wie auf den Bilder ist die zu 100% gekauft, ich mag Ref Karten ;) und hatte schon die befürchtung das es die Ref. nicht in die Läden schaft.

HOT
2016-06-03, 10:52:33
Rechnen wir am besten einfach mit 390 Leistung. Alles darüber ist dann Schmankerl! :)
Hawaii Pro hat 5,1TFlops, RX480 aber 5,8. Zudem mehr Takt fürs Frontend, die ganzen Verbesserungen für bessere Auslastung und mehr Speichertakt. Die Bandbreite sollte ebenfalls gut reichen für die Leistungsklasse, Hawaii hat ja keinerlei effektive Kompression und war diesbezüglich sowieso Overkill aufgrund des Profimarktes. HawaiiXT ist auf JEDEN FALL drin bei der RX480, wahrscheinlich landet sie irgendwo zwischen HawaiiXT und FuryPro. Hawaii Pro wird dann sicherlich von einer 470 ersetzt - Tonga Pro von einer P11 XT (460) und Pitcairn Pro von einer P11 Pro (450). Darunter bleibt dann Bonaire (440) und Oland (430). Fehlt wie gesagt noch ein 490 mit 40CUs @1,4GHz mit 200W TDP.

Botcruscher
2016-06-03, 10:53:43
Spricht doch eigentlich nur dafür, dass selbst AMD 4GB als zu wenig ansieht, bzw. glaubt, dass relativ wenige zu einer 4GB-Version greifen würden. Die Arbeit wird halt komplett auf die Board-Partner abgewälzt ;)
Die 8GB sind doch im Moment das Zugpferd für AMD. Dazu sind 4GB natürlich schon zu wenig. Einige Spiele fressen schon locker die 12GB der Titan.

krissbay
2016-06-03, 10:55:50
Mittlerweile sehe ich es so: 700€ für eine 1080 sind gerechtfertigt, da atm die einzige Karte, welche out of the Box 2160p zufriedenstellend darstellen kann, 400€ für eine sehr schnelle 1440p-Karte in Form einer 1070 sind gut angelegt und vermutlich 230-280€ für eine 1440p-Karte in Form von P10 sind eine Ansage, welche es seit der 4870 nicht mehr gab.

sagen wir mal AMD würde pleite gehen. wäre es gerechtfertig, dass NV für seine kommende GP106 Serie 400€ verlangt da atm keine andere Karte 1080P Spielen ermöglicht mit DP1.4 ?

Zergra
2016-06-03, 10:56:55
Ganz klasse, die 8 GiB Version soll eine "Founder's Edition" sein :P
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/
(Update 2)
Das ist bei den ganzen Ashes Gerede ganz untergegangen oder habe nur ich das verpasst?
hää ? Du solltest nochmal lesen

daraus:
Von den 8-GiB-Varianten wird es demnach voraussichtlich sowohl Referenz- als auch Custom Designs
Das heißt, AMD wird keine 4GB Karte selber verkaufen...


EDIT: naja zu spät, hätte hier mal aktualisieren müssen :D

Rabiata
2016-06-03, 10:58:17
4k Shader, der Cut 3 bis 3,5k, dann noch ein 4096er HBM2-IF, 4MB Cache und Goodbye GP104 :D
Das wäre was. Ich glaube aber kaun, dass HBM2 so billig ist. Selbst bei nur 2 Stacks.
Ich dachte an ein 2048er HBM2-IF (2 4Hi Stacks) mit insgesamt 8 GByte, mit doppeltem Durchsatz gegenüber HBM1 wären wir dann immer noch bei 512 GB/s, wie bei der existierenden Fury.

Der Preis wird der Knackpunkt sein, leider finde ich da auf die Schnelle nichts im Netz.

victore99
2016-06-03, 11:00:09
Hoffentlich wird das PCB wieder so gut wie bei der 290X.. Denn, sorry, so ein scheiß wie bei der 1080er FE ist doch wirklich für die Tonne.

Sunrise
2016-06-03, 11:02:08
Ich glaube aber kaun, dass HBM2 so billig ist. Selbst bei nur 2 Stacks.
Ganz ehrlich, wenn AMD die nano für $499 US anbieten kann und P10 für wahnwitzige $199 US, dann mache ich mir mittlerweile preistechnisch bei AMD keine Sorgen, solange das Ding nicht deutlich größer als 450m^2 ist. Zumindest die Salvages kann und muss man aggressiv bepreist in den Markt drücken, damit GP104 angegriffen werden kann. AMD erhöht somit untenrum als auch in der Mitte den Marktanteil, aber die Margen möchte ich dann dennoch nicht wissen.

Wir haben uns schon so stark an NVs Schweinepreise gewöhnt, da kann AMD eigentlich nur punkten. Denn die Gewinne (die gross margin) kommen hauptsächlich erstmal durch den 230mm-Die zustande. Irgendwann kommt der Rest nach und die richtig großen Pro-GPUs haben ja den Vorteil, sie auch im professionellen Markt verkaufen zu können.

woodsdog
2016-06-03, 11:09:03
Einige Spiele fressen schon locker die 12GB der Titan.

Das ist doch Käse mit Corner-Cases die komplett an der Realität vorbei da hin geprügelt wurden. :P

R.I.P.
2016-06-03, 11:12:23
Wir haben uns schon so stark an NVs Schweinepreise gewöhnt, da kann AMD eigentlich nur punkten. Denn die Gewinne (die gross margin) kommen hauptsächlich erstmal durch den 230mm-Die zustande. Irgendwann kommt der Rest nach und die richtig großen Pro-GPUs haben ja den Vorteil, sie auch im professionellen Markt verkaufen zu können.

Naja. Nvidia Adepte sind bereit jeden Preis zu zahlen. Haupsächlich Nvidia. Ich wette man wird der RX480 nachsagen, dass so billig eigentlich zu nichts taugen kann...

Botcruscher
2016-06-03, 11:18:53
Das ist doch Käse mit Corner-Cases die komplett an der Realität vorbei da hin geprügelt wurden. :P
Das sind so Sachen die du ein einem aktuellen Tombraider bei ganz normalen Einstellungen messen kannst.

woodsdog
2016-06-03, 11:19:33
Das sind so Sachen die du ein einem aktuellen Tombraider bei ganz normalen Einstellungen messen kannst.

link...?

Botcruscher
2016-06-03, 11:28:02
Irgendwo hier im Forum. Externe Tests wo die 6GB der TI zugeschaufelt werden gibt es ja zur genüge. Hier (http://www.gamestar.de/spiele/rise-of-the-tomb-raider/artikel/tomb_raider_rise_of_the_tomb_raider_systemanforderungen_und_voraussetzungen,5119 7,3242822,2.html) sind es mal eben 7,2GB in FHD.

woodsdog
2016-06-03, 11:41:45
und hier https://www.youtube.com/watch?v=aLwVEu5ksGE in 4k keine 4GB.

"irgendwo hier im Forum". Ahha.

Das ist alles WEEEEEIIIIIIIT weg von "fressen schon locker die 12GB der Titan."


Sonst vielleicht noch ein 2. Beispiel?

victore99
2016-06-03, 11:45:05
Ganz ehrlich, wenn AMD die nano für $499 US

...

Wir haben uns schon so stark an NVs Schweinepreise gewöhnt, da kann AMD eigentlich nur punkten.

Zu ersterem: Der HBM1-Hersteller hat ein Angebots-Monopol. Klar.
Nur ist AMD die doch etwas gravierendere Firma in dem Bereich, und hat für HBM1 ein Nachfragemonopol.
Ergo dürfte HBM inzwischen spottbillig sein.
Beu HBM2 gibt es hingegen kein Nachfrage- oder Angebotsmonopol. Dürfte also doch teurer werden.

Arcanoxer
2016-06-03, 11:47:58
Irgendwo hier im Forum. Externe Tests wo die 6GB der TI zugeschaufelt werden gibt es ja zur genüge. Hier (http://www.gamestar.de/spiele/rise-of-the-tomb-raider/artikel/tomb_raider_rise_of_the_tomb_raider_systemanforderungen_und_voraussetzungen,5119 7,3242822,2.html) sind es mal eben 7,2GB in FHD.
In Rise of the Tombraider sind AMD Karten unter DX12 auch langsamer als unter DX11.
Und das DX11 sowieso nicht zu deren stärke gehört, sollte bekannt sein.

Soll ich daraus nun schliessen das DX12 auf AMD Hardware generell langsamer läuft?
Irgendwelche Cherrypicker-Benchmark-Anomalien sind nicht wirklich hilfreich für ein gescheites Fazit.

dildo4u
2016-06-03, 11:50:29
und hier https://www.youtube.com/watch?v=aLwVEu5ksGE in 4k keine 4GB.

"irgendwo hier im Forum". Ahha.

Das ist alles WEEEEEIIIIIIIT weg von "fressen schon locker die 12GB der Titan."


Sonst vielleicht noch ein 2. Beispiel?
Die AMD Anzeige ist völlig irrelevant Tomb Raider hat massig Frametimes spikes auf der AMD "High-End" Karte weil ihr der Vram ausgeht.

http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html

Botcruscher
2016-06-03, 11:51:48
Das ist alles WEEEEEIIIIIIIT weg von "fressen schon locker die 12GB der Titan."

Hast du dir den Link überhaupt angeschaut? Da geht es bis über 9GB für very high Details.
Unter 8GB braucht auch für die Lebenszeit von P10 nichts mehr verkauft werden.

Soll ich daraus nun schliessen das DX12 auf AMD Hardware generell langsamer läuft?
Irgendwelche Cherrypicker-Benchmark-Anomalien sind nicht wirklich hilfreich für ein gescheites Fazit.
Was ist denn jetzt schon wieder euer Problem?! Die Aussage war, dass 4GB nicht mehr ausreichend sind. Das trifft vollkommen unabhängig auf alle Karten zu.

victore99
2016-06-03, 11:55:49
In Rise of the Tombraider sind AMD Karten unter DX12 auch langsamer als unter DX11.
Und DX11 sowieso nicht zu deren stärke gehört, sollte bekannt sein.

Soll ich daraus nun schliessen das DX12 auf AMD Hardware generell langsamer läuft?
Irgendwelche Cherrypicker-Benchmark-Anomalien sind nicht wirklich hilfreich für ein gescheites Fazit.
FOLGENDES NICHT ERNST NEHMEN!


Es ist ein NV-Optimierter Titel und damit ZWANGSLÄUFIG die beste irgendwie mögliche DX12-Implementierung, und, da sie die Beste ist, ist die DX12-Implementierung von Tomb Raider auch die einzige Neutrale DX12-Implementierung. Die Anderen Werte in Ashes oder Hitman sind von AMD gefälscht, und überhaupt braucht man eine Pro Duo, um die Bildqualität auf Nvidia-Niveau zu boosten. Und kaum stellt man die Manipulierung ab, ist die Bildqualität dieselbe, aber die AMD Pro Duo wird von einer G210 geschlagen. Das zeigt, wie überteuert etc AMD ist und wie armselig es ist, dass sie für die dummen Kunden, die das nicht wissen, die Quali manipulieren müssen, um überhaupt zu manipulieren.
Die Macher der PlayStation 4s wussten das und müssen NV-Hardware verwenden.

Arcanoxer
2016-06-03, 11:56:33
Was ist denn jetzt schon wieder euer Problem?! Die Aussage war, dass 4GB nicht mehr ausreichend sind. Das trifft vollkommen unabhängig auf alle Karten zu.Eben nicht, Mainstream ist nicht das Enthusiasten-Segment.

Da geht es bis über 9GB für very high Details.
Unter 8GB braucht auch für die Lebenszeit von P10 nichts mehr verkauft werden.
Polaris ist Mainstream, da reichen sogar 4GB noch für die Zukunft.

Complicated
2016-06-03, 11:57:55
Und nur so als Info, es ist ziemlich dämlich die GPU am Anfang nicht voll zu bringen, die Marketing Abteilung ist um jedes % mehr Leistung ziemlich Froh, da macht man das Produkt doch nicht künstlich schlechter.
Findest du? Ich denke das Marketing ist perfekt auf die Zielsetzung ausgerichtet: Preis. Den Vollausbau muss man teurer machen und es hat ja keiner gesagt es würde nur die RX480 Released am 29.6. AMD wirbt sogar mit der 4 GB Variante, was keinen gestört hat.
"-199$ sind AWSOME.."
"-da kann man nichts falsch machen..."
"-No Brainer für DX12..."
"-1440 so schnell wie GTX 980..."

Das sind die Punkte die derzeit diskutiert werden in den Foren. Performance ist da gar kein großes Thema mehr. Und der Verbrauch auch nicht. Dazu auch mal eine Anmerkung:
Heute gab es die Benches mit GP100 zu lesen auf der Startseite. Es sind zwar Computing Tests aber nur mal so zum Vergleichen beim Stromverbrauch.

-GP100: 300W 10,6 TFLOP 100%
-GTX 1080: 180W 8,67 TFLOPs 72,9%
-Titan X: 250W 6,55 TFLOPs 64,4%

Nimmt man jetzt die Daten der RX480 und fügt sie dort ein:
-RX480 <150 W >5 TFLOPs
-2xRX480 250-300W ~10-12 TFLOPs

Da sollte bei dem AmberGPU-Test mit 2 RX480 ein Ergebnis über GP100 raus kommen bei selbem oder niedrigerem Verbrauch.

victore99
2016-06-03, 11:58:14
Polaris ist Mainstream, da reichen sogar 4GB noch für die Zukunft.

Nicht, wenn man erfolgreich in die Fußstapfen von Hawaii treten will.. Oder die 980 verlächerlichen will.

woodsdog
2016-06-03, 11:59:50
Die AMD Anzeige ist völlig irrelevant Tomb Raider hat massig Frametimes spikes auf der AMD "High-End" Karte weil ihr der Vram ausgeht.

http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html

Deswegen hat die 12GB titan dort auch vergleichbaren VRAM verbrauch.

der Punkt ist doch einfach nur die Behauptung, daß es einige spiele bei _realistischen settings_ gäbe, die O-TON "die 12GB schon locker fressen" totaler Humbug ist.
bisher nicht ein Beispiel.

Botcruscher
2016-06-03, 12:00:20
Polaris ist auf dem Level der 970/980 und auch da sind die 4GB zu wenig. VRAM-Gebrauch ist durch bessere Texturen fast vollkommen unabhängig von der Rechenleistung.
der Punkt ist doch einfach nur die Behauptung, daß es einige spiele bei _realistischen settings_ gäbe, die O-TON "die 12GB schon locker fressen" totaler Humbug ist.
bisher nicht ein Beispiel.
Deine eigene Quelle hat über 9GB bei einem popeligen Vergleichstest.

Schnoesel
2016-06-03, 12:16:48
Ab 1440p und auch dafür soll die Karte ja geeignet sein laut AMD sind 4GB schon derbe knapp bemessen, da gibts nix zu diskutieren. In den meisten Fällen ausreichend aber eben nicht immer. Weiß ich aus Erfahrung :biggrin: Da Leute die in der Preisklassse kaufen ihre Karten auch gerne mal 2 Jahre + behalten, sind einzig und allein die 8GB sinnvoll imo.

AlphaNUSS
2016-06-03, 12:19:10
Es gibt Polaris für einen geringen Aufpreis doch auch mit 8GB. Wer meint, er braucht nicht so viel, nimmt halt die 4GB Variante.

woodsdog
2016-06-03, 12:19:31
Deine eigene Quelle hat über 9GB bei einem popeligen Vergleichstest.

https://www.youtube.com/watch?v=aLwVEu5ksGE hilf mir, wo?

ansonsten lern lesen.

Noebbie
2016-06-03, 12:21:30
Eine 8GB Polaris unter einem Vapor X von Sapphire wird wohl erst später kommen? Oder verbauen die sowas auf den Ref. Boards. Die TriX OC Modelle werden bei Release schon kaufbar sein? Wie spekuliert ihr da?

Disco_STFU
2016-06-03, 12:30:06
Für den 0815 1080p Gelegenheitsspieler reicht doch ne RX 480 mit 4GB völlig aus.

Botcruscher
2016-06-03, 12:30:07
ansonsten lern lesen.
Hier hast du ein BF mit über 11 http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823&page=22

Und jetzt genug mit deinem Bullshit OT. EOD.

Birdman
2016-06-03, 12:30:40
Ab 1440p und auch dafür soll die Karte ja geeignet sein laut AMD sind 4GB schon derbe knapp bemessen, da gibts nix zu diskutieren.
Ich würde es so ausdrücken:

- In der Preisklasse der RX480 sind 4GB VRAM mehr als ausreichend
- In der Performanceklasse der RX480 sind 4GB VRAM zu knapp bemessen

][immy
2016-06-03, 12:35:54
Ich würde es so ausdrücken:

- In der Preisklasse der RX480 sind 4GB VRAM mehr als ausreichend
- In der Performanceklasse der RX480 sind 4GB VRAM zu knapp bemessen
jep, der Preis ist hier Programm.
8GB GDDR5 Speicher ist schon nicht billig. Irgendwie muss ja auch noch was für den Chip, die Platine und den Hersteller übrig bleiben bei dem ~$200 Preispunkt.

Ich dümpel derzeit noch mit einer 2GB 7850 rum, da kann ich aktuell eigentlich auch noch alles mögliche mit spielen, wenn man ein paar Details runter schraubt. Wer wirklich >1080p gehen will und alle Details einschalten will (vielleicht noch mit AA & co) der sollte sich auch weiter oben >400€ umschauen. Das hier ist einfach eine ganz andere Preisklasse, was hier irgendwie immer wieder unter geht.
Die Karte ist eigentlich nie als Konkurrenz zur Geforce 1080 gedacht gewesen und wird die Performance auch nicht erreichen können (außer vielleicht in dem einen oder anderen Spezialfall).

-/\-CruNcher-/\-
2016-06-03, 12:39:48
Die AMD Anzeige ist völlig irrelevant Tomb Raider hat massig Frametimes spikes auf der AMD "High-End" Karte weil ihr der Vram ausgeht.

http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html


https://www.youtube.com/watch?v=aLwVEu5ksGE hilf mir, wo?

ansonsten lern lesen.


Das ist ein interessantes Memory Management verhalten in dem Video :)

es spiegelt Praktisch AMDs HSA UMA Konsolen verhalten wieder und die Konsequenzen daraus auf dem Intel System sind auch gut sichtbar :)

Insgesamt ist es aber viel System effizienter nur die Latency des System Ram ist hier das Bottleneck mit der Fury X :)

Nice ;)

Guru3D Analysiert das vollkommen falsch das gessammte Test System ist Suboptimal für dieses effiziente (Resourcen) Memory Management.

uweskw
2016-06-03, 12:57:24
.......

Apropos Vega:
Wenn AMDs Preispolitik bei Vega so aussieht wie bei Polaris, könnte ich mir Vega für 400 bis 500 $ vorstellen. Das wäre doch mal ne Vorlage :wink:

Mit HBM2 Speicher und wohl auf 1080 Niveau oder schneller. Und nicht mehr das elende Treibergefrickle von NV....
Eigentlich wollte ich mir eine 1080 Custom holen, aber das bisschen kann ich jetzt auch noch warten.

greetz
US

woodsdog
2016-06-03, 13:27:30
Hier hast du ein BF mit über 11 http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823&page=22

Und jetzt genug mit deinem Bullshit OT. EOD.

Alles klar, danke für deine 1,5 Beispiele. Nächstes mal einfach nicht so die Klappe aufreißen. EOD.

8GB sind auf jeden Fall sinnvoll. Auch in der 480 klasse. Soweit sind wir uns zumindest einig. :wink:

Sunrise
2016-06-03, 13:29:25
Beu HBM2 gibt es hingegen kein Nachfrage- oder Angebotsmonopol. Dürfte also doch teurer werden.
Kein Monopol wirkt sich doch positiv auf die Preise aus. AMD wird wohl von Hynix beziehen und NV von Samsung. Zwischen $199 und $499 ist mehr als genug Platz für einen Vega Salvage, IMHO.

Da NV noch deutlich mehr für die 1080 verlangt, kann AMD das auch, ergibt genug Spielraum nach oben, eben weil die Preise bei NV mit sehr hohem Margenaufschlag sind, mangels Konkurrenz.

Gipsel
2016-06-03, 13:30:40
Bitte achtet auf Euren Ton!
Eine ordentliche Diskussion kann man auch zivilisiert führen.

BlacKi
2016-06-03, 13:38:41
Für den 0815 1080p Gelegenheitsspieler reicht doch ne RX 480 mit 4GB völlig aus.
genau wie bei der 680 damals mit 2gb. die 7970 hat doch aber genau deshalb länger durchgehalten wegen dem 1 gb mehr speicher. der aufpreis für 8gb, selbst wenn er nicht sofort sichtbar ist, äussert sich aber später wenn die 4gb nicht mehr reichen in bessere frametimes, höhere fps und einem höheren wiederverkaufswert. 4gb sind derzeit noch ok, aber in 2 jahren ist es einfach zu wenig. in 2 jahren kann man die 8gb variante besser verkaufen und liefert bessere performance.

Thunder99
2016-06-03, 13:43:23
Eine 8GB Polaris unter einem Vapor X von Sapphire wird wohl erst später kommen? Oder verbauen die sowas auf den Ref. Boards. Die TriX OC Modelle werden bei Release schon kaufbar sein? Wie spekuliert ihr da?
Eine Vapor-X wäre sehr edel. Aber durch die Nitro Serie wage ich zu bezweifeln das so was in absehbarer Zeit kommt oder überhaupt kommt :( :D

AlphaNUSS
2016-06-03, 14:08:50
Die Leute, die nur CS Dota und ab und zu mal ein etwas anspruchsvolleres spielen, sollten mit der 4GB Variante keine Probleme haben.

Sunrise
2016-06-03, 14:14:11
Eine Vapor-X wäre sehr edel. Aber durch die Nitro Serie wage ich zu bezweifeln das so was in absehbarer Zeit kommt oder überhaupt kommt :( :D
Ob sich die stark übertakteten Partnerkarten überhaupt lohnen wissen wir noch nicht, da P10 recht stark BW-limitiert sein dürfte, wenn man den Chip übertaktet, denn der RAM sollte bei GDDR5 schon verdammt hoch spezifiziert sein. Da wird wohl kaum Platz für starke Übertaktungen sein, die nicht an der BW nagen. Wir werden sehen.

Wer es leiser mag oder ein anderes Design bzw. Lüftertyp bevorzugt wird natürlich wohl dennoch zugreifen, aber 150W TDP dürte auch die Referenz spielend leise kühlen, sofern AMD da nichts vermasselt.

Digidi
2016-06-03, 14:14:34
Die AMD Anzeige ist völlig irrelevant Tomb Raider hat massig Frametimes spikes auf der AMD "High-End" Karte weil ihr der Vram ausgeht.

http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html


Vram ist nicht das Problem. Meist ist das Problem das dass Spiel nicht gut programmiert ist. Shadow of Mordor hat auch keine Frame Drops aber läuft super auf Fury trotz exorbitanten Ram Verbrauch http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,11.html

-/\-CruNcher-/\-
2016-06-03, 14:18:44
Das hat nichts mit schlechter Programmierung zu tun es ist über effizient programmiert zu effizient für einen PC es ist aber ein Parade beispiel für perfektes HSA Management ;)

Ravenhearth
2016-06-03, 14:19:53
Schon heute bringen 8GB statt 4GB einen Vorteil, bspw in ROTTR mit sehr hohen Texturen, aber vor allem als Absicherung gegen schlecht optimierte Spiele wie BO3, Mordor oder Arkham Knight. Bei 30-50€ Aufpreis würde ich auf jeden Fall zur 8GB-Version greifen, mehr VRAM hat sich in der jüngeren Vergangenheit IMMER ausgezahlt: GTX 580 3GB, GTX 680/770 4GB, R9 290 statt GTX 780, uswusf.


Das hat nichts mit schlechter Programmiereung zu tun es ist über effizient Programmiert zu Effizient für einen PC

Wat.

Disco_STFU
2016-06-03, 14:29:41
Ich bin wirklich mal auf die Leistungs- bzw. Kühlfähigkeit des Refdesigns gespannt. Wieso verbaut man das nicht eigentlich auch auf den 4GB Karten. Wär doch doch der identische Kühler?!?

dildo4u
2016-06-03, 14:30:09
Vram ist nicht das Problem. Meist ist das Problem das dass Spiel nicht gut programmiert ist. Shadow of Mordor hat auch keine Frame Drops aber läuft super auf Fury trotz exorbitanten Ram Verbrauch http://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,11.html



This comparison set includes the R9 Nano and GTX 980 again, but adds the Radeon R9 390 GB card and the GTX 970. The first thing I noticed was that the R9 390 did NOT exhibit the same frame time stutter and spikes that we saw with the both of the Fiji GPUs. This Hawaii-based GPU appears to be running much more smoothly than the R9 Nano, even if the average frame rate it provides is 6-7 FPS lower.

http://www.pcper.com/reviews/Graphics-Cards/Rise-Tomb-Raider-AMD-and-NVIDIA-Performance-Results/Adding-GTX-970-and-R9-390

illidan
2016-06-03, 14:32:52
Tomb Raider DX12 ist seit Crimson 16.4.2 kaputt, mit 16.4.1 stottert es nicht.

Ravenhearth
2016-06-03, 14:36:40
Blöd nur, dass die DX11 getestet haben. Aber das läuft auch auf GTX980/970 nicht immer rund.

Gipsel
2016-06-03, 14:40:41
Ich bin wirklich mal auf die Leistungs- bzw. Kühlfähigkeit des Refdesigns gespannt. Wieso verbaut man das nicht eigentlich auch auf den 4GB Karten. Wär doch doch der identische Kühler?!?Ich würde mal vermuten, daß Niemand bei AMD Jemandem verbieten wird, auf das PCB des Ref-Designs einfach nur halb so große RAM-Chips zu löten, um eine 4GB-Version zu erhalten. Also eventuell gibt es die ja sogar. Nur dürften Kühler im Eigendesign mit einem Axiallüfter etwas billiger zu fertigen sein als die Konstruktion auf der Referenzkarte.

illidan
2016-06-03, 14:44:51
Blöd nur, dass die DX11 getestet haben. Aber das läuft auch auf GTX980/970 nicht immer rund.
Bei Guru3D wurde DX12 getestet.
Und Very High Textur-Details sind ziemlicher Wahnwitz bei dem Spiel, mit High laufen 4GB-Karten perfekt.

-/\-CruNcher-/\-
2016-06-03, 14:46:02
AMD ist echt auf dem Weg Konsolen und PC vollkommen zu verschmelzen bin echt gespannt ob wir das mit einer auf Zen bassierten Platform schon in voller Gloria zu Geschicht bekommen werden, das ganze Platform Management scheint schon jetzt effizienter als jedes momentane Intel/Nvidia System :)

Ravenhearth
2016-06-03, 14:55:14
Bei Guru3D wurde DX12 getestet.
Und Very High Textur-Details sind ziemlicher Wahnwitz bei dem Spiel, mit High laufen 4GB-Karten perfekt.

Es geht aber um den verlinkten Test von PC Perspective :confused:

Dass Very High nicht nötig ist sehe ich zwar auch so, aber wenn mans mit 8GB haben kann, wieso nicht?

prinz_valium
2016-06-03, 15:00:30
ich weiß wir wissen nicht welche Leistung polaris 10 genau haben wird
da müssen wir uns bis ende Juni noch gedulden.

aber für mich ist der grat zwischen "totaler fail" und "hammer karte" ziemlich gering und nach bisherigen Erkenntnissen ein 50:50 glückspiel


die frage ist also, ob wir nur 970 Leistung in amd günstigen spielen bekommen, oder 980 + 5% im schnitt bei so ziemlich allen titeln. für mich persönlich ist das ein ungemein großer unterschied und entscheidet darüber, ob diese karte für mich überhaupt in frage kommt oder nicht.
wir müssen bedenken, dass es sich hier um den polaris 10 top dog handelt und nicht die rx 470. und eine 40cu variante soll es ja nicht geben.

][immy
2016-06-03, 15:26:32
ich weiß wir wissen nicht welche Leistung polaris 10 genau haben wird
da müssen wir uns bis ende Juni noch gedulden.

aber für mich ist der grad zwischen "totaler fail" und "hammer karte" ziemlich gering und nach bisherigen Erkenntnissen ein 50:50 glückspiel


die frage ist also, ob wir nur 970 Leistung in amd günstigen spielen bekommen, oder 980 + 5% im schnitt bei so ziemlich allen titeln. für mich persönlich ist das ein ungemein großer unterschied und entscheidet darüber, ob diese karte für mich überhaupt in frage kommt oder nicht.
wir müssen bedenken, dass es sich hier um den polaris 10 top dog handelt und nicht die rx 470. und eine 40cu variante soll es ja nicht geben.
Wenn du jetzt noch erklären würdest, warum eine ~$200 Karte eine >$400 Karte schlagen können müsste, wäre ich dir sehr dankbar.
Bislang ist mehr oder minder nur die Anzahl der Shader-Einheiten bekannt, mehr nicht.
Selbst die GTX970 ist schon außerhalb des Preisbereichs. Natürlich wenn sie erscheint und nvidia die Preise senken würde, wäre das was anderes, aber auf dem aktuellen Preispunkt müsste sie sich gar nicht erst mit einer GTX970/980 anlegen.
Im Preisbereich über $300 wird dann vermutlich auch GDDR5x verbaut, was wieder deutlich mehr Bandbreite und damit potentiell auch performance liefern kann.

Palpatin
2016-06-03, 15:33:49
R480 muss sich mit der vermutlich bald erscheinenden 1060 messen. Verlangt NV 250$ und bringt 980 GTX Leistung mit 6-8gb RAM wird es Polaris schwer haben.

][immy
2016-06-03, 15:38:58
R480 muss sich mit der vermutlich bald erscheinenden 1060 messen. Verlangt NV 250$ und bringt 980 GTX Leistung mit 6-8gb RAM wird es Polaris schwer haben.
wenn sie das machen, ist der Preispunkt der 1080er auch nicht mehr zu halten. Dann wäre es günstiger 2 kleine Karten zu kaufen als eine große. Damit müsste die 1080er in den $400-$500 Bereich rutschen. Und soweit ich das bisher mitbekommen habe, will nvidia das eigentlich gar nicht.

dildo4u
2016-06-03, 15:39:14
Die NV Karte wird 300€ kosten ich erwarte mindestens 50€ Aufpreis zur 8 GB 480,da NV ein größeren Chip nutzt.Der NV Chip der mit der 200€ Version konkurriert kommt erst später.

prinz_valium
2016-06-03, 15:48:07
[immy;11055360']Wenn du jetzt noch erklären würdest, warum eine ~$200 Karte eine >$400 Karte schlagen können müsste, wäre ich dir sehr dankbar.
Bislang ist mehr oder minder nur die Anzahl der Shader-Einheiten bekannt, mehr nicht.
Selbst die GTX970 ist schon außerhalb des Preisbereichs. Natürlich wenn sie erscheint und nvidia die Preise senken würde, wäre das was anderes, aber auf dem aktuellen Preispunkt müsste sie sich gar nicht erst mit einer GTX970/980 anlegen.
Im Preisbereich über $300 wird dann vermutlich auch GDDR5x verbaut, was wieder deutlich mehr Bandbreite und damit potentiell auch performance liefern kann.

weil die gtx 980 mittlerweile 2 jahre alt ist.
weil die gtx 980 nur der performance chip der letzten generation ist

mehr Leistung für weniger geld ist etwas, man man immer erwarten kann.
ich zumindest habe kein interesse daran, dass dies noch schlechter wird in Zukunft.


der preis ist super, ja
aber gtx 970 Leistung ist absolut enttäuschend
eine gtx 970 kostet nur noch zwischen 250 und 300 euro
da soll eine 200 bis 250 karte 2 jahre später also irgendwas tolles sein?



wie gesagt. das ist alles hypotetisch. und ich hoffe und glaube nicht an nur 970 leistung
aber diese 15 bis 20% leistungsunterschied sind für mich eklatant wichtig um die rx 480 einzuordnen

Elkinator
2016-06-03, 15:53:42
[immy;11055375']Damit müsste die 1080er in den $400-$500 Bereich rutschen. Und soweit ich das bisher mitbekommen habe, will nvidia das eigentlich gar nicht.
Können sie eher nicht, da würde die Nachfrage steigen, die man aber aktuell nicht bedienen könnte!

Dural
2016-06-03, 15:55:27
NV wird und kann mehr dafür verlangen ;)

Die NV Karte wird 300€ kosten ich erwarte mindestens 50€ Aufpreis zur 8 GB 480,da NV ein größeren Chip nutzt.Der NV Chip der mit der 200€ Version konkurriert kommt erst später.

Ich wäre mir da nicht mal sicher das der Chip NV teurer kommt, die Chips unterscheiden sich gerade mal mit 80mm2, dazu ist er erheblich beschnitten, NV wird damit fast alle Chips verwenden können.

Palpatin
2016-06-03, 16:01:09
Die NV Karte wird 300€ kosten ich erwarte mindestens 50€ Aufpreis zur 8 GB 480,da NV ein größeren Chip nutzt.Der NV Chip der mit der 200€ Version konkurriert kommt erst später.
Würde ich nicht drauf wetten zur 1060 ist auch nicht viel bekannt.
Die 970 kam für 320 und die 960 für 200. Dazu würd 1070 370 und 1060 250 perfekt passen.
Der Leistungsunterschied 1070=980ti und 1060=980 würde auch gut zu den Preisen passen.

hardtech
2016-06-03, 16:06:03
@prinz
Bin grösstenteils deiner meinung. Also eine 16nm karte muss ein deutlich besseres plv haben. Dazu die lange zeit der stagnation!

Ich schätze die 480 auf 550-600% wie 3dc es tut. Ergo: eine kleine gtx980 mit doppeltem ram. Dazu nur 150w tdp. Ideal für meinen kleinen htpc mit dem bq e9 400w netzteil. Aktuell ist eine gtx970 mini verbaut.

Hoffe vielmehr auf eine kurze karte! Diese ganzen standarf design mit 27cm länge, ein anderer aufkleber hier, ein anderer marketing name dort. Ist für mich alles einheitsbrei! Auch das pcb spielt eine untergeordnete rolle! Ob das teil nin 6 phasen oder 16 phasen hat?! Egal, hauptsache es kann gut die leistung in einem kleinen gehäuse halten.

Also die hersteller dürfen ruhig mutiger sein! Eine karte unter 1440p und 8gb ram wird laut der historie der langsamen entwicklung der gpus dann auch gut und gerne geschätzte 5 jahre halten!

Elkinator
2016-06-03, 16:13:36
Fast alle Chips können sie also verwenden, echt lustig welche Vorstellungen manche haben:O

Michalito
2016-06-03, 16:26:16
Ich würde es so ausdrücken:

- In der Preisklasse der RX480 sind 4GB VRAM mehr als ausreichend
- In der Performanceklasse der RX480 sind 4GB VRAM zu knapp bemessen


+1 :)

Botcruscher
2016-06-03, 16:26:41
Was soll dagegen sprechen? Grafikchips haben genug Reservelogik und der Rest wandert in die Restechips. Für GM200 schwirrten doch mal 100$ rum.

Nach der Gerüchteküche sollte 14nm GF trotzdem günstiger sein als 16nm TSMC.

Unicous
2016-06-03, 16:49:48
Was soll dagegen sprechen? Grafikchips haben genug Reservelogik und der Rest wandert in die Restechips. Für GM200 schwirrten doch mal 100$ rum.


Das halte ich für... ein Gerücht.:wink:

Für GF110 wurde von Mercury Research mal $120 veranschlagt auf einem zu der Zeit ausgereiften 40nm Prozess. GM200 ist ca. 15% größer auf einem mittlerweile auch ausgereiften Prozess. Dennoch müsste der Yield spektakulär gut sein um das hier auszugleichen

http://www.extremetech.com/wp-content/uploads/2012/03/NV-Pres4.jpg

Ich bin mir auch ziemlich sicher, dass wir diese Diskussion schon einmal hatten.

Wo soll die Zahl überhaupt herkommen?:confused:

Schlammsau
2016-06-03, 16:59:00
weil die gtx 980 mittlerweile 2 jahre alt ist.
weil die gtx 980 nur der performance chip der letzten generation ist

mehr Leistung für weniger geld ist etwas, man man immer erwarten kann.
ich zumindest habe kein interesse daran, dass dies noch schlechter wird in Zukunft.


der preis ist super, ja
aber gtx 970 Leistung ist absolut enttäuschend
eine gtx 970 kostet nur noch zwischen 250 und 300 euro
da soll eine 200 bis 250 karte 2 jahre später also irgendwas tolles sein?



wie gesagt. das ist alles hypotetisch. und ich hoffe und glaube nicht an nur 970 leistung
aber diese 15 bis 20% leistungsunterschied sind für mich eklatant wichtig um die rx 480 einzuordnen
Ich bin mir ziemlich sicher das AMD auf GTX 970 Niveau landen wird und die gibts atm ab 270€ aufwärts ......
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~653_nVIDIA&asuch=&bpmax=&v=e&hloc=at&hloc=de&filter=aktualisieren&plz=&dist=&mail=&sort=p

fondness
2016-06-03, 17:03:42
Grundsätzlich muss man wohl leider schon sagen, dass ein GM204-Shrink wohl ungefähr dieselbe Die-Size hätte und wohl mindestens ebenso schnell wäre bei eher weniger Leistungsaufnahme...

Rabiata
2016-06-03, 17:09:48
Hoffe vielmehr auf eine kurze karte! Diese ganzen standarf design mit 27cm länge, ein anderer aufkleber hier, ein anderer marketing name dort. Ist für mich alles einheitsbrei! Auch das pcb spielt eine untergeordnete rolle! Ob das teil nin 6 phasen oder 16 phasen hat?! Egal, hauptsache es kann gut die leistung in einem kleinen gehäuse halten.
Technisch sollte das kein Problem sein, die Fury Nano hatte auch ein 15 cm Gehäuse bei 175 W TDP. Da sollten 150W TDP mit einem ähnlichen Kühler auch bei der RX 480 gehen. Es muß sich nur ein Hersteller finden...

Effe
2016-06-03, 17:12:57
Sapphire hat doch schon mit der 285/380 so eine gebracht. Ist ohne Zweifel möglich.
Sapphire Radeon R9 380 Nitro ITX Compact, 4GB GDDR5 (http://geizhals.de/sapphire-radeon-r9-380-nitro-itx-compact-11242-14-20g-a1391941.html?hloc=de)

• Abmessungen: 170x116x37mm

Digidi
2016-06-03, 17:13:44
Vor allem da unklar ist, was die Zahlen jetzt genau zu bedeuten haben. Ist es nur Zufall, daß die GPU-Last bei "single batch" (war das nicht sonst immer normal/medium/heavy? Daß ein einzelner Batch schlecht auf zwei GPUs aufgeteilt werden kann, so daß da nur ~50% Auslastung rauskommen, liegt ja irgendwie nahe) mit 51% genau dem angeblichen Performancezuwachs mit der zweiten GPU im Schnitt übereinstimmt oder ein Versehen/Mißverständnis seitens Hallock? Ansonsten könnte man ja einfach auf die Framerate einer einzelnen GPU zurückrechnen (62,7/1,51=41,5 fps), was er aber absolut vermeiden wollte.
Also ich vermute, der weiß schlicht gar nicht soo genau bescheid, so daß man seine Aussagen auch mit einer Prise Salz genießen sollte.

=> Ruhig Blut bewahren, bis es unabhängige Tests gibt.

41,5 Fps sagst du. Das würde sehr gut hierzu passen:
http://ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5

Das sind die gleichen Settings wie beim Multi-GPU Benchmark, nur diesmal mit 1er Karte.

Disco_STFU
2016-06-03, 17:16:00
GP 106 wird wohl 10% mehr leisten, 20 Watt weniger verbrauchen und 100€ Aufschlag haben. Und er wird sich besser verkaufen als RX 480... weil Nvidia und so

Gipsel
2016-06-03, 17:34:12
41,5 Fps sagst du. Das würde sehr gut hierzu passen:
http://ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5

Das sind die gleichen Settings wie beim Multi-GPU Benchmark, nur diesmal mit 1er Karte.Nö, sind sie nicht. Dein Link ist Extreme in 1440p und 4x MSAA, der AMD-Bench war Crazy in 1080p und 8x MSAA.

Außerdem sagte Hallock inzwischen, die angegebene 1,51x Skalierung wäre ein Versehen gewesen und tatsächlich wären es 1,83x (was dann auf 34fps oder so in den Settings hinauslaufen würde). Typische Multi-GPU-Skalierungen in Tests betragen eher <=1,5, so weit ich gesehen habe, aber es wird wohl auch selten crazy mit 8x MSAA getestet. Also wer weiß. Und prinzipiell gilt immer noch, daß Alles von Hallock da auf Reddit mit einem Teelöffel Salz zu genießen ist, denn es scheint immer wieder Multi-GPU-Skalierung und Auslastung durcheinander geworfen zu werden (die 1,83 werden teilweise genau wie die 1,51 synonym zu 83% bzw. 51% Auslastung benutzt, nur daß sie jetzt eben über den kompletten Run gemittelt sein soll).

Edit:
Weiß eigentlich irgendwer, wie Ashes die Auslastung bei Multi-GPU anzeigt? Ich würde doch mal naiv vermuten, das ist gemittelt über die Karten? Dann wären die 83% Auslastung im Mittel, ja für zwei Karten zusammen 1,66. Unter der Annahme, daß der Aufwand gleich bleibt (stimmt so nicht, bei MultiGPU muß etwas mehr gemacht werden, also selbst bei 100% Auslastung beider Karten bekommt man nicht ganz die doppelte Framerate einer einzelnen), kann man das als obere Grenze für die Skalierung annehmen. Die müßte also (im Widerspruch zu Hallock) <=1,66 sein. Damit ergäbe sich für eine einzelne Karte dann schon mindestens 37,6 fps. Aber keine Ahnung. Mal sehen, was die Reviews zeigen. Hallock kann die Ergebnisse des Ashes-Benchmarks offenbar nicht ohne Übertragungsverluste kommunizieren. :rolleyes:

StefanV
2016-06-03, 17:43:37
Viel kleinerer Chip auf niedrigeren Taktraten
Ahjo, also so wie Winchester/Venice K8 mit 84mm² vs Prescott bei 112mm², wo ja auch der mit dem größeren Die die miesere Leistung hatte, trotz des höheren Taktes.

Also diese Argumentation ist schlicht Blödsinn, da du allein für hohen Takt mehr Transistoren brauchst...

StefanV
2016-06-03, 17:47:21
Dass Apple Tonga XT zeitweise Exklusiv bekommen hat kann einfach an frueheren Vertraegen liegen, die die eingegangen sind, urspruenglich womoeglich sogar noch fuer 20nm Chips geplant.
...oder schlicht an dem Zustand, dass man selbst noch massig Tahitis auf Halde liegen hatte.
Da kanns dann auch sinnvoll sein, das ganze dann erst mal abzuverkaufen und den neuen Chip zurück zu halten, wie es ja auch gemacht wurde...

Da gibt es also durchaus mehrere Gründe für...

iuno
2016-06-03, 17:55:02
Hallock kann die Ergebnisse des Ashes-Benchmarks offenbar nicht ohne Übertragungsverluste kommunizieren. :rolleyes:
Vor allem schmeisst er alles durcheinander. "51% utilization" != "151% Skalierung" :facepalm: Zumal das ja nicht fuer den ganzen run gilt. Und dann ist einer "utilization" Angabe ohnehin nicht zu trauen. Wenn es um die Skalierung geht, muessten sie die Karte ja auch einzeln gegengetestet haben. Dann haetten sie die Werte aber direkt kommunizieren koennen und nicht auf diese Weise, wo man es ja theoretisch trotzdem genau herleiten kann.
Ich glaube der erzaehlt grossen Mist. Dazu kommt das 8xAA, wo die niedrige Bandbreite wohl bei beiden Karten deutlich ins Gewicht faellt.

tl;dr: Hallocks Beitraege helfen kein Stueck weiter

Disco_STFU
2016-06-03, 17:57:48
tl;dr: Hallocks Beitraege helfen kein Stueck weiter

Helfen nicht? HELFEN NICHT? ;)

Die sind doch für dieses GANZE Chaos erst verantwortlich :D :freak:

illidan
2016-06-03, 18:02:58
Vor allen Dingen nervt Ashes nur noch. Das wird von niemandem gespielt, sieht grauenhaft aus und die fps im GPU-Limit sind ein Witz.
Hätten sie halt einfach mal einen Single-GPU Wert vom neuen Total War mit DX12 genommen, anstatt dem bisherigen Ashes-Murks noch die Krone aufzusetzen mit diesem Verwirrspiel (das sie auch noch selbst verwirren zu scheint...).

Disco_STFU
2016-06-03, 18:04:37
Immerhin reden jetzt wirklich alle darüber! :D

Gipsel
2016-06-03, 18:05:01
Ich glaube der erzaehlt grossen Mist.
[..]
Hallocks Beitraege helfen kein Stueck weiterDas unterschreibe ich sofort.
Dazu kommt das 8xAA, wo die niedrige Bandbreite wohl bei beiden Karten deutlich ins Gewicht faellt.Da täusche Dich mal nicht! Die Framebufferkompression kann bei 8xMSAA extrem gut arbeiten (nicht nur 30-40% gesparte Bandbreite oder so sondern wirklich was in der Größenordnung 80% gesparte Bandbreite, weil alle MSAA Subsamples außer an Kanten sich praktisch perfekt komprimieren lassen, die sind ja innerhalb eines Pixels meist alle perfekt identisch).
Also falls AMD da nicht rausgefunden hat, daß nVs Framebufferkompression bei 8xMSAA eine Schwäche hat, würde mich die 8xMSAA-Wahl aus einem anderen Grund wundern. Die nV-ROPs können traditionell acht Z-Samples pro Takt (also bis 8xMSAA) in einem Rutsch testen, die AMD-ROPs nur vier. AMD sollte also bei 8xMSAA etwas mehr Leistung verlieren als nV (zumindest solange die ROPs limitieren und nicht die Bandbreite, wo dann wieder die Kompression reinspielt). Hat sich da vielleicht was geändert?

Digidi
2016-06-03, 18:06:56
Nö, sind sie nicht. Dein Link ist Extreme in 1440p und 4x MSAA, der AMD-Bench war Crazy in 1080p und 8x MSAA.

Außerdem sagte Hallock inzwischen, die angegebene 1,51x Skalierung wäre ein Versehen gewesen und tatsächlich wären es 1,83x (was dann auf 34fps oder so in den Settings hinauslaufen würde). Typische Multi-GPU-Skalierungen in Tests betragen eher <=1,5, so weit ich gesehen habe, aber es wird wohl auch selten crazy mit 8x MSAA getestet. Also wer weiß. Und prinzipiell gilt immer noch, daß Alles von Hallock da auf Reddit mit einem Teelöffel Salz zu genießen ist, denn es scheint immer wieder Multi-GPU-Skalierung und Auslastung durcheinander geworfen zu werden (die 1,83 werden teilweise genau wie die 1,51 synonym zu 83% bzw. 51% Auslastung benutzt, nur daß sie jetzt eben über den kompletten Run gemittelt sein soll).

Edit:
Weiß eigentlich irgendwer, wie Ashes die Auslastung bei Multi-GPU anzeigt? Ich würde doch mal naiv vermuten, das ist gemittelt über die Karten? Dann wären die 83% Auslastung im Mittel, ja für zwei Karten zusammen 1,66. Unter der Annahme, daß der Aufwand gleich bleibt (stimmt so nicht, bei MultiGPU muß etwas mehr gemacht werden, also selbst bei 100% Auslastung beider Karten bekommt man nicht ganz die doppelte Framerate einer einzelnen), kann man das als obere Grenze für die Skalierung annehmen. Die müßte also (im Widerspruch zu Hallock) <=1,66 sein. Damit ergäbe sich für eine einzelne Karte dann schon mindestens 37,6 fps. Aber keine Ahnung. Mal sehen, was die Reviews zeigen. Hallock kann die Ergebnisse des Ashes-Benchmarks offenbar nicht ohne Übertragungsverluste kommunizieren. :rolleyes:

Ok. Danke Gipsel für die Ausführung. Da hab ich mich wohl Verlesen.
Danke auch dir und Locuza für deine Ausführungen zu Preamtion von Nvidia.

8xMsaa. Das findet man leider nicht in den Benchmarks von der Ashes Seite, da 8xMsaa kein Standardwert ist. Müsste mal jemand mit einer Titan X oder 980 benchen was dabei rauskommt.

illidan
2016-06-03, 18:09:29
Das MSAA kostete das letzte Mal, als ich es getestet hatte, bei dem Spiel so gut wie überhaupt keine Leistung mit Hawaii. Glaube nicht, dass das mit guter DCC bei weniger Bandbreite signifikant anders ist.

Btw: MSAA, wtf? Wen interessiert das abseits von VR überhaupt noch?
Bei Star Swarm hatten sie ja irgendeine komische temporale Komponente, die mit DX12 ja angeblich so viel schneller liefe. Kann man nun auch noch per Config einstellen, sieht aber ohne MSAA zum kotzen aus und ist zudem noch arschteuer. Das TAA in der Cryengine glättet zigfach besser, kostet gar nichts und hat eine sehr gute Nachschärfung ähnlich Uncharted 4 integriert...

Gipsel
2016-06-03, 18:10:06
8xMsaa. Das findet man leider nicht in den Benchmarks von der Ashes Seite, da 8xMsaa kein Standardwert ist. Müsste mal jemand mit einer Titan X oder 980 benchen was dabei rauskommt.Dildo4u hat seine 970@1,3GHz mal durch 1080p Crazy mit 8xMSAA gejagt und kommt auf etwa 30fps (Link kann ich gleich mal noch suchen). Er meinte aber, daß es da vielleicht schon knapp mit dem VRAM wird.

Edit: Link (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11054871#post11054871)

Gipsel
2016-06-03, 18:16:24
Btw: MSAA, wtf? Wen interessiert das abseits von VR überhaupt noch?Alle, die keinen der oft angebotenen vermurksten Post-Processing-Blur-Filter haben wollen? Und wenn es wenig kostet und mit der Rendermethode kompatibel ist, warum denn nicht?

illidan
2016-06-03, 18:16:33
Dildo4u hat seine 970@1,3GHz mal durch 1080p Crazy mit 8xMSAA gejagt und kommt auf etwa 30fps (Link kann ich gleich mal noch suchen). Er meinte aber, daß es da vielleicht schon knapp mit dem VRAM wird.

Edit: Link (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11054871#post11054871)
Die Frametimes sind fast eine einzige, formlose Punktwolke. Toller DX12 Code-Pfad für Maxwell. :freak:
Hattest meinen Kepler-Versuch im 1080-Thread eigentlich gesehen?

Alle, die keinen der oft angebotenen vermurksten Post-Processing-Blur-Filter haben wollen? Und wenn es wenig kostet, warum denn nicht?
Klar kann man es machen, wenn die Engine es eh kann und es nichts kostet (Forward-Renderer?).
Das ist für 90% der AAA-Spiele aber nicht die Realität, und auch bei Ashes ist viel Aliasing nicht nur an Polygon-Kanten anzutreffen.
Kein vernünftiges TAA = Entwickler-Fail.

Digidi
2016-06-03, 18:17:19
Also ich hab gerade mal meine 290x durchlaufen lassen. Ich komme da auf 39 fps



== Hardware Configuration ================================================
GPU 0: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 8140 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
==========================================================================
Quality Preset: Custom
==========================================================================

Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 16 million
Shadow Quality: High
Temporal AA Duration: 0
Temporal AA Time Slice: 0
Multisample Anti-Aliasing: 8x
Texture Rank : 1


== Total Avg Results =================================================
Total Time: 60.005829 ms per frame
Avg Framerate: 38.915314 FPS (25.696825 ms)
Weighted Framerate: 38.213795 FPS (26.168560 ms)
CPU frame rate (estimated if not GPU bound): 66.278061 FPS (15.087949 ms)
Percent GPU Bound: 99.512169 %
Driver throughput (Batches per ms): 5589.831543 Batches
Average Batches per frame: 19084.968750 Batches
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 70.939056 ms per frame
Avg Framerate: 43.614902 FPS (22.927944 ms)
Weighted Framerate: 42.409672 FPS (23.579527 ms)
CPU frame rate (estimated if not GPU bound): 80.606041 FPS (12.406017 ms)
Percent GPU Bound: 99.385544 %
Driver throughput (Batches per ms): 4355.449219 Batches
Average Batches per frame: 6024.541016 Batches
== Sub Mark Medium Batch =================================================
Total Time: 56.005329 ms per frame
Avg Framerate: 41.924583 FPS (23.852354 ms)
Weighted Framerate: 41.181210 FPS (24.282919 ms)
CPU frame rate (estimated if not GPU bound): 69.420013 FPS (14.405068 ms)
Percent GPU Bound: 99.558266 %
Driver throughput (Batches per ms): 5158.091797 Batches
Average Batches per frame: 13525.451172 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 53.073109 ms per frame
Avg Framerate: 32.992226 FPS (30.310173 ms)
Weighted Framerate: 32.633633 FPS (30.643232 ms)
CPU frame rate (estimated if not GPU bound): 54.192436 FPS (18.452761 ms)
Percent GPU Bound: 99.592705 %
Driver throughput (Batches per ms): 6354.090820 Batches
Average Batches per frame: 37704.914063 Batches
=========================================================================
=========================================================================
== Shot Mid Artemis Battle Shot =========================================
Total Time: 4.998726 ms per frame
Avg Framerate: 36.809376 FPS (27.166992 ms)
Weighted Framerate: 36.513924 FPS (27.386812 ms)
CPU frame rate (estimated if not GPU bound): 80.314934 FPS (12.450985 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3417.490723 Batches
Average Batches per frame: 4405.543457 Batches
== Shot Far Artemis Battle Shot =========================================
Total Time: 4.991158 ms per frame
Avg Framerate: 39.269444 FPS (25.465092 ms)
Weighted Framerate: 39.150074 FPS (25.542736 ms)
CPU frame rate (estimated if not GPU bound): 64.198662 FPS (15.576650 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4885.129395 Batches
Average Batches per frame: 13836.917969 Batches
== Shot Satellite Shot =========================================
Total Time: 5.004561 ms per frame
Avg Framerate: 35.367737 FPS (28.274355 ms)
Weighted Framerate: 34.869087 FPS (28.678696 ms)
CPU frame rate (estimated if not GPU bound): 52.110382 FPS (19.190033 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6218.329590 Batches
Average Batches per frame: 39135.769531 Batches
== Shot Fighters Satellite Chase =========================================
Total Time: 11.993718 ms per frame
Avg Framerate: 51.943859 FPS (19.251553 ms)
Weighted Framerate: 51.417034 FPS (19.448807 ms)
CPU frame rate (estimated if not GPU bound): 83.757210 FPS (11.939270 ms)
Percent GPU Bound: 96.613602 %
Driver throughput (Batches per ms): 3169.635498 Batches
Average Batches per frame: 3301.820313 Batches
== Shot Surrounded T3 Shot =========================================
Total Time: 5.013055 ms per frame
Avg Framerate: 27.129168 FPS (36.860699 ms)
Weighted Framerate: 26.240004 FPS (38.109749 ms)
CPU frame rate (estimated if not GPU bound): 72.645821 FPS (13.765417 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4237.201660 Batches
Average Batches per frame: 6303.771973 Batches
== Shot Overhead Top Battle Shot =========================================
Total Time: 5.000897 ms per frame
Avg Framerate: 31.394365 FPS (31.852848 ms)
Weighted Framerate: 31.040243 FPS (32.216244 ms)
CPU frame rate (estimated if not GPU bound): 65.294815 FPS (15.315152 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5522.331543 Batches
Average Batches per frame: 12632.923828 Batches
== Shot Sideline Battle Shot =========================================
Total Time: 4.988269 ms per frame
Avg Framerate: 38.490303 FPS (25.980570 ms)
Weighted Framerate: 38.272385 FPS (26.128498 ms)
CPU frame rate (estimated if not GPU bound): 69.045723 FPS (14.483156 ms)
Percent GPU Bound: 98.683914 %
Driver throughput (Batches per ms): 4585.988281 Batches
Average Batches per frame: 10826.208984 Batches
== Shot Bomber Chase Cam =========================================
Total Time: 6.991486 ms per frame
Avg Framerate: 43.481457 FPS (22.998308 ms)
Weighted Framerate: 43.328346 FPS (23.079580 ms)
CPU frame rate (estimated if not GPU bound): 71.487167 FPS (13.988524 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4610.052246 Batches
Average Batches per frame: 8061.266602 Batches
== Shot Long Shot =========================================
Total Time: 10.010315 ms per frame
Avg Framerate: 35.263626 FPS (28.357832 ms)
Weighted Framerate: 34.919537 FPS (28.637266 ms)
CPU frame rate (estimated if not GPU bound): 64.332397 FPS (15.544269 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4931.274414 Batches
Average Batches per frame: 15008.305664 Batches
== Shot Fighters Chase Cam 1 =========================================
Total Time: 14.997348 ms per frame
Avg Framerate: 48.475239 FPS (20.629089 ms)
Weighted Framerate: 48.278885 FPS (20.712988 ms)
CPU frame rate (estimated if not GPU bound): 74.880875 FPS (13.354545 ms)
Percent GPU Bound: 99.216858 %
Driver throughput (Batches per ms): 4808.238281 Batches
Average Batches per frame: 9832.485352 Batches
== Shot Satellite Shot 2 =========================================
Total Time: 8.000986 ms per frame
Avg Framerate: 36.370518 FPS (27.494797 ms)
Weighted Framerate: 35.812649 FPS (27.923096 ms)
CPU frame rate (estimated if not GPU bound): 53.255970 FPS (18.777239 ms)
Percent GPU Bound: 98.787392 %
Driver throughput (Batches per ms): 6268.382813 Batches
Average Batches per frame: 38760.960938 Batches
== Shot Top Battle Shot =========================================
Total Time: 4.998516 ms per frame
Avg Framerate: 30.609085 FPS (32.670040 ms)
Weighted Framerate: 30.431641 FPS (32.860535 ms)
CPU frame rate (estimated if not GPU bound): 59.523605 FPS (16.800056 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5722.784180 Batches
Average Batches per frame: 20770.835938 Batches
== Shot Sideline Battle Shot 2 =========================================
Total Time: 10.008712 ms per frame
Avg Framerate: 34.869621 FPS (28.678259 ms)
Weighted Framerate: 34.808060 FPS (28.728979 ms)
CPU frame rate (estimated if not GPU bound): 59.526100 FPS (16.799353 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5427.877441 Batches
Average Batches per frame: 25468.708984 Batches
== Shot Fighters Chase Cam 2 =========================================
Total Time: 9.993749 ms per frame
Avg Framerate: 45.428398 FPS (22.012663 ms)
Weighted Framerate: 45.061974 FPS (22.191660 ms)
CPU frame rate (estimated if not GPU bound): 83.153862 FPS (12.025900 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3627.393311 Batches
Average Batches per frame: 5034.160645 Batches
== Shot Long Shot 3 =========================================
Total Time: 5.001945 ms per frame
Avg Framerate: 29.988333 FPS (33.346302 ms)
Weighted Framerate: 29.684015 FPS (33.688164 ms)
CPU frame rate (estimated if not GPU bound): 49.656876 FPS (20.138199 ms)
Percent GPU Bound: 99.465996 %
Driver throughput (Batches per ms): 7103.214355 Batches
Average Batches per frame: 48062.300781 Batches
== Shot Mountain Air Battle Shot =========================================
Total Time: 9.988634 ms per frame
Avg Framerate: 42.047787 FPS (23.782463 ms)
Weighted Framerate: 41.952751 FPS (23.836338 ms)
CPU frame rate (estimated if not GPU bound): 83.228622 FPS (12.015097 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5807.397949 Batches
Average Batches per frame: 7983.859863 Batches
== Shot Sideline Battle Shot 3 =========================================
Total Time: 4.998898 ms per frame
Avg Framerate: 41.409130 FPS (24.149263 ms)
Weighted Framerate: 41.076435 FPS (24.344858 ms)
CPU frame rate (estimated if not GPU bound): 71.577446 FPS (13.970881 ms)
Percent GPU Bound: 99.405350 %
Driver throughput (Batches per ms): 4658.565918 Batches
Average Batches per frame: 10681.627930 Batches
== Shot Panoramic Battle Shot =========================================
Total Time: 10.006425 ms per frame
Avg Framerate: 32.479134 FPS (30.789000 ms)
Weighted Framerate: 32.209698 FPS (31.046549 ms)
CPU frame rate (estimated if not GPU bound): 56.895218 FPS (17.576170 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6412.079102 Batches
Average Batches per frame: 35607.171875 Batches
== Shot Mountain Air Battle Shot 2 =========================================
Total Time: 4.993017 ms per frame
Avg Framerate: 51.071320 FPS (19.580462 ms)
Weighted Framerate: 50.745354 FPS (19.706238 ms)
CPU frame rate (estimated if not GPU bound): 71.091103 FPS (14.066458 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6916.742188 Batches
Average Batches per frame: 21166.091797 Batches
== Shot Low Vista =========================================
Total Time: 10.022572 ms per frame
Avg Framerate: 30.032213 FPS (33.297581 ms)
Weighted Framerate: 29.830248 FPS (33.523018 ms)
CPU frame rate (estimated if not GPU bound): 54.377441 FPS (18.389980 ms)
Percent GPU Bound: 99.578529 %
Driver throughput (Batches per ms): 6168.413574 Batches
Average Batches per frame: 38394.937500 Batches
== Shot Fighters Satellite Chase 2 =========================================
Total Time: 6.978428 ms per frame
Avg Framerate: 53.163837 FPS (18.809778 ms)
Weighted Framerate: 52.665951 FPS (18.987600 ms)
CPU frame rate (estimated if not GPU bound): 90.251068 FPS (11.080202 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4788.245605 Batches
Average Batches per frame: 5045.053711 Batches
== Shot High Vista =========================================
Total Time: 5.027931 ms per frame
Avg Framerate: 31.424456 FPS (31.822350 ms)
Weighted Framerate: 31.237162 FPS (32.013153 ms)
CPU frame rate (estimated if not GPU bound): 47.610081 FPS (21.003956 ms)
Percent GPU Bound: 99.001762 %
Driver throughput (Batches per ms): 7492.783691 Batches
Average Batches per frame: 54352.589844 Batches
== Shot Small Mountain Battle =========================================
Total Time: 4.981444 ms per frame
Avg Framerate: 47.777309 FPS (20.930437 ms)
Weighted Framerate: 47.488884 FPS (21.057560 ms)
CPU frame rate (estimated if not GPU bound): 90.935684 FPS (10.996783 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3339.081787 Batches
Average Batches per frame: 3190.798584 Batches
== Shot End Scene =========================================
Total Time: 11.026709 ms per frame
Avg Framerate: 42.805157 FPS (23.361671 ms)
Weighted Framerate: 42.612652 FPS (23.467209 ms)
CPU frame rate (estimated if not GPU bound): 71.126625 FPS (14.059433 ms)
Percent GPU Bound: 99.416992 %
Driver throughput (Batches per ms): 4749.604492 Batches
Average Batches per frame: 12596.616211 Batches
===========================================================
===========================================================
======= RAW FRAME DATA ====================================

Gipsel
2016-06-03, 18:32:42
Die Frametimes sind fast eine einzige, formlose Punktwolke. Toller DX12 Code-Pfad für Maxwell. :freak:
Hattest meinen Kepler-Versuch im 1080-Thread eigentlich gesehen.Noch nicht. Muß wohl nach einem Link fragen. Keine Ahnung, was Du meinst. Ist wohl schon ein paar Tage länger her und Du postest offensichtlich erheblich mehr hier als im GTX1080-Thread.
Und bezüglich der Punktwolke, die Frametimes sind die der GPU. Das sind die blauen und die daraus gebildete Wolke ist meiner Meinung längst nicht formlos, sondern läßt sich in guter Näherung durch eine Linie annähern (mit den einzelnen Frames <10% entfernt).

=============================


Also ich hab gerade mal meine 290x durchlaufen lassen. Ich komme da auf 39 fpsNoch ein Grund, warum man die Zahlen von Hallock (und sich der daraus ergebenen Framerate von 34 für die RX 480) mit Vorsicht genießen sollte.
44CUs@1GHz (ich vermute mal Standardtakt) vs. 36CUs@1,26GHz sollte eigentlich rein numerisch einen leichten Vorteil für die RX 480 auf seiten der Rechenleistung ergeben, selbst ohne irgendwelche Architekturverbesserungen. Dreiecksdurchsatz usw. ist auch Alles erhöht. Das Einzige, was neben dem kleine Nachteil bei der Speicherbandbreite (320 vs. 256 GB/s) eventuell schmaler ausfallen könnte, wäre die Anzahl der ROPs, die unklar ist. Ist zwar locker möglich, aber ich würde da mit meinem Urteil noch abwarten.

Digidi
2016-06-03, 18:47:15
@Gipsel

Sorry kein Standarttakt das sind 1080-mHz was ich habe Standart ist 1000. Glaube aber nicht das die 80Mhz so viel ausmachen. Schätze mal es wären dann 36-37 fps

Vielleicht will Hallock auch nur tief stapeln um etwaigen Enttäuschungen vorzubeugen. Den berauschend wäre das nicht wenn man 3-4 fps hinter einer 290x liegt.

hardtech
2016-06-03, 18:52:44
Technisch sollte das kein Problem sein, die Fury Nano hatte auch ein 15 cm Gehäuse bei 175 W TDP. Da sollten 150W TDP mit einem ähnlichen Kühler auch bei der RX 480 gehen. Es muß sich nur ein Hersteller finden...

Es muss ja net unbedingt 15cm sein. Alles unter 20 wäre schon toll.
Dazu ein gescheiter kühler und fertig ist die perfekte 1440p htpc gpu :)

Schnoesel
2016-06-03, 18:55:51
@Digidi

Dachte der AMD Bench war auf 1440p ok waren 1080p?? Wenn das Ziel von AMD war bis zum Release darüber zu spekulieren... alles richtig gemacht. von unter GTX 970 - GTX 980ti Niveau war jetzt alles dabei... lasst es doch einfach.

dargo
2016-06-03, 19:03:46
Vor allen Dingen nervt Ashes nur noch. Das wird von niemandem gespielt, sieht grauenhaft aus und die fps im GPU-Limit sind ein Witz.

Wer spielt denn 3DMark? Der Furz wird auch immer zuerst geleakt.

Ravenhearth
2016-06-03, 19:08:45
Das halte ich für... ein Gerücht.:wink:

Für GF110 wurde von Mercury Research mal $120 veranschlagt auf einem zu der Zeit ausgereiften 40nm Prozess. GM200 ist ca. 15% größer auf einem mittlerweile auch ausgereiften Prozess. Dennoch müsste der Yield spektakulär gut sein um das hier auszugleichen

http://www.extremetech.com/wp-content/uploads/2012/03/NV-Pres4.jpg

Ich bin mir auch ziemlich sicher, dass wir diese Diskussion schon einmal hatten.

Wo soll die Zahl überhaupt herkommen?:confused:


Die Folie ist von 2006! 2006! Das war eine Prognose, aber das bedeutet nicht, dass es tatsächlich so eingetreten ist. Bei Intel haben 22nm und 14nm aller Unkenrufe zum trotz eine erhebliche Kostenreduktion pro Transistor gebracht, 14nm sogar überdurchschnittlich, weil die Packdichte stärker zugelegt hat als sonst. Bei TSMC sind mir aber keine genauen Zahlen bekannt. IIRC kostet GM200 etwa $120, die $120 für GF110 dürften zur Anfangszeit von 40nm gewesen sein, oder?

maximus_hertus
2016-06-03, 19:20:23
@Digidi

Dachte der AMD Bench war auf 1440p ok waren 1080p?? Wenn das Ziel von AMD war bis zum Release darüber zu spekulieren... alles richtig gemacht. von unter GTX 970 - GTX 980ti Niveau war jetzt alles dabei... lasst es doch einfach.

1080p Monitor, aber per VSR 1440p.

Elkinator
2016-06-03, 19:21:28
Es nervt ihn doch nur, weil AMD bei AoS besser als NVIDIA abschneidet!

illidan
2016-06-03, 19:25:52
Deshalb hab ich ja auch Total War als besseres mögliches Beispiel angeführt. :rolleyes:
Lass dein dümmliches Rot = Freund, Grün = Feind-Denken bitte mal stecken. Finde ich sehr albern und affig.

Menace
2016-06-03, 19:36:02
Vor allen Dingen nervt Ashes nur noch. Das wird von niemandem gespielt, sieht grauenhaft aus und die fps im GPU-Limit sind ein Witz.


Hast Du einen Link, dass es von niemandem gespielt wird?

Meezu
2016-06-03, 19:45:37
Dildo4u hat seine 970@1,3GHz mal durch 1080p Crazy mit 8xMSAA gejagt und kommt auf etwa 30fps (Link kann ich gleich mal noch suchen). Er meinte aber, daß es da vielleicht schon knapp mit dem VRAM wird.

Edit: Link (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11054871#post11054871)

Also ich hab gerade mal meine 290x durchlaufen lassen. Ich komme da auf 39 fps


Hallo,

ich habe das eben auch ein paar mal mit Fury X (@ default: 1050/500) durchlaufen lassen. (4790K @ 4,5GHz)
Ergbnis: 44,5 fps im Mittel. (@ 1440p, Crazy, 8xMSAA)

Speicherbedarf liegt bei rund 3850MB. Ist also im kritischen Bereich angekommen, auch wenn man noch keine Nachladeruckler spürt.

Oxide Games
Ashes Benchmark Test - ©2015
Version 1.12.19928
06/03/2016 20:00
==========================================================================

== Hardware Configuration ================================================
GPU 0: AMD Radeon (TM) R9 Fury Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790K CPU @ 4.00GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 16234 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
==========================================================================
Quality Preset: Benutzerdefiniert
==========================================================================

Resolution: 2560x1440
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 16 million
Shadow Quality: High
Temporal AA Duration: 0
Temporal AA Time Slice: 0
Multisample Anti-Aliasing: 8x
Texture Rank : 1


== Total Avg Results =================================================
Total Time: 60.002117 ms per frame
Avg Framerate: 44.530853 FPS (22.456341 ms)
Weighted Framerate: 43.573978 FPS (22.949476 ms)
CPU frame rate (estimated if not GPU bound): 88.829765 FPS (11.257487 ms)
Percent GPU Bound: 98.712700 %
Driver throughput (Batches per ms): 6869.288086 Batches
Average Batches per frame: 19408.333984 Batches
==========================================================================


44,5 fps Fury X, 39FPS 290X. Mal abwarten, was die Zukunft bringt, aber die 34FPS die hier durch den Thread geistern würden mich dann doch etwas enttäuschen. 290X/390er Performance dürfte es ruhig sein.
Gruß

Trap
2016-06-03, 19:45:59
Hast Du einen Link, dass es von niemandem gespielt wird?
Zumindest in Steam ist das so für AotS:
https://steamspy.com/app/228880#tab-audience

Zum Vergleich The division:
https://steamspy.com/app/365590#tab-audience

gedi
2016-06-03, 19:47:59
@Meezu

VSR@1440p?

Gipsel
2016-06-03, 19:52:22
@Meezu

VSR@1440p?Der Ashes-Benchmark lief auf 1080p.

Meezu
2016-06-03, 19:52:29
@Meezu

VSR@1440p?

Sry mein Fehler. Ich habe den Bench noch 3 mal durchlaufen lassen und es entsprechend oben editiert. Auch wenn das nun zu der Situation führt, dass ich 34 fps für eine einzelne RX480 für möglich halte, aber das dann doch eher enttäuschend wäre, da unterhalb 390/290X, was eigentlich nicht sein darf/kann.

gedi
2016-06-03, 19:55:41
Der Ashes-Benchmark lief auf 1080p.

Ups - bringe ich da etwas durcheinander :confused:

illidan
2016-06-03, 20:01:49
Hast Du einen Link, dass es von niemandem gespielt wird?
Wie wärs mal mit etwas Eigeninitiative?
Ashes 24h peak: 117 Spieler (http://steamcharts.com/app/228880)
Zum Vergleich mal das Early Access Spiel The Forest: 3538 Spieler (http://steamcharts.com/app/242760)
Wirst auf allen Seiten, die die Steam-DB auswerten, zu einem ähnlichen Ergebnis kommen. Das Spiel wird von AMD als Async Compute-Paradebeispiel durchs Dorf getrieben, was ja nachvollziehbar und legitim ist. Das Spiel ansich wird dadurch aber nicht wichtiger. Es ist unwichtig und in der Wahrnehmung der meisten RTS-Spieler offenbar auch einfach nur schlecht, anders sind die Zahlen nicht zu erklären.
Selbst wenn man annähme, dass via GoG nochmal doppelt so viele Leute spielen, wär das Ergebnis immer noch erbärmlich.

Schnoesel
2016-06-03, 20:17:41
Wen interessiert hier wieviel Spieler das Game hat? Fast jedes Magazin nutzt AOS als Benchmark und das ist auch völlig legitim. Hört doch endlich mit dem OT auf.

Ravenhearth
2016-06-03, 20:26:23
Die meisten Spieler interessieren sich aber für Benchmarks aus den beliebtesten Spielen und nicht aus einem Spiel, das sonst keinen interessiert. Wird ein Käufer seine Entscheidung wohl eher danach richten, wie schnell eine Karte in AoS ist oder in Spielen wie The Witcher 3, GTA V, etc.? AoS ist eher ein akademischer Vergleich.

Schnoesel
2016-06-03, 20:35:12
Es wird doch Benchmarks geben zum Release wo ist das Problem?

Linmoum
2016-06-03, 20:44:05
Die meisten Spieler interessieren sich aber für Benchmarks aus den beliebtesten Spielen und nicht aus einem Spiel, das sonst keinen interessiert. Wird ein Käufer seine Entscheidung wohl eher danach richten, wie schnell eine Karte in AoS ist oder in Spielen wie The Witcher 3, GTA V, etc.? AoS ist eher ein akademischer Vergleich.
Und ich kenne viele Käufer, die eine Entscheidung u.a. an der Langlebigkeit der Karte festmachen. Klar kann man sich über die Definition davon jetzt seitenlang ausdiskutieren, aber gerade bei diesem Punkt ist so ein Benchmark wie von AoS doch alles andere als egal.

Mag sein, dass DX12 bei Nvidia, aus Gründen ;), nicht so sehr interessiert, aber viele Leute wollen ihre GPU nicht alle zwei Jahren austauschen. Und da ist es umso besser, wenn man dadurch auch nach drei Jahren noch Performance aus einer Karte rauskitzeln kann.

illidan
2016-06-03, 20:55:00
Das bestreitet doch niemand. Mein Einwurf war nur, dass dazu mittlerweile das neue Total War offenbar besser geignet wäre, weil das technisch allgemein besser zu sein scheint. Die rote Verteidiger-Fraktion hat das nur wieder vollkommen in den falschen Hals bekommen, weil einige hier offenbar das Rationale und Emotionale nicht trennen können...

Akkarin
2016-06-03, 20:56:29
Wenn AMD wirklich unter der 390X landed dann haben sie irgendwo großen mist gebaut, oder ?

Tonga hat bereits annähernd die selbe perf/bandbreite wie nVidia karten, mit redesigntem L2$ und memory controller (inclusive besserer compression) und 8Gbps RAM sollte man, rein von der Bandbreite her, keine Probleme haben mindestens auf 980-niveau zu kommen.

Der Geometry Processor, welche bisher ja eher unterdimensioniert war bei AMD, wurde ja auch redesigned. Wenn AMD 4tris/clock schafft+höherer takt+dem neuen fancy culling dass sie ja anscheinend haben sollte es auch eher über 980/390X landen.

Von der reinen Shaderleistung ist man bei 5,83 TFlops+neuen CUs+neuem command processor sollte man die 390X/980 auch hier übertreffen.

Wo könnte denn die "bottlenecks" liegen, falls es wirklich nur 970/390 niveau wird ? TMUs und ROPs habe ich nicht aufgezählt, aber daran wird es wohl kaum liegen.

Ravenhearth
2016-06-03, 21:04:43
Vielleicht taktet sie doch nicht mit 1266 MHz?

uweskw
2016-06-03, 21:06:06
Die Folie ist von 2006! 2006! Das war eine Prognose, aber das bedeutet nicht, dass es tatsächlich so eingetreten ist. Bei Intel haben 22nm und 14nm aller Unkenrufe zum trotz eine erhebliche Kostenreduktion pro Transistor gebracht, 14nm sogar überdurchschnittlich, weil die Packdichte stärker zugelegt hat als sonst. .......


War doch schon immer so, dass die Unternehmen jammern, schimpfen und lügen, gleichzeitig aber immer höhere Profite einfahren.
Nur ist es heutzutage cool betriebswirschaftliche Kenntnisse vorzuweisen indem man Verständnis für diese Lügenmärchen zeigt.:freak:


Wenn die RX480 auf GTX980 Niveau liegt und 200$-239$(8GB) kostet, dann werden die Vega Karten wohl bei 980Ti und 1080 Leistung einzustufen sein. Und preislich wohl zwischen 349$ und 449$ liegen:love2::love2:

http://de.ubergizmo.com/wp-content/uploads/2014/06/shut-up-and-take-my-money.jpg


greetz
US

Menace
2016-06-03, 21:08:01
Wie wärs mal mit etwas Eigeninitiative?


Warum so motzig? Danke, kannte den Link nicht. Fühle mich auf einmal so elitär, als AotS-Spieler (wobei es noch viele Änderungen braucht um mein absoluten Favoriten Supreme Commander ranzukommen). Mit Action-Adventures würde ich es trotzdem nicht vergleichen. Ich gehe immer noch davon aus, dass es eher ein Langzeitspiel wird, als ein kurzfristiges Strohfeuer und finde dadurch hat es durchaus seine Berechtigung.

Die rote Verteidiger-Fraktion hat das nur wieder vollkommen in den falschen Hals bekommen, weil einige hier offenbar das Rationale und Emotionale nicht trennen können...

Was für ein beleidigendes Geschwurbel.

Hakim
2016-06-03, 21:22:00
Ich hoffe das die RX 480 =>GTX980 Niveau hat. Hat Amd irgendwas über VR Premium gesagt? Ich vermute mal sowas ähnliches wie bei NV mit dem Replizieren und Einsparung der Berechnung.

Weiß nicht warum hier wieder gestritten wird, es wäre glaube ich für alle besser wenn die RX 480 auf GTX980 Höhe wäre. Das kann für die Preisgestaltung/anpassung der 1060-1070 Karten nur Positive Auswirkungen haben.

Ravenhearth
2016-06-03, 21:26:26
Wenn die RX480 auf GTX980 Niveau liegt und 200$-239$(8GB) kostet, dann werden die Vega Karten wohl bei 980Ti und 1080 Leistung einzustufen sein. Und preislich wohl zwischen 349$ und 449$ liegen:love2::love2:

Leistung auf Niveau von 1080 und 1070 erwarte ich auch. Mit 64 CUs und gleicher Taktrate wie Polaris10 hätte Vega10 rund 78% mehr Rohleistung, das passt perfekt zur GTX 1080, vielleicht wird sie auch ganz bisschen schneller. Preislich erwarte ich seit der Ankündigung der RX 480 auch weniger als vorher, aber eher etwas mehr. $349-399 für den Salvage und $499-549 für den Full. Aber das wird man abwarten müssen.

StefanV
2016-06-03, 21:49:58
Vielleicht taktet sie doch nicht mit 1266 MHz?
...womit wir bei meiner Theorie des noch nicht finalem BIOS wären.
Oder es gibt, wie bei der R9-290X; ein Performance und ein Efficiency BIOS auf der Karte...

Aber genau das ist ja der Punkt:

Die Karte wird zwar in ein paar Tagen ausgeliefert werden, in 3 Wochen, oder so, wird das NDA gelüftet...
und wir wissen rein gar nichts über den Chip!

Das ist auch Taktik von AMD; zumal nVidia ja auch keinerlei Zugriff auf die Chips haben kann - nur AMD und GF wissen momentan, wie der Chip so ausschaut...

nVidia ist aber kein GF Kunde und GF ist auch eher AMD Nah anzusehen, entsprechend kann nVidia auch gar keine Infos über den Chip haben - außer natürlich über die Redakteure, die sehr nVidia nah agieren...

Und genau das könnte jetzt zum Problem für nVidia werden, zumal man selbst ja anscheinend auch gar nicht liefern kann, AMD aber wohl schon mit der Verteilung der Chips am 10. beginnt (oder ev. sogar schon früher)...

Aber auch aus der Ecke der PC OEMs ist es erstaunlich still, was Polaris betrifft...

Und das obwohl es schon Bilder von einem AM4 Board im Netz gibt...

illidan
2016-06-03, 21:50:13
Vielleicht wirds wieder wie bei Fiji eine bezüglich der Stromaufnahme fast unlimitierte Variante wie dei Fury X und eine gedrosselte, aber effizientiere "Nano" geben?
Wenn sich das Ding gut takten ließe, hielte ich es für möglich und gar nicht so unlogisch. Dann könnte man mit der gleichen GPU wieder mehrere Segmente abdecken.

Kriegsgeier
2016-06-03, 22:03:57
Denke auch dass AMD Vega gutes Stück vorschieben wird. Ein Schlagabtausch mit der 1080ti würde ich mir sehr wünschen!

399€ VS. 1099€

Dino-Fossil
2016-06-03, 22:04:35
Momentan ist ja leider noch immer relativ wenig bekannt.
Wenn die Karten aber wirklich in 1-2 Wochen an die ersten Reviewer gehen, erwarte ich eigentlich auch ein, zwei Leaks (Asien ist ja heutzutage gut für sowas).
Dann wissen wir hoffentlich auch ob der Chip was taugt, oder ob Kyle Bennet recht hatte mit seiner Einschätzung, dass AMD sich gnadenlos verzockt hat.

Letzteres kann ich mir kaum vorstellen, wenn man bedenkt, dass es sich hier nur um eine (wenn auch gründlich) überarbeitete Architektur handelt, nichts komplett neues.

Was ich mir wiederum gut vorstellen kann, ist das AMD ein paar Wochen braucht, bis die Treiber wirklich gut mit den neuen Chips klarkommen. :biggrin:
(Wäre vielleicht auch ein Grund warum bisherig geleakte Benchmarks teils noch nicht ganz akkurate Ergebnisse liefern).

BlacKi
2016-06-03, 22:11:49
Wenn die RX480 auf GTX980 Niveau liegt und 200$-239$(8GB) kostet, dann werden die Vega Karten wohl bei 980Ti und 1080 Leistung einzustufen sein. Und preislich wohl zwischen 349$ und 449$ liegen:love2::love2:
:biggrin: made my day!

erinnerst du dich an die 290x als sie raus kam? 550 dollar! also wird der full chip vega wohl bei 600$ liegen.

trotzdem ein schnäpchen ggü. der 1080 die wohl etwas langsamer sein wird.

Schnoesel
2016-06-03, 22:23:25
Es waren 499 Euro und damit sogar günstiger als seinerzeit die GTX 780 mit der die R9 290x mittlerweile Schlitten fährt. Nvidia konnte schon immer teuer verkaufen.

http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/

Aber ich rechne auch nicht damit dass Vega günstig wird sollte die Leistung passen.

BlacKi
2016-06-03, 22:42:07
Es waren 499 Euro und damit sogar günstiger als seinerzeit die GTX 780 mit der die R9 290x mittlerweile Schlitten fährt. Nvidia konnte schon immer teuer verkaufen.
du weißt doch das damals ein anderer wechselkurs war. die 500€ lagen nur wegen dem wechselkurs so niedrig.

Elkinator
2016-06-03, 22:49:20
Wenn die RX480 auf GTX980 Niveau liegt und 200$-239$(8GB) kostet, dann werden die Vega Karten wohl bei 980Ti und 1080 Leistung einzustufen sein. Und preislich wohl zwischen 349$ und 449$ liegen:love2::love2:
Warum sollte AMD die Karten so billig anbieten wollen?

Schnoesel
2016-06-03, 22:49:32
Und? War bei Nvidia doch genauso. Und ich sag ja: Vega wird wohl etwas günstiger als GP 104 aber von billig würde ich nicht ausgehen. Aber bis dahin ist noch sehr lange hin und spätestens dann werden alle wieder in den headless chickenmode fallen. Müßig über ungelegte Eier zu diskutieren.

Ravenhearth
2016-06-03, 22:52:36
Wie gesagt, ich geh von §349-399 für den Salvage und $499-549 für den full aus.

BlacKi
2016-06-03, 22:54:36
Und? War bei Nvidia doch genauso. Und ich sag ja: Vega wird wohl etwas günstiger als GP 104 aber von billig würde ich nicht ausgehen. Aber bis dahin ist noch sehr lange hin und spätestens dann werden alle wieder in den headless chickenmode fallen. Müßig über ungelegte Eier zu diskutieren.
sobald big pascal kommt sinkt der preis der 1080. also glaub ich kaum das vega günstiger wird. aber ich hoffe das vega schneller wird als die 1080.

die speku gehen doch davon aus das vega mit mehr als 400mm² kommt und hbm2 trägt. dann wäre vega deutlich schneller als die 1080.

Wixi
2016-06-03, 23:17:33
Fiji XT war auch nicht deutlich schneller als die 980Ti trotz 4096 Shader u. HBM usw., also Füße still halten....

LordCama
2016-06-03, 23:27:35
Momentan ist ja leider noch immer relativ wenig bekannt.
Wenn die Karten aber wirklich in 1-2 Wochen an die ersten Reviewer gehen, erwarte ich eigentlich auch ein, zwei Leaks (Asien ist ja heutzutage gut für sowas).

AMD gibt vermutlich das BIOS der Karte erst mit deren Auslieferung frei. So das noch keine Leaks möglich sind. Sie haben es ja mit der Fury auch schon so gemacht.

Dino-Fossil
2016-06-03, 23:37:56
Ich denke (oder hoffe), dass es doch ernsthafte Tests geben wird, das setzt funktionierende Karten ja zwingend voraus.

Effe
2016-06-03, 23:56:54
Warum sollte es keine Tests geben?

Ich vermute mal, dass AMD zum Launch(29.6.?) gemeinsam mit Partnern (wie kürzlich HP und Dell bei Bristol Ridge) sofort kornkrete Produkte bewerben wird.

Kriton
2016-06-04, 00:05:08
Vor allen Dingen nervt Ashes nur noch. Das wird von niemandem gespielt, sieht grauenhaft aus und die fps im GPU-Limit sind ein Witz.
Hätten sie halt einfach mal einen Single-GPU Wert vom neuen Total War mit DX12 genommen, anstatt dem bisherigen Ashes-Murks noch die Krone aufzusetzen mit diesem Verwirrspiel (das sie auch noch selbst verwirren zu scheint...).

Die Engine von AotS ist aber gleich auf DX12 aufgebaut worden und die von Total War: Warhammer offenbar nicht (sonst müssten man es ja nicht später erst hinein patchen). Da sehe ich schon einen gewichtigen Unterschied zugunsten von AotS wenn man etwas über DX12 erfahren will.

LordCama
2016-06-04, 00:06:35
Ich meinte damit, dass es funktionierende Karten (ausserhalb AMDs direkten zugriff) erst ~3 Wochen vor Veröffentlichung geben wird.
So das wir die ersten (aussagekräftigen) Leaks vermutlich erst in den nächsten zwei Wochen zu sehen bekommen werden.

horn 12
2016-06-04, 00:14:10
Rechne pünktlich zum 10 Juni gibt es was, oder spätestens zur Gaming Show am 13 Juni.

iuno
2016-06-04, 00:14:26
Das MSAA kostete das letzte Mal, als ich es getestet hatte, bei dem Spiel so gut wie überhaupt keine Leistung mit Hawaii. Glaube nicht, dass das mit guter DCC bei weniger Bandbreite signifikant anders ist.

Btw: MSAA, wtf? Wen interessiert das abseits von VR überhaupt noch?
Bei Star Swarm hatten sie ja irgendeine komische temporale Komponente, die mit DX12 ja angeblich so viel schneller liefe. Kann man nun auch noch per Config einstellen, sieht aber ohne MSAA zum kotzen aus und ist zudem noch arschteuer. Das TAA in der Cryengine glättet zigfach besser, kostet gar nichts und hat eine sehr gute Nachschärfung ähnlich Uncharted 4 integriert...
Es waere ja schoen, wenn jedes Spiel ordentliches SMAA oder TAA haette, dem ist aber noch lange nicht so, zumal es auch auf den Content ankommt, wie gut das jeweils funktioniert :rolleyes:
MSAA ist durchaus noch wichtig und es ist in keinem Fall so, dass es "so gut wie ueberhaupt keine Leistung" kostet.

Letztes mir bekannte Beispiel ist RotTR. Ja, das Spiel ist auch so technisch nicht der Hammer, aber sowohl FXAA als auch SMAA funktionieren absolut bescheiden. Das flimmert ohne Ende, dass ich auf 2xMSAA gegangen bin, 4xMSAA war mir dann doch zu langsam...

illidan
2016-06-04, 00:52:57
Es waere ja schoen, wenn jedes Spiel ordentliches SMAA oder TAA haette, dem ist aber noch lange nicht so, zumal es auch auf den Content ankommt, wie gut das jeweils funktioniert :rolleyes:

Glaub mir, vernünftiges TAA, wie das in Doom oder Cryengine, glättet jeden Content hervorragend, ganz im Gegensatz zu MSAA. Nur halt auf Kosten der (Bewegtbild-)Schärfe.


MSAA ist durchaus noch wichtig und es ist in keinem Fall so, dass es "so gut wie ueberhaupt keine Leistung" kostet.

Ashes ist da die Ausnahme, ich konnte bei den Benchmark-Ergebnissen auch kaum meinen Augen trauen. Es kostete wirklich fast nur VRAM.
MSAA ist aber nur noch für VR wichtig, der Motion Blur vom TAA sieht wohl damit nicht gut aus.
Crytek hatte schon 2013 einen Modus angeboten, bei dem MSAA und SMAA 2xT kombiniert waren. Auch wenn man MSAA hat, macht es keinen Sinn auf TAA zu verzichten.


Letztes mir bekannte Beispiel ist RotTR. Ja, das Spiel ist auch so technisch nicht der Hammer, aber sowohl FXAA als auch SMAA funktionieren absolut bescheiden. Das flimmert ohne Ende, dass ich auf 2xMSAA gegangen bin, 4xMSAA war mir dann doch zu langsam...
Das Spiel hat kein MSAA, das ist SSAA. MSAA macht mit Deferred Rendering und dem heutigen Aliasing innerhalb von Polygonen keinen Sinn, und diese Kombination trifft auf fast jedes aktuelle Spiel zu.
RotTR ist aber ein Paradebeispiel für schlimmstes Aliasing, das Spiel ist halt technisch allgemein im Vergleich mit Uncharted 4 ein Witz.

gedi
2016-06-04, 01:04:15
Rottr hat smaa ;) Doom 4 sieht imo generell scheiße aus, da spielt das AA auch keine Rolle mehr. Bei der Cryengine gebe ich dir allerdings in so weit recht, dass TAA vernünftig funktioniert - zudem ist MSAA bei z.B. C3 sehr teuer.

@Gipsel

Du hattest recht, die Auflösung betrug 1080p.

Digidi
2016-06-04, 01:14:59
Fiji XT war auch nicht deutlich schneller als die 980Ti trotz 4096 Shader u. HBM usw., also Füße still halten....

Könnte Sie aber sein wenn endlich mal die Programmier Async Compute nutzen würden.

Das es viel hilft sieht man hier:
http://wccftech.com/async-compute-praised-by-several-devs-was-key-to-hitting-performance-target-in-doom-on-consoles/

Digidi
2016-06-04, 01:57:49
http://www.pcper.com/reviews/Graphics-Cards/Rise-Tomb-Raider-AMD-and-NVIDIA-Performance-Results/Adding-GTX-970-and-R9-390

Da halt ich mal dagegen. Anscheinend d hat amd da ein Problem wohl mal wieder wegen Gameworks. Die 390x stottert auch

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1070-8GB-Founders-Edition-Review/Rise-Tomb-Raider-Competitive

Ravenhearth
2016-06-04, 01:58:16
Fiji XT war auch nicht deutlich schneller als die 980Ti trotz 4096 Shader u. HBM usw., also Füße still halten....

Fiji war aber auch Rande der GCN 1.x-Architektur gebaut, die gar nicht mehr als 4-fach-Front-End, 4 Shader-Engines und 16 CUs pro Shader-Engine zulässt, was genau der Aufbau von Fiji ist. Dass die Auslastung der Recheneinheiten bei solch einer Konfiguration stark abnimmt, ist kein Wunder. Zumal GCN gegenüber Maxwell ohnehin eine niedrigere Spieleperformance bei gleicher Rohleistung erreicht und auch noch niedriger taktet. Mit Vega dürfte AMD es schaffen, die Einheiten bedeutend besser auszulasten, die generelle Ausnutzung der theoretisch GLFOPs könnte bei Polaris und Vega ebenfalls steigen, und dann kommt noch der Takt hinzu. Das sollte für 1080-Performance mindestens reichen.

Polaris und auch Vega könnten aber eine schlechtere Perf/mm² als Pascal haben. GP104 ist zwar 35% größer als Polaris10, eine GTX 1080 ist aber auch 60-70% schneller, wenn sich die RX 480 auf GTX 980-Level befindet. Das könnte für Vega10 gut und gerne ~400mm² bedeuten.

Digidi
2016-06-04, 02:04:31
Die Auslastung kann man auch per Async Compute erreichen. Nur nutzt das keiner und verschenkt so viel Leistung oder Chipfläche. Deshalb hat ja amd Mantle in den Markt gedrückt das sich hier was tut und Microsoft endlich mal Dx11 aufpeppt. Das hat gut funktioniert wie man sieht. Die Karten von Amd sind ihrer Zeit voraus.

Das Problem war, dass Microsoft nicht weiterentwickelt hat und Nvidia mit ihrer Marktmacht Dx11 und der dazugehörigen Architektur ein langes Leben geschenkt hat. Deshalb sag ich auch immer Nvidia hält den ganzen Fortschritt auf.

Ravenhearth
2016-06-04, 02:06:32
Direct X 12 ist noch neu, da werden in Zukunft mehr Spiele kommen. Aber DX11 dürfte noch für einige Zeit der Standard bleiben, weswegen generelle Performance dort auch wichtig ist. Der Vorteil von Async Compute könnte auch abnehmen, wenn AMD es schafft, seine Chips generell besser auszulasten.

Digidi
2016-06-04, 02:12:25
Ich glaube nicht das noch viel mit dx11 kommt und wenn dann nur als 2 Renderpfad für alte Systeme. Gerade auch weil Windows 10 für viele Kostenlos ist

OBrian
2016-06-04, 02:14:44
Der Siegeszug von DX12 wird auch durch die Koppelung an Win 10 gebremst, was ja nun nicht so wirklich beliebt ist, vorsichtig gesagt. Kann also noch eine längere Weile dauern, bis DX11 zu vernachlässigen ist.

raumfahrer
2016-06-04, 02:37:42
Polaris und auch Vega könnten aber eine schlechtere Perf/mm² als Pascal haben. GP104 ist zwar 35% größer als Polaris10, eine GTX 1080 ist aber auch 60-70% schneller, wenn sich die RX 480 auf GTX 980-Level befindet. Das könnte für Vega10 gut und gerne ~400mm² bedeuten.

Alles hypothetisch, aber sollte RX 480 bei ~600% rauskommen, wäre die GTX 1070 35% größer (aber teildeaktiviert) und 35% schneller. Beide laufen mit gleicher Bandbreite. Wenn --hoch spekulativ-- RX 480 aus irgendwelchen Gründen ebenfalls teildeaktiviert ist und entsprechend mit Speicherbandbreite skaliert, könnte ein theoretischer Vollausbau mit GDDR5X vergleichbare Perf/Fläche haben wie die GTX 1080.

illidan
2016-06-04, 02:55:15
Der Vorteil von Async Compute könnte auch abnehmen, wenn AMD es schafft, seine Chips generell besser auszulasten.
Bei GPUs soll die Auslastung stets nicht optimal sein, also wird AC auch immer etwas bringen und der Entwickler sollte es immer nutzen, wenn die Hardware es kann.
Der Vorteil ist momentan mit ~10% in Ashes nicht riesig, da ist mit modernerem Grafik-Rendering hoffentlich noch mehr Luft nach oben (Postprocessing, Shadowmaps, evtl. SVOGI, GPU-Physik...).
Außerdem will auch Nvidia noch die Auslastung via Preemption steigern, evtl. kann dann Volta endgültig Grafik + Compute gleichzeitig abarbeiten. Ich würd auch nicht pauschalisieren, dass AMD-GPUs allgemein per DX11 nicht so gut auszulasten wären wie NV-GPUs. Gibt auch Spiele, die ein anderes Bild zeigen.
Ich würde eher vermuten, dass man mit den bisherigen GCN-GPUs eher auf Flaschenhälse trifft und deshalb gezielter optimieren muss. Das würde auch etwas erklären, warum die NV-GPUs in der Breite weiterhin bei modernen Spielen noch gut dastehen.

Ravenhearth
2016-06-04, 03:36:57
Alles hypothetisch, aber sollte RX 480 bei ~600% rauskommen, wäre die GTX 1070 35% größer (aber teildeaktiviert) und 35% schneller. Beide laufen mit gleicher Bandbreite. Wenn --hoch spekulativ-- RX 480 aus irgendwelchen Gründen ebenfalls teildeaktiviert ist und entsprechend mit Speicherbandbreite skaliert, könnte ein theoretischer Vollausbau mit GDDR5X vergleichbare Perf/Fläche haben wie die GTX 1080.

Dafür bräuchte die bei 40 CUs aber etwa 1500 MHz, wenn man davon ausgeht, dass die 480 die 600% bei 1266 MHz erreicht. Das ist wirklich zu bezweifeln. Sollte die 480 die 600% aber bei nur ~1100 MHz erreichen, bräuchte sie dagegen nur etwa 1300 MHz, was vielleicht möglich wäre. Aber das basiert alles auf der Annahme, dass sie wirklich 40 CUs hat, was ich nicht glaube.

uweskw
2016-06-04, 07:45:50
Leistung auf Niveau von 1080 und 1070 erwarte ich auch. Mit 64 CUs und gleicher Taktrate wie Polaris10 hätte Vega10 rund 78% mehr Rohleistung, das passt perfekt zur GTX 1080, vielleicht wird sie auch ganz bisschen schneller. Preislich erwarte ich seit der Ankündigung der RX 480 auch weniger als vorher, aber eher etwas mehr. $349-399 für den Salvage und $499-549 für den Full. Aber das wird man abwarten müssen.

Die 390X kostet ca. 150,00$ mehr als die 380X
Wenn Vega 220$ teurer als Polaris wird, könnten wir die 490X mit 449,00$ sehen. Und die sollte von der Leistung min. auf GTX1080 Niveau liegen.(y)(y)(y)
Ich wollte eigentlich mit der 1080 meine 780Ti@1250MHz in Rente schicken. Werde mir jetzt aber erstmal die Preisentwicklung anschauen. Beliebig hoch kann AMD den preislichen Abstand zwischen den Linien nicht machen.
Ich denke da lohnt es sich mal etwas zu warten :freak:

greetz
US

horn 12
2016-06-04, 07:59:43
Vega wird wohl um die 70 bis 75% schneller werden als Polaris 10
Wie hoch jener Taktet, nun 1300 bis 1400 Mhz MEINER! Meinung nach sicherlich und somit hat man nicht ganz fast doppelte Leistung als Polaris 10.
Ideal für meinen Ultra HD Monitor: LG27UD-B /P welcher Mittwoch kommen wird.

-/\-CruNcher-/\-
2016-06-04, 08:54:55
Der Siegeszug von DX12 wird auch durch die Koppelung an Win 10 gebremst, was ja nun nicht so wirklich beliebt ist, vorsichtig gesagt. Kann also noch eine längere Weile dauern, bis DX11 zu vernachlässigen ist.

Vor allem die Koppelung von DX12->UWP->Store ist eine Abartige Strategie die den Windows PC als solchen Killen wird.

Das der Windows PC zu einer Konsole wird OK nice aber das dies so passiert mit gleichzeitg kompletten Rechteentzug auf dem eigenen System not nice.

Wenn ich diesen Rechteentzug will kann ich mir auch gleich ne Xbox One kaufen und nur noch konsumieren ;)

Irgendwan kommt Microsoft noch auf die Idee die Resource des eigenen PC Lizenspflichtig zu machen wie das schon auf der Xbox One der Fall ist für no name Entwickler ;)

dargo
2016-06-04, 08:58:58
Der Siegeszug von DX12 wird auch durch die Koppelung an Win 10 gebremst, was ja nun nicht so wirklich beliebt ist, vorsichtig gesagt.
Was ein Blödsinn... Windows 10 ist jetzt schon die Plattform Nummer 1 unter den Gamern, siehe Steamzahlen.
http://store.steampowered.com/hwsurvey/directx/

Könnte Sie aber sein wenn endlich mal die Programmier Async Compute nutzen würden.

Das es viel hilft sieht man hier:
http://wccftech.com/async-compute-praised-by-several-devs-was-key-to-hitting-performance-target-in-doom-on-consoles/
3-5ms @60Hz? Wow. Wenn ich mich nicht verrechnet habe würde das bis zu +43% bedeuten. :eek: Jetzt bin ich umso mehr auf Vulkan @Doom gespannt. =)

Pirx
2016-06-04, 08:59:08
gibt ja auch noch Mantle äh Vulkan^^

auf Win10 steige ich aber definitiv auch nicht um

dargo
2016-06-04, 09:11:31
Die 390X kostet ca. 150,00$ mehr als die 380X
Wenn Vega 220$ teurer als Polaris wird, könnten wir die 490X mit 449,00$ sehen. Und die sollte von der Leistung min. auf GTX1080 Niveau liegen.(y)(y)(y)
Ich wollte eigentlich mit der 1080 meine 780Ti@1250MHz in Rente schicken. Werde mir jetzt aber erstmal die Preisentwicklung anschauen. Beliebig hoch kann AMD den preislichen Abstand zwischen den Linien nicht machen.
Ich denke da lohnt es sich mal etwas zu warten :freak:

greetz
US
Vorsicht. Bei Vega gibt es eine Komponente die den Preis durchaus nach oben stärker treibern kann... 8GB HBM2. Zudem könnte AMD bei Vega einen viel höheren Preis verlangen da sie selbst sagen, dass nur 16% der Gamer mehr als 300$ für eine Grafikkarte ausgehen. 84% 100-300$. Möglich wäre hier also, dass AMD mit Polaris beim Preis agressiver in den Markt einsteigt.

Vor allem die Koppelung von DX12->UWP->Store ist eine Abartige Strategie die den Windows PC als solchen Killen wird.

Blödsinn... dort erscheinen nur AAA-Titel der Microsoftstudios. Und die Anzahl ist vernachlässigbar.

-/\-CruNcher-/\-
2016-06-04, 09:19:25
Noch ist das so dargo noch aber Microsoft Ziel ist es nicht das nur Microsoft Studios da mitmachen und spätestens jetzt sollte man Gabe Newells Befürchtungen verstehen, was man mit der über Jahre Systematisch aufgebauten Gamer Dominanz vorhat.

maximus_hertus
2016-06-04, 09:31:56
Noch ist das so dargo noch aber Microsoft Ziel ist es nicht das nur Microsoft Studios da mitmachen und spätestens jetzt sollte man Gabe Newells Befürchtungen verstehen, was man mit der über Jahre Systematisch aufgebauten Gamer Dominanz vorhat.

Na ja, man sollte da zwischen einem potentiellen Wunsch von MS und der Realität unterscheiden. Warum sollten die Publisher auf Windows Store only schwenken? Den Publishern ist das OS ziemlich wurscht, sie wollen nur mit wenig Aufwand möglichst viele potentielle Kunden erreichen können.

Ich sehe auch in Zukunft nicht, dass sich die Visionen vom geldgeilen Gabe bewahrheiten. Selbst wenn es massenweise UWPs gibt - der Entwickler kann sie auch OHNE Store veröffentlichen.

z3ck3
2016-06-04, 09:35:33
Wenn Vega allerdings zu teuer wird, dann klafft dort eine riesen Lücke. Ist es eigentlich schon sicher das Vega 10 und 11 beide mit HBM2 ausgestattet werden? In der Annahme das Interposter und HBM2 sehr teuer sind, würde es ja eher Sinn machen Vega10 mit HBM2 (8GB @2048bit und evt. 16GB @4096bit => Enthusiast, >600€) und Vega 11 mit GDDR5X (8GB, 256bit => Highend, >400€) auszustatten.

Thunder99
2016-06-04, 10:06:30
Vega 11 soll nur größer sein als Vega 10 ;)

Also entweder HBM 2 bei beiden oder Vega 10 mit GDDR5X und 11 dann mit HBM 2

StefanV
2016-06-04, 10:07:21
Warum sollte AMD die Karten so billig anbieten wollen?
Damit sie mehr von den Karten verkaufen können/würden...

Denn niedrigerer Preis = mehr verkaufte Einheiten.

Skysnake
2016-06-04, 10:27:04
Meine Fresse, jetzt redet ihr wirklich ca 50 Seiten über die elendige Presentation, die zwar ganz nett ist, aber auf die man nen feuchten Furz geben kann, weils eben vom Hersteller ist?

Oh man Leute, meldet euch bitte wieder, wenns was vernünftiges gibt, aber das ist doch echt Käse sich hier in wildesten Spekulationen zu verlieren und darüber zu philosophieren, ob das jetzt ein gutes Angebot sei oder nicht...

Das werden wir schon in 3-6 Monaten sehen, indem wir einfach schauen, wie sich das Ding bei den Steam charts entwickelt und bei der Verfügbarkeit/Preis bei den Händlern.

JETZT darüber zu reden ist doch total banane...

Godmode
2016-06-04, 10:30:01
Darum heißt es auch Spekulationsforum. :tongue:

-/\-CruNcher-/\-
2016-06-04, 10:36:14
Na ja, man sollte da zwischen einem potentiellen Wunsch von MS und der Realität unterscheiden. Warum sollten die Publisher auf Windows Store only schwenken? Den Publishern ist das OS ziemlich wurscht, sie wollen nur mit wenig Aufwand möglichst viele potentielle Kunden erreichen können.

Ich sehe auch in Zukunft nicht, dass sich die Visionen vom geldgeilen Gabe bewahrheiten. Selbst wenn es massenweise UWPs gibt - der Entwickler kann sie auch OHNE Store veröffentlichen.


Natürlich kann er UWAs ohne Probleme auf anderen Platformen veröffentlichen trozdem ändert das nichts an ihrer Architektur und die damit Verbundenen Eintschränkungen wo Microsoft selbst noch keine Konzepte hat bzw Arbeitet noch daran wie man Sicherheit und Moddability noch gewährleisten kann innerhalb des OS.

Microsoft hat ihr CPM und das müssen sie einhalten Modding wiederspricht dem aber Fundamental und es müssen Rechteverwaltungsmöglichkeiten innerhalb UWA Games Entwickelt werden, die gibt es schlicht noch nicht ausser für die Musik und Filmindustrie teils arbeitet man mit den IHVs daran das zu verinfachen.

Z.b Screenshots und Rechte an ihnen, will ich erlauben das jemand einen Screenshot macht oder will ich es nicht (z.b um einen Alpha oder Betatest vor Leaks zu schützen, oder nur gegen Presse Lizenz) genauso wie mit Video Aufnahmen, Streaming ect, alles noch in den Kinderschuhen.

dargo
2016-06-04, 11:40:24
Na ja, man sollte da zwischen einem potentiellen Wunsch von MS und der Realität unterscheiden. Warum sollten die Publisher auf Windows Store only schwenken? Den Publishern ist das OS ziemlich wurscht, sie wollen nur mit wenig Aufwand möglichst viele potentielle Kunden erreichen können.

Ich sehe auch in Zukunft nicht, dass sich die Visionen vom geldgeilen Gabe bewahrheiten. Selbst wenn es massenweise UWPs gibt - der Entwickler kann sie auch OHNE Store veröffentlichen.
Eben... keine Ahnung was sich Cruncher da wieder ausmalt. Wenn Microsoft sich da irgendein Ökosystem aufbauen will und dann noch dafür Geld von den Publishern pro Spiel dann sind die Publisher ganz schnell weg von Windows. Ist ja nicht so, dass es jetzt mit Vulkan keine Alternativen gibt.

iuno
2016-06-04, 12:50:14
Vega 11 soll nur größer sein als Vega 10 ;)

Also entweder HBM 2 bei beiden oder Vega 10 mit GDDR5X und 11 dann mit HBM 2

Das ist doch Unsinn. Wir gehen davon aus, das Greenland=v10 und der hat auf jeden Fall hbm. Also ist v11 entweder kleiner mit gddr5(x) oder größer mit ebenfalls hbm.

Ich bin mir nicht so sicher ob es sich für AMD überhaupt rechnen kann auf 5x statt hbm zu setzen. Wenn der neue MC noch kein 5x kann müsste der nochmal neu entworfen werden, wohingegen ein hbm2 controller für finfet ja schon da ist. Desweiterten hat micron auf 5x ein Monopol wohingegen hbm von Samsung und hynix angeboten wird. Kann man beim interposer eigentlich von ~100% yield ausgehen? Das assembling scheint ja inzwischen auch gut zu laufen. Dazu noch die bessere Effizienz und Platzersparnis auf dem chip. Ich glaube nicht an 5x beim kleinen Vega.

basix
2016-06-04, 13:33:32
Weiss jemand, wann die mobilen Lösungen erscheinenn sollen? Mir würde ein neues Notebook mit Polaris sehr gefallen ;)

Ravenhearth
2016-06-04, 13:41:52
Die 390X kostet ca. 150,00$ mehr als die 380X

32 -> 44 CUs vs. 36 -> 64 CUs

Disco_STFU
2016-06-04, 13:48:26
Dass noch keiner wirklich neben der "better performance" auf die "better efficiency" der zwei RX 480 eigegangen ist. Würde ja bedeuten, dass sie zumindest in dem Fall nicht mehr als 180 Watt zusammen verbraucht haben.

</= 90 Watt pro Karte erscheint mir schon arg wenig. Würde aber auf der anderen Seite zu der geringen Auslastung passen.

ICH WILL INFOOOOOOOOOOOOOOOOOOOOOS :freak::freak::freak:

Elkinator
2016-06-04, 14:00:32
Wenn der neue MC noch kein 5x kann müsste der nochmal neu entworfen werden, wohingegen ein hbm2 controller für finfet ja schon da ist.
Da wird die IP doch eh zugekauft.

Kann man beim interposer eigentlich von ~100% yield ausgehen?
Ja und der kostet ca. 1$/100mm²

Das assembling scheint ja inzwischen auch gut zu laufen.
Laut Amkor 95% Yield.

Dazu noch die bessere Effizienz und Platzersparnis auf dem chip.
Dafür ist bei HBM das Packaging sehr teuer und HBM(1) kostet pro GB das vierfache von GDDR5.


Damit sie mehr von den Karten verkaufen können/würden...

Denn niedrigerer Preis = mehr verkaufte Einheiten.
Aber doch nicht bei High-End.
HBM(2) könnte jetzt dank Samsung billiger werden, die wollen bei NAND und DRAM laut eigenen Angaben Preisdumping betreiben.

iuno
2016-06-04, 14:01:32
Weiss jemand, wann die mobilen Lösungen erscheinenn sollen? Mir würde ein neues Notebook mit Polaris sehr gefallen ;)
Ich denke, dass AMD die mobilen Varianten direkt zeitnah mit am Start hat, weil es dort viel Volumen gibt. Wirklich wissen tun wir aber nichts, ich kann mir aber auch irgendwie vorstellen, dass die meisten Hersteller ihre Notebooks dann direkt mit Kaby Lake "komplett" aktualisieren, das duerfte so Q3/Q4 sein. Dann gibt es allerdings sicherlich auch mobil GP104 fuer "bessere" Gaming Notebooks.

Im Prinzip hat Polaris das Zeug, ordentliche Gaming Notebooks richtig erschwinglich zu machen, ich glaube aber nicht daran, dass die Hersteller das an die Kunden weitergeben. Man wird wohl auch weiterhin fuer einen Gaming Laptop ordentlich draufzahlen duerfen...

Dafür ist bei HBM das Packaging sehr teuer und HBM(1) kostet pro GB das vierfache von GDDR5.
Ohne die Angaben mal zu bezweifeln (wo kommen die her?) kann ich auch hier gegenargumentieren, denn die Speichermenge ist ja nicht alles: bei 1 GiB HBM hast du dafuer mit einem Stack auch direkt 128 GiB/s Durchsatz, dafuer brauchst du mit GDDR5 selbst bei 8 Gbps schon 4 Chips. Die Rechnung ist zugegebenermassen etwas dumm, weil man dann natuerlich auch die vierfache Speichermenge hat, es auch GDDR Chips <8Gb gibt und HBM2 wichtig ist, aber ich denke man versteht, was gemeint ist. Ich denke ehrlich gesagt auch, dass mit HBM2 HBM relativ gesehen guenstiger wird. Es gibt mehr Abnehmer, mehr Anbieter, die Technologie ist weiter und man braucht eben fuer gleiche Speichermenge und Durchsatz weniger Stacks, wodurch das Assembling auch billiger wird.

Kriton
2016-06-04, 14:08:32
Der Vorteil von Async Compute könnte auch abnehmen, wenn AMD es schafft, seine Chips generell besser auszulasten.

Das ist immer dieser Klang als wenn async compute nur wichtig ist wenn der Chip hätte besser sein können (womit häufig gemeint zu sein scheint, dass Nvidia dies ja nicht braucht...). Um das mal in Relation zu setzen (man mag mich technisch berichtigen, weil CPU ja nicht gleich GPU): Das ist als wenn man sagt Intel hat SMT, weil sie es nicht schaffen einen Chip so zu designen, dass er vernünftig ausgelastet wird (wobei mir bewusst ist, dass SMT manchmal kontraproduktiv ist).

Kriton
2016-06-04, 14:15:31
Vorsicht. Bei Vega gibt es eine Komponente die den Preis durchaus nach oben stärker treibern kann... 8GB HBM2.

Vielleicht bringen sie für Vega 11 ja sogar 16 - damit könnte man ggf. gut gegen GP 102 punkten, falls Nvidia dort bei 8 bleibt.