PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

Elkinator
2016-06-01, 20:51:38
Ist denn GDDR5X bei AMD jetzt völlig vom Tisch?
Eine Vega-GPU könnte GDDR5X bekommen, aber das ist eh nicth so wichtig.
Für High-end gibt es eh HBM.

Bei NVIDIA ist GDDR5X wichtig, weil sich Pascal+HBM verzögern wird.

dargo
2016-06-01, 20:54:19
Denn das Prob, was sich mAn stellt mit der 36CU XT für 200$ ist, dass die Lücke zu Vega riesig ist und der 1070 den kompletten Markt einfach auf dem Silbertablett liefern würde - das wird AMD nicht machen können, die MÜSSEN was haben. Aber in die Lücke zwischen einem 56CU V10 salvage für 400$ und einem 36 CU P10 für 200$ passt genau eine Variante für 300$ rein. Entweder ein P10 XT oder ein V10 LE.
So sehe ich das auch. Wobei ich an einen V10 LE eher nicht glaube. Im Bereich von 300-350$ wird es denke ich eher schwierig 8GB HBM2 unterzubringen, zumindest Ende 2016 bzw. Anfang 2017.

gedi
2016-06-01, 20:55:57
Ist denn GDDR5X bei AMD jetzt völlig vom Tisch? Fände ich schon etwas seltsam.

Edit:
RX490 -> 40CUs mit 1433Mhz und 256Bit @10Gbps GDDR5X fände ich besser. :D

Die zu erwartende Leistungssteigerung wäre wohl zu gering um sich RX490 nennen zu dürfen. Dein Vorschlag sieht für mich wie eine RX485, oder aber RX480XT aus.

[MK2]Mythos
2016-06-01, 20:57:14
So sehe ich das auch. Wobei ich an einen V10 LE eher nicht glaube. Im Bereich von 300-350$ wird es denke ich eher schwierig 8GB HBM2 unterzubringen.
Wissen wir denn wie schnell Vega wird? Vielleicht ist der Abstand gar nicht so riesig. ;)

Ailuros
2016-06-01, 20:57:44
Eine Vega-GPU könnte GDDR5X bekommen, aber das ist eh nicth so wichtig.
Für High-end gibt es eh HBM.

Bei NVIDIA ist GDDR5X wichtig, weil sich Pascal+HBM verzögern wird.

Ich lach mich krank falls es diesen Herbst einen 64CU, GDDR5X Vega fuer desktop geben wird und Anfang 17' eine HBM2 Variante davon.

N0Thing
2016-06-01, 20:58:47
Die RX 480 Das könnte eine interessante Karte für mich werden. Etwas weniger Leistung als ich eigentlich gerne hätte, aber mit dem geringen Verbrauch und 8GB Speicher definitiv eine gute Überbrückung bis die großen Chips auf den Markt kommen.


Falsch... siehe Tonga. :P

Der hat doch angeblich noch ein größeres Speicherinterface in Reserve.

ndrs
2016-06-01, 21:00:16
Mit P11 deckt AMD doch den unteren bereich eh schon komplett ab, wozu eine kleinere GPU?
Man braucht auch GPUs für den Sub-50€-Bereich. (Wenn zB einfach nur mehr Monitore für's Büro gebraucht werden) Da dürfte P11 zu teuer/leistungsfähig sein. Einen Oland-Rebrand halte ich für ziemlich wahrscheinlich.

dargo
2016-06-01, 21:00:47
Die zu erwartende Leistungssteigerung wäre wohl zu gering um sich RX490 nennen zu dürfen. Dein Vorschlag sieht für mich wie eine RX485, oder aber RX480XT aus.
Warum? Man hat das ganze Namensschema eh geändert. Ein Tahiti XT war auch nur 25% schneller als Tahiti Pro. Und der Salvage P10 (ausgehend von den 36CUs) soll jetzt auch RX470 heißen. Ich gehe davon aus, dass RX480 auch nur 25-30% schneller sein wird als RX470.

Mythos;11053354']Wissen wir denn wie schnell Vega wird? Vielleicht ist der Abstand gar nicht so riesig. ;)
Nochmal nachgerechnet.

P10 = 2304SPs
V10 = 4096SPs (Spekulation)

Bei perfekter Skalierung würde das +78% Leistung ergeben. V10 wird sicherlich auch mit weniger Takt laufen. Hmm... je nachdem wie stark man den Salvage beschneidet könnte das doch wohl hinkommen, dass zwischen P10 Full und V10 Salvage nur noch ~30-40% Unterschied vorhanden ist. Allerdings passen mir die 8GB HBM2 in den Preisbereich von 300-350$ immer noch nicht.

Vielleicht ist das die Lösung. :freak:
Ich lach mich krank falls es diesen Herbst einen 64CU, GDDR5X Vega fuer desktop geben wird und Anfang 17' eine HBM2 Variante davon.

Rabiata
2016-06-01, 21:10:57
Mit P11 deckt AMD doch den unteren bereich eh schon komplett ab, wozu eine kleinere GPU?
Ich schätze daß uns am unteren Ende Oland oder Tobago/Bonaire noch ein bißchen erhalten bleiben, um das absolute Low End im OEM-Bereich abzudecken.

Aber das wird wohl ein Auslaufmodell sein, da Intels iGPUs immer mehr in den Bereich reindrücken. Und damit meine ich nicht die teuren Iris-Modelle mit eDRAM, sondern die HD 530, die bei den Desktop-Modellen ab i3 mit drin ist.

Edit:
AMD bietet in dem Bereich ja schon APUs an, und braucht eigentlich keine Low End GPU mehr. Aber vielleicht wäre eine Zen-CPU mit kleiner eingebauter GPU sinnvoll. So als Gegenstück zu den Intel i5-i7, wenn vor allem CPU-Leistung gebraucht wird.

[MK2]Mythos
2016-06-01, 21:11:02
Ich glaube ihr macht euch da zu viele Hoffnungen.
Auf den Folien und bei der Präsentation ist für Polaris immer von 36 CU's und VR für Mainstream die Rede, daher bezweifle ich dass AMD noch irgendwas deutlich schneller als die jetzt gezeigte RX480 hat oder in naher Zukunft bringen wird. Wenn es einen "kleinen" Vega gibt und dieser bereits im Oktober erscheint, sind das nur noch 4 Monate und ich gehe davon aus, dass dieser um die 50% schneller sein wird. Damit ist dann bis in den Performance Bereich alles relativ lückenlos abgedeckt.

Complicated
2016-06-01, 21:11:19
Dagegen spricht das SLI/CF nur mit sehr ähnlichen Grafikchips möglich ist. Bei dedizierten Karten muss es bis jetzt der gleiche sein. Also nein, geht nicht. Mit DX12/Vulkan und SFR könnte sowas gehen.
Da bist du aber grundlegend falsch informiert. Es können unterschiedliche GPUs von AMD gemischt werden.
http://www.techpowerup.com/forums/threads/amd-crossfire-chart.201045/#post-3111122
Und mit DX12 ist sogar ein Mischbetrieb mit AMD/Nvidia möglich. Siehe Test: http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview/4
Das SLI Gespann wird sogar schneller im Mischbetrieb wenn man eine der GTX durch eine Fury X ersetzt ;)
http://images.anandtech.com/graphs/graph9740/78165.png

Botcruscher
2016-06-01, 21:13:41
Ich lach mich krank falls es diesen Herbst einen 64CU, GDDR5X Vega fuer desktop geben wird und Anfang 17' eine HBM2 Variante davon.
Oder wie bei Fiji. P10 nehmen und "verdoppeln".:freak:
Mythos;11053369'] und dieser bereits im Oktober erscheint, sind das nur noch 4 Monate
Falls wir der "Quelle" hier vertrauen.

Elkinator
2016-06-01, 21:32:27
Ich lach mich krank falls es diesen Herbst einen 64CU, GDDR5X Vega fuer desktop geben wird und Anfang 17' eine HBM2 Variante davon.
Was gibt es da dann zu lachen?


Man braucht auch GPUs für den Sub-50€-Bereich. (Wenn zB einfach nur mehr Monitore für's Büro gebraucht werden)
Dieser Markt ist doch am sterben.
So ziemlich jeder aktuelle Bürorechner hat doch eine APU.


Ich schätze daß uns am unteren Ende Oland oder Tobago/Bonaire noch ein bißchen erhalten bleiben, um das absolute Low End im OEM-Bereich abzudecken.
Ob die Karten in der Herstellung billiger sind würde ich mal bezweifeln.

Aber vielleicht wäre eine Zen-CPU mit kleiner eingebauter GPU sinnvoll. So als Gegenstück zu den Intel i5-i7, wenn vor allem CPU-Leistung gebraucht wird.
Wäre sicher sinnvoll, für mich kommt Summit Ridge weil er keine iGPU hat leider noch nicht infrage.
Auch eine 50€ dGPU kommt mir in keinen neuen Rechner, ich will nicht auf hUMA/hQ verzichten!

TheGood
2016-06-01, 21:36:38
NAja zuerst war ich über den preis geschockt, aber für uns KUnden ist der gut :) Wenn die KArten jetzt noch gut abschneidet wird die ehrwuerdige 460 ersetzt...

Zum Thema CF bin ich immer noch der Meinung es wird die Zukunft sein. Allerdings auf einer KArte oder ggf. auf einem Die. Meine Interpretation ist auch dass dies fuer NAvi bereits von Korrektur: AMD auf einer Folie mal angedeutet wurde. Daher würde ich CF auch noch nicht ganz abschreiben. GGf. hat AMD auch hier etwas getan und das Microruckeln entsorgt. Ausserdem sehe ich das für VR immer noch als gute Technik an. Sofern es unterstützt wird.

gedi
2016-06-01, 21:39:40
Wahrscheinlich wenig interessant, aber die RX480 wird bereits bei Geizhals gelistet: http://geizhals.eu/amd-radeon-rx-480-a1450841.html

Leider noch ohne Preis

dargo
2016-06-01, 21:42:42
Man braucht auch GPUs für den Sub-50€-Bereich.
Ob man diesen Bereich überhaupt noch im Visier hat?

http://www2.pic-upload.de/img/30824383/Zwischenablage02.jpg

Gipsel
2016-06-01, 21:43:09
Zum Thema CF bin ich immer noch der Meinung es wird die Zukunft sein. Allerdings auf einer KArte oder ggf. auf einem Die. Meine Interpretation ist auch dass dies fuer NAvi bereits von NVidia auf einer Folie mal angedeutet wurde. Daher würde ich CF auch noch nicht ganz abschreiben. GGf. hat AMD auch hier etwas getan und da Microruckeln entsorgt.Ähm, Navi wird der Nachfolger von Vega und kommt von AMD, nicht von nV.

Complicated
2016-06-01, 21:43:39
Meine Interpretation ist auch dass dies fuer NAvi bereits von NVidia auf einer Folie mal angedeutet wurde. Daher würde ich CF auch noch nicht ganz abschreiben. GGf. hat AMD auch hier etwas getan und da Microruckeln entsorgt. Ausserdem sehe ich das für VR immer noch als gute Technik an. Sofern es unterstützt wird.Navi gehört zu AMDs GPU Roadmap :biggrin:
Edit: zu langsam :)

Gipsel
2016-06-01, 21:45:45
Oh man diesen Bereich überhaupt noch im Visier hat?

http://www2.pic-upload.de/img/30824383/Zwischenablage02.jpg
Die Grafik und die Prozente bezieht sich nur auf "Gamer", wobei AMD die (willkürliche) Grenze bei 100$ zieht. Der Markt darunter ist aber auch nicht zu verachten und sicher noch existent, auch wenn er langsam aber sicher an Bedeutung verliert.

gedi
2016-06-01, 21:51:49
Die Grafik und die Prozente bezieht sich nur auf "Gamer", wobei AMD die (willkürliche) Grenze bei 100$ zieht. Der Markt darunter ist aber auch nicht zu verachten und sicher noch existent, auch wenn er langsam aber sicher an Bedeutung verliert.

Aber wahrscheinlich (noch) nicht für die bevorstehende Generation. Hierfür müssen wohl R7 - Rebrands herhalten.

TheGood
2016-06-01, 21:55:46
Ähm, Navi wird der Nachfolger von Vega und kommt von AMD, nicht von nV.

ja hab mich vertippt. Hätte im Kontext aber klar sein müssen ;)

Der_Korken
2016-06-01, 21:57:33
Nochmal nachgerechnet.

P10 = 2304SPs
V10 = 4096SPs (Spekulation)

Bei perfekter Skalierung würde das +78% Leistung ergeben. V10 wird sicherlich auch mit weniger Takt laufen. Hmm... je nachdem wie stark man den Salvage beschneidet könnte das doch wohl hinkommen, dass zwischen P10 Full und V10 Salvage nur noch ~30-40% Unterschied vorhanden ist. Allerdings passen mir die 8GB HBM2 in den Preisbereich von 300-350$ immer noch nicht.

Vielleicht ist das die Lösung. :freak:

Gab es bereits eine Bestätigung, dass V10 kleiner als V11 ist? Ansonsten wäre auch denkbar, dass V11 sich zwischen P10 und V10 platziert und 40 oder 44 CUs hat. Der Abstand zu P10 kommt dagegen durch deutlich bessere Taktbarkeit und/oder verbesserte IPC. Also z.B.:

P10 = 2304SPs * 1,2Ghz und GDDR5
V11 = 2816SPs * 1,5Ghz und GDDR5X
V10 = 4096SPs * 1,5Ghz und HBM2

Das wären 50% mehr Rohleistung von P10 auf V11 und nochmal knapp 50% von V11 auf V10.

Fliwatut
2016-06-01, 21:59:01
Die Grafik und die Prozente bezieht sich nur auf "Gamer", wobei AMD die (willkürliche) Grenze bei 100$ zieht. Der Markt darunter ist aber auch nicht zu verachten und sicher noch existent, auch wenn er langsam aber sicher an Bedeutung verliert.
Unter $/€100 kauft man besser gebraucht, da bekommt man dann mehr Leistung.

dargo
2016-06-01, 21:59:50
Gab es bereits eine Bestätigung, dass V10 kleiner als V11 ist?
Ja.

iuno
2016-06-01, 22:16:10
Nein.
Wo denn bitte?

In meinen Augen macht das ja auch keinen Sinn (genausowenig wie irgendeinen Vega mit GDDR5X zu bringen), bestaetigt ist da aber gar nichts.

AffenJack
2016-06-01, 22:23:36
Ich lach mich krank falls es diesen Herbst einen 64CU, GDDR5X Vega fuer desktop geben wird und Anfang 17' eine HBM2 Variante davon.

Ich kann mich nur die ganze Zeit über die Herbstgerüchte für Vega schlapplachen. Amd zeigt nen Slide der auf Ende des Jahres/Anfang 2017 hindeutet, spricht weiter immer nur von Polaris dieses Jahr und Vega nächstes Jahr und die Leute glauben ernsthaft an Herbst für Vega. Wieso hat man denn 2 RX480 gegen ne 1080 verglichen? Weil man das obere Preissegment nicht bedienen kann im Moment. Käme Vega so früh, dann hätte man das geteasert oder erwähnt.

Man hat so wies aussieht eine Top Preisleistungskarte, bei der Nvidia zumindest bis GP106 ziemlich dran zu knabbern haben wird und man sollte deutlich Marktanteile gewinnen. Aber die Leute sollten manchmal auch etwas realistisch sein.

Elkinator
2016-06-01, 22:28:51
Wieso hat man denn 2 RX480 gegen ne 1080 verglichen? Weil man das obere Preissegment nicht bedienen kann im Moment. Käme Vega so früh, dann hätte man das geteasert oder erwähnt.
Weil man auf der Computex nicht nur von GPU redet?

Auf der PC Gaming Show haben sie mehr zeit, die Veranstaltung sollte man erstmal abwarten!

[MK2]Mythos
2016-06-01, 22:34:38
http://www.3dcenter.org/
Die gezeigte RX480 scheint wie vermutet der Vollausbau von Polaris zu sein.

basix
2016-06-01, 22:39:09
Da bist du aber grundlegend falsch informiert. Es können unterschiedliche GPUs von AMD gemischt werden.
http://www.techpowerup.com/forums/threads/amd-crossfire-chart.201045/#post-3111122
Und mit DX12 ist sogar ein Mischbetrieb mit AMD/Nvidia möglich. Siehe Test: http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview/4
Das SLI Gespann wird sogar schneller im Mischbetrieb wenn man eine der GTX durch eine Fury X ersetzt ;)
http://images.anandtech.com/graphs/graph9740/78165.png

Dazu gerade eine Frage: Kann man die Bildausgabe auf eine GPU mappen ohne wesentlich Leistung zu verlieren? D.h. wenn man einen teuren G-Sync Monitor + Nvidia hat aber ein AMD Upgrade macht, kann man trotzdem noch G-Sync via Nvidia Karte nutzen? Das selbe natürlich vice versa mit FreeSync.

Das wäre der Oberhammer! Dann wäre man nämlich nicht mehr an einen GPU-Hersteller gebunden wenn man einen entsprechenden Monitor besitzt.

gedi
2016-06-01, 22:41:40
Sollte möglich sein. Wichtig ist nur, dass der Monitor an der "richtigen" Grafikkarte eingestöpselt ist.

Atma
2016-06-01, 23:22:55
Vielleicht liegt es daran, dass ich nicht zur Zielgruppe gehöre, aber warum sind alle wegen der RX 480 so aus dem Häuschen?! Leistung die seit 2014 verfügbar ist wurde lediglich noch mal neu in Silizium gegossen. Da beeindrucken weder Preis noch Verbrauch. Dass Mainstreamkarten irgendwann die Leistung früherer High-End Klassen erreichen ist doch ein völlig normaler Werdegang.

Das einzige was Polaris 10 bei mir hervorruft ist ein langes Gähnen.

maguumo
2016-06-01, 23:24:18
Da bist du aber grundlegend falsch informiert. Es können unterschiedliche GPUs von AMD gemischt werden.

Fury, Fury X und Nano verwenden die gleiche GPU, das Crossfire unter DX11/OpenGL auch mit unterschiedlichen (zum Bsp. Fiji-Hawaii oder Hawaii-Tahiti) läuft wäre mir völlig neu. Abgesehen von dem APU DualGraphics Kram. Das es unter DX12 mit SFR womöglich anders aussieht habe ich ja auch geschrieben.

Die gezeigte RX480 scheint wie vermutet der Vollausbau von Polaris zu sein.
Wäre vermutlich wirklich Irrsinn jetzt nicht den Vollausbau ins rennen zu schicken, gerade wenn man damit der 1070 schön an den Karren fahren könnte. Vielleicht wird das Namensschema dann einfach auf 460-470-480-490 und ein Fury Analog eingeschränkt. Wobei da dann kaum Platz für zwei Vega Chips mit eigenen Salvage Parts wäre...

whetstone
2016-06-01, 23:32:49
Vielleicht liegt es daran, dass ich nicht zur Zielgruppe gehöre

Daran liegt es....
Jemand der wie noch eine 7850 drinn hat und sich damals, vor dem blöden euro/dollar wechselkurs, keine gtx970 gekauft hat (welche ich auch nicht wirklich gebraucht hätte zu dem zeitpunkt @1080p ), findet die karte dann wiederrum toll.
Ich habe selber auch noch nie karten für mehr als 300€ erstanden, das wird auch so bleiben. AMD besinnt sich mit polaris wieder auf alte stärken, den preisleistungs mainstream zu dominieren, deshalb ist die rx480 für mich das beste angebot seit langem.

gedi
2016-06-01, 23:33:48
Vielleicht liegt es daran, dass ich nicht zur Zielgruppe gehöre, aber warum sind alle wegen der RX 480 so aus dem Häuschen?! Leistung die seit 2014 verfügbar ist wurde lediglich noch mal neu in Silizium gegossen. Da beeindrucken weder Preis noch Verbrauch. Dass Mainstreamkarten irgendwann die Leistung früherer High-End Klassen erreichen ist doch ein völlig normaler Werdegang.

Das einzige was Polaris 10 bei mir hervorruft ist ein langes Gähnen.

Das gleiche könntest du dich mit deiner TX hinsichtlich der 1080 fragen - nur dass der Preis bei der 1080 genauso übertrieben war/ist wie bei deiner TX.

1440p-Performance für 200$ vor Steuern - mir fällt nichts vergleichbares ein ;)

Elkinator
2016-06-01, 23:34:15
Leistung die seit 2014 verfügbar ist wurde lediglich noch mal neu in Silizium gegossen.
HDMI 2.0b, Displayport 1.4, H.265, HDCP 2.2,...

Da beeindrucken weder Preis noch Verbrauch.
Das einzige was Polaris 10 bei mir hervorruft ist ein langes Gähnen.
Man darf den Markt nicht nur aus der Sicht eines Gamers betrachten!


Fury, Fury X und Nano verwenden die gleiche GPU,
Es geht aber nicht um die selbe GPU, sondern die selbe Version von GCN.

GCN3 nur mit GCN3, also geht zb. auch Fiji mit Tonga oder einer APU mit GCN3
GCN2 mit GCN2
GCN1 mit GCN1

maguumo
2016-06-01, 23:34:57
Wusste ich nicht, danke für die Info. Noch nie irgendwo gesehen.

Michalito
2016-06-01, 23:46:53
So, 25 Seiten Thread in 24H.. Wer behauptet AMD versteht nix von Marketing? Und noch kein einziger Test.. Wer hier alles schon im Thread war und sein Desintresse geäussert hat, lol, spricht auch Bände..

Digidi
2016-06-02, 00:01:22
Also wenn zwei RX 480 bei 51% Auslastung eine GTX 1080 schlagen, dann sollte eine RX 480 bei 100% Auslastung ebenfalls eine GTX 1080 schlagen.

Ich wollte das nochmals auffassen. Das mit den 51% habe ich nicht verstanden. Wie kann sie schneller als die 1080% sein aber nur 51% Auslastung haben? Wieso nutzt sie nicht 100% dann wäre sie ja viel schneller als eine 1080

-/\-CruNcher-/\-
2016-06-02, 00:02:06
Weil man auf der Computex nicht nur von GPU redet?

Auf der PC Gaming Show haben sie mehr zeit, die Veranstaltung sollte man erstmal abwarten!

Naja

https://youtu.be/P9GTWuhsd_Q?t=40

AMD kann das hiernach nicht sein, müsste ja and really efficient Videocards heisen für den Polaris stack es sei den da kommt noch was großes das Huddy uns kredenzen wird ;)

ndrs
2016-06-02, 00:10:22
Ob man diesen Bereich überhaupt noch im Visier hat?

Sie wären doch schön blöd das Feld kampflos der Konkurrenz zu überlassen. Rebrands kosten fast nichts und ein paar $$ bringt es in jedem Fall.

Dieser Markt ist doch am sterben.

Zustimmung

So ziemlich jeder aktuelle Bürorechner hat doch eine APU.

Hab es nicht deutlich genug geschrieben, wie ich es meinte. Ich rede von >3 Monitoren pro PC. Da kommst du mit APUs nicht weit. Vielleicht später mal mit Daisy Chain über DP...
Außerdem gibt es Workstations mit zB Sockel 2011. Die brauchen auch ne GPU.

Ob die Karten in der Herstellung billiger sind würde ich mal bezweifeln.

Ich nicht. :tongue:

MorPheuZ
2016-06-02, 00:12:04
Das gleiche könntest du dich mit deiner TX hinsichtlich der 1080 fragen - nur dass der Preis bei der 1080 genauso übertrieben war/ist wie bei deiner TX.

1440p-Performance für 200$ vor Steuern - mir fällt nichts vergleichbares ein ;)

Ja die Karte ist für das gebotene Geld eine Gute. Allerdings würde ich mich auf FHD beschränke wenn du keine Details runterschrauben willst...

gedi
2016-06-02, 00:17:31
Ich wollte das nochmals auffassen. Das mit den 51% habe ich nicht verstanden. Wie kann sie schneller als die 1080% sein aber nur 51% Auslastung haben? Wieso nutzt sie nicht 100% dann wäre sie ja viel schneller als eine 1080

Kein optimiertes CF-Profil und eigentlich nicht repräsentativ. Der Sinn zur Veranschaulichung dieses Benchmarks in Verbund mit grottiger Auslastung erschließt sich mir nicht wirklich :confused:

€dit: Hier stand Mist

@MorPheuz

Ich konnte mit einer 980 non ti @1.4G eigentlich sehr gut daddeln in 1440p

-/\-CruNcher-/\-
2016-06-02, 00:18:52
Es gibt noch überhaupt keine Infos zu den UVD und VCE updates für Polaris ?

Bei Nvidia weiss man das die gleiche VPx Logik wie bei Tegra X1 verwendet wird mit identischem Feature Set was VP9 support inkludiert bei Polaris weiss man immernoch nicht so richtig was wo supported wird das ist irgendwo schon komisch so kurz vor start hätte man das ja schonmal veröffentlichen können auf der Computex vor allem :)

Denke mal das selbe wird auch auf Polaris zutreffen

http://cdn.arstechnica.net/wp-content/uploads/sites/3/2015/06/Carrizo-Tech-Day_Architecture_FINAL-4-980x551.jpeg

oder den UVD aus Bristol Ridge was ich eher vermute bzw hoffe ;)

http://i.imgur.com/weDQnz0.jpg

Viele schlussfolgern ja aufgrund der Roadmap das VP9 nicht inkludiert sein wird

http://imagescdn.tweaktown.com/news/5/1/51746_01_amds-official-2016-2018-gpu-roadmap-released-vega-hbm2-2017.png

Nakai
2016-06-02, 00:20:43
Warten wir auf die Benches. Mehr kann man nicht dazu sagen. Der "geleakte" 3D Mark wirkt schonmal vielversprechend. Für leicht über ~200€ klingt das Gebotene sehr gut.

Elkinator
2016-06-02, 00:33:03
Ich nicht. :tongue:
Warum?
Man würde es sich sparen eine 28nm GPU fertigen zu lassen, P11 ist viel effizienter, kann man also problemlos passiv kühlen, ein PCB fällt weg,...

OBrian
2016-06-02, 00:34:18
Es gibt noch überhaupt keine Infos zu den UVD und VCE updates für Polaris ?

Bei Nvidia weiss man das die gleiche VPx Logik wie bei Tegra X1 verwendeit wird mit identischem Feature Set was VP9 support inkludiert bei Polaris weiss man immernoch nicht so richtig was wo supported wird das ist irgendwo schon komisch so kurz vor start hätte man das ja schonmal veröffentlichen können auif der Computex vor allem :)
tja, das ist wohl wieder das Marketing. Die greifen sich immer etwas Unwichtiges raus, jubeln das hoch, und weitere interessante Features werden weggelassen, "weil zuviele Informationen den Zuhörer verwirren würden" oder so. Ich verstehe diese Art Menschen einfach nicht.

Ich mein, über zuviele Informationen konnte man sich bei dieser Präsentation wohl kaum beschweren, was?^^

y33H@
2016-06-02, 00:57:21
Die Infos gab's auf dem Tech Day und HEVC ist eh obligatorisch.

-/\-CruNcher-/\-
2016-06-02, 01:20:18
@y33h@
Das hätt ich überhaupt nicht erwartet *sarkastisch* mal sehen ob noch was leaked aus euren reihen vor NDA expiration ;)

Hübie
2016-06-02, 01:24:10
Gab es bereits eine Bestätigung, dass V10 kleiner als V11 ist?
Ja.

Wann und wo genau? Es wurde ja nicht mal bestätigt dass es überhaupt zwei Vega-Chips gibt...

OBrian
2016-06-02, 02:18:34
naja, es gibt ja dieses Fantasie-Weltraumfoto von irgendwelchen Sternen, beschriftet mit Polaris 10, Polaris 11, Vega 10 und Vega 11 (hatte wer vor zig Seiten hier verlinkt).

Isen
2016-06-02, 02:47:29
Das hier meintest du sicherlich:

https://abload.de/thumb/amdradeon-imgurszs1s.jpg (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)

dargo
2016-06-02, 06:24:21
Sie wären doch schön blöd das Feld kampflos der Konkurrenz zu überlassen. Rebrands kosten fast nichts und ein paar $$ bringt es in jedem Fall.

Ich hatte mich wohl unverständlich ausgedrückt. Ich meinte damit eher, dass es keinen Sinn mehr macht für diesen Bereich neue GPUs zu entwickeln. Rebranden und fertig.

Nein.
Wo denn bitte?

Da.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11053600&postcount=5051

Wann und wo genau? Es wurde ja nicht mal bestätigt dass es überhaupt zwei Vega-Chips gibt...
Dann hast du schlecht aufgepasst. ;)

Vielleicht liegt es daran, dass ich nicht zur Zielgruppe gehöre, aber warum sind alle wegen der RX 480 so aus dem Häuschen?! Leistung die seit 2014 verfügbar ist wurde lediglich noch mal neu in Silizium gegossen. Da beeindrucken weder Preis noch Verbrauch. Dass Mainstreamkarten irgendwann die Leistung früherer High-End Klassen erreichen ist doch ein völlig normaler Werdegang.

Das einzige was Polaris 10 bei mir hervorruft ist ein langes Gähnen.
Du findest also eine ~GTX970(GTX980) Leistung für 149$(199$) in Form der RX470(RX480) zum Gähnen? Na dann... :uup:

Korvaun
2016-06-02, 07:25:38
Preis/Leistung ist toll wenn AMD wirklich hält was sie versprechen. Es sollte jeden freuen das jetzt solche Karten kommen. Aber absolut gesehen haben schon Millionen von Leuten schnellere Karten in ihren Rechnern, das diese Gruppe nicht vor Begeisterung jubelt ist doch völlig normal... Für diese Gruppe tritt dann hoffentlich der Effekt ein das die teureren Karten sich preislich nach unten orientieren (insbesondere GP104 und die noch erscheinenden "dicken Dinger").

horn 12
2016-06-02, 07:47:47
Nun, bei der E3 Gaming Show sollten Polaris 10 Karten wohl gezeigt werden, Referenz und Custom und vielleicht der eine und andere Benchmark ist zu erhaschen.
Karten sollten um dieses Datum, also rund um den 13 Juni wohl bereits verschifft werden um am Launchtag pünktlich liefern zu können.
Somit ist man 1 Monat bzw. 14 Tage nach NV am Zug.

Complicated
2016-06-02, 07:49:14
7,5 Mio Leute haben eine GPU die schneller ist als 970/290...33 Mio. Leute haben eine GPU die langsamer ist.

Also genug die sich auf ein kostengünstiges Upgrade freuen...das wird ein Verkaufsschlager und niemand wird auf GP106 warten. Doch so einige werden auf Vega warten weil das Preis-/Leistungsverhältnis der 14nm bei AMD auch im Highend möglich wäre. Allerdings bin ich sicher, dass Vega teurer wird.

mboeller
2016-06-02, 07:53:43
Das hier meintest du sicherlich:

https://abload.de/thumb/amdradeon-imgurszs1s.jpg (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)

... an dem Bild kann man ja sogar die Größe ableiten. Polaris 11 ist kleiner als Polaris 10. Und Vega 11 ist riesig.

mboeller
2016-06-02, 07:55:40
nt

Loeschzwerg
2016-06-02, 08:27:54
Das hier meintest du sicherlich:

https://abload.de/thumb/amdradeon-imgurszs1s.jpg (http://abload.de/image.php?img=amdradeon-imgurszs1s.jpg)

Neuer Hintergrund, juhuu ^^ Gibt es das Bild auch ohne Kompressionsartefakte?

Isen
2016-06-02, 08:29:53
Ne. Tut mir leid. Besser hab ich es selbst nicht.

iuno
2016-06-02, 08:31:35
Da.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11053600&postcount=5051


Dann hast du schlecht aufgepasst. ;)
Wo ist das Bild denn zuerst aufgetaucht?
Habe das schon hier im Forum gesehen, ja. Fuer mich war das aber offensichtlich Fan-made.

Da hat jemand Wind vom neuen Font bekommen und muss gleich rumhypen. So ein Bild mache ich dir auch in 5 Minuten, mit einer Bestaetigung hat das aber rein gar nichts zu tun.

Disco_STFU
2016-06-02, 08:37:53
Ich frag mich warum AMD den Abstand zwischen den Karten oft so gering wählt. Dann kaufen viele das etwas langsamere Produkt siehe 390(x). Bei Nvidia hat man da gerne 20+% dazwischen und viele entscheiden sich grade wegen der größeren Lücke für das schnellere und teurere Produkt.

dargo
2016-06-02, 08:48:50
Naja... man bewegt sich eigentlich immer so im Bereich von 20-25%, siehe Tahiti, Fiji. Nur bei der 390 und 380 sind es ~15-16%.

horn 12
2016-06-02, 08:53:06
http://i.imgur.com/BYdxuFM.jpg

Nicht einmal mehr 199 Minuten bis zum Event! Ich werde schon ganz rot im Gesicht vor Aufregung!

Ob Zenpai Lisa Su wohl eine Überraschung im Gepäck hat?


@d2kx

Nun was meinst bitte mit Überraschung
Zen Infos, Vega Infos ODER ist die gezeigte Karte wohl doch noch nicht der komplette Vollausbau und Taktobergrenze ?

gogetta5
2016-06-02, 09:38:23
Ich habe noch nichts davon gelesen, warum auf der RX 480 sowohl DP1.3 als auch DP1.4 verbaut werden. Hat da jemand eine Info?

iuno
2016-06-02, 09:41:37
Vermutlich selbe Situation wie bei Nvidia, erst mit DP1.3 geplant und in der Zwischenzeit wurde 1.4 spezifiziert. Siehe auch https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11027620&postcount=5344

nordic_pegasus
2016-06-02, 09:41:46
Ich habe noch nichts davon gelesen, warum auf der RX 480 sowohl DP1.3 als auch DP1.4 verbaut werden. Hat da jemand eine Info?

in den News von gestern stand doch drin, dass zunächst nur DP 1.3 unterstützt wird und 1.4 per Firmware-Update nachgeschoben wird. Also sind zum Release alle DP "nur" v1.3.

Gorkon
2016-06-02, 09:42:09
Nun was meinst bitte mit Überraschung
Zen Infos, Vega Infos ODER ist die gezeigte Karte wohl doch noch nicht der komplette Vollausbau und Taktobergrenze ?
*hust*
http://i.imgur.com/BYdxuFM.jpg

Nicht einmal mehr 199 Minuten bis zum Event! Ich werde schon ganz rot im Gesicht vor Aufregung!

Ob Zenpai Lisa Su wohl eine Überraschung im Gepäck hat?
Du hast den Stream aber schon gesehen horn...oder? :freak:

@gogetta5
DP 1.4 soll per FW-Update (BIOS) nachgeliefert werden. Ist dann ja sowieso abwärtskompatibel ;)

EDIT: 20 sek zu spät xD

Birdman
2016-06-02, 09:53:12
Wo ist das Bild denn zuerst aufgetaucht?
Habe das schon hier im Forum gesehen, ja. Fuer mich war das aber offensichtlich Fan-made.

Da hat jemand Wind vom neuen Font bekommen und muss gleich rumhypen. So ein Bild mache ich dir auch in 5 Minuten, mit einer Bestaetigung hat das aber rein gar nichts zu tun.
reicht das hier? (wurde schon vorher in diesem Tread geposted)
http://imagescdn.tweaktown.com/news/5/1/51746_01_amds-official-2016-2018-gpu-roadmap-released-vega-hbm2-2017.png

iuno
2016-06-02, 09:59:06
Selbstverstaendlich nicht.
Es geht um die Bestaetigung, dass es einen Vega 11 gibt, der groesser ist als Vega 10.

edit: zusaetzlich gilt natuerlich weiterhin die Annahme, dass Vega 10 = Greenland mit 64 CUs ist. Es gilt also die offizielle Aussage zu finden, dass ein Vega mit >64 CUs kommt

Fliwatut
2016-06-02, 10:01:57
Auf amd.com findet sich nichts zu Vega 11.

Isen
2016-06-02, 10:04:57
Kenne nur das:

https://www.youtube.com/watch?v=4qJj1ViyyPY
http://www.pcper.com/news/Graphics-Cards/AMDs-Raja-Koduri-talks-moving-past-CrossFire-smaller-GPU-dies-HBM2-and-more



http://arstechnica.com/gadgets/2016/03/amd-gpu-vega-navi-revealed/

AMD also confirmed that there will be at least two GPUs released under Vega: Vega 10 and Vega 11. This is similar to Polaris, which consists of the Polaris 10 and Polaris 11 GPUs, the latter of which is presumed to be a smaller GPU intended for laptops and mid-range graphics cards.

dildo4u
2016-06-02, 10:37:55
Die 480 ist zwar nett aber guck mal was man Heute für 1080p/60 auffahren muss,die Fury X ist grad so in der Lage das bei Witcher 3 zu liefern.
Daher hoffe ich sie haben bald ne 300€ Lösung um Druck auf NV auszuüben,ich hab kein Bock 450€ für ne gute 1070 auszugeben.


http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/

HOT
2016-06-02, 10:39:33
Ich hab langsam den Verdacht, dass Greenland ein reiner Profichip ist und mit Vega gar nichts zu tun hat.

Die 480 ist zwar nett aber guck mal was man Heute für 1080p/60 auffahren muss,die Fury X ist grad so in der Lage das bei Witcher 3 zu liefern.
Daher hoffe ich sie haben bald ne 300€ Lösung um Druck auf NV auszuüben,ich hab kein Bock 450€ für ne gute 1070 auszugeben.


http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/

Aha, ich spiel Blood and Wine grad mal mit meiner 290 auf vollen Details problemlos (natürlich ohne Hairworks). Ich sehe jetzt nicht, was da das Problem sein soll. Witcher läuft sogar gut auf Tahiti Pro. Vermutlich wird Polaris sogar genau da gut sein, wo GCN bisher versagt.

Unicous
2016-06-02, 10:39:43
Es gibt keine Angaben zur Größe, da kann dargo auch noch zig mal das Bild ohne Quellenangabe zitieren das macht es nicht richtiger.

iuno
2016-06-02, 10:42:05
Die Artikel von dem Typen sind immer so mit das beste: ;D
http://seekingalpha.com/article/3979206-amd-exposes-lack-competitiveness-computex

dargo
2016-06-02, 10:45:03
Die 480 ist zwar nett aber guck mal was man Heute für 1080p/60 auffahren muss,die Fury X ist grad so in der Lage das bei Witcher 3 zu liefern.
Daher hoffe ich sie haben bald ne 300€ Lösung um Druck auf NV auszuüben,ich hab kein Bock 450€ für ne gute 1070 auszugeben.


http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/
Es soll Spieler geben die mit Grafikoptionen umgehen können. Zumal in diesem Preissegment die Masse kaum ein Target von 60fps hat. Und Targets von 30/60fps sind sowas von Steinzeit.


Aha, ich spiel Blood and Wine grad mal mit meiner 290 auf vollen Details problemlos (natürlich ohne Hairworks). Ich sehe jetzt nicht, was da das Problem sein soll. Witcher läuft sogar gut auf Tahiti Pro.
Ich spiele es in 1440p mit der 390 und leicht reduzierten Details ohne Probleme. Klar... in ganz seltenen Fällen geht es schon mal Richtung 40-45fps. Dank Freesync aber alles noch ok.

-/\-CruNcher-/\-
2016-06-02, 11:13:23
7,5 Mio Leute haben eine GPU die schneller ist als 970/290...33 Mio. Leute haben eine GPU die langsamer ist.

Also genug die sich auf ein kostengünstiges Upgrade freuen...das wird ein Verkaufsschlager und niemand wird auf GP106 warten. Doch so einige werden auf Vega warten weil das Preis-/Leistungsverhältnis der 14nm bei AMD auch im Highend möglich wäre. Allerdings bin ich sicher, dass Vega teurer wird.

Das glaub ich nicht AMD macht ernst sie brauchen eine größere userbase innerhalb ihres Ökosystems.

Schnoesel
2016-06-02, 11:19:42
Die 480 ist zwar nett aber guck mal was man Heute für 1080p/60 auffahren muss,die Fury X ist grad so in der Lage das bei Witcher 3 zu liefern.
Daher hoffe ich sie haben bald ne 300€ Lösung um Druck auf NV auszuüben,ich hab kein Bock 450€ für ne gute 1070 auszugeben.


http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/

Rofl zu geizig 450€ beim Lieblingsverein zu lassen und daher solls AMD richten. Kein Wunder dass wir bei der schrägen Marktaufteilung sind, solange AMD nur dazu gut ist die Preise der Konkurrenz zu senken. Scheint asl wäre die 1070 den Preis nicht wert was? ;D

Zergra
2016-06-02, 11:20:36
Also bei ca 250€ ist die RX480 gekauft.
Brauch eh mal was neues und alleine die Stromkosten machen viel aus :freak:

ndrs
2016-06-02, 11:22:14
Ich hatte mich wohl unverständlich ausgedrückt. Ich meinte damit eher, dass es keinen Sinn mehr macht für diesen Bereich neue GPUs zu entwickeln. Rebranden und fertig.
OK. Missverständnis. Ich stimme dir voll und ganz zu.
Warum?
Man würde es sich sparen eine 28nm GPU fertigen zu lassen, P11 ist viel effizienter, kann man also problemlos passiv kühlen, ein PCB fällt weg,...
Du meinst also, dass ein (persönliche Schätzung) >100mm^2-14nm-Chip günstiger ist als ein sowieso schon laufender 90mm^2-28nm-Chip? letzterer hat auch nur ein 64bit SI, wodurch das Board nochmals günstiger ist, als das von P11. Also da bin ich absolut nicht deiner Meinung.

-/\-CruNcher-/\-
2016-06-02, 11:23:18
*hust*

Du hast den Stream aber schon gesehen horn...oder? :freak:

@gogetta5
DP 1.4 soll per FW-Update (BIOS) nachgeliefert werden. Ist dann ja sowieso abwärtskompatibel ;)

EDIT: 20 sek zu spät xD

Fand schon witzig wie sie den A7 APU start damit quasi schon obsolete gemacht hat ;)

Glaube kaum das noch viele eine A7 APU anfassen mit Zen in APUs vor der Tür, allerdings werden sie sich natürlich etwas Zeit lassen bis zum Zen APU Release und versuchen das auch noch ein wenig zu strecken so lange das überhaupt möglich ist gegen Intel :D

dargo
2016-06-02, 11:34:39
Rofl zu geizig 450€ beim Lieblingsverein zu lassen und daher solls AMD richten. Kein Wunder dass wir bei der schrägen Marktaufteilung sind, solange AMD nur dazu gut ist die Preise der Konkurrenz zu senken. Scheint asl wäre die 1070 den Preis nicht wert was? ;D
Davon gibts leider genug im grünen Lager.

][immy
2016-06-02, 11:35:39
Also bei ca 250€ ist die RX480 gekauft.
Brauch eh mal was neues und alleine die Stromkosten machen viel aus :freak:
sehe ich aus so. endlich mal ein lohnenswertes update meiner aktuelle 7850er, die ich damals in dem gleichen Preis Segment geholt habe.
Scheint so als würde die rx480 (zumindest was die Anzahl der shader-einheiten) direkt die alten high-end karten überflügeln könnte. Das wäre für das 200€ segment schon eine gute Leistung.

der name wundert mich nur ein wenig. erinnert zu stark an etwas ältere Grafikkarten, wenn auch von der Konkurrenz.

BlacKi
2016-06-02, 11:36:50
ist das wieder ein hervorragendes beispiel für amd marketing?

2x 480 schneller ist als eine 1080 bei nur 51% auslastung der 480er karten.

soll das heißen das eine 480 gleich schnell ist wie eine 1080?

dargo
2016-06-02, 11:38:24
Wie oft denn noch? Da gehts um den Preis!

PS: dass die Effizienz bei 2x RX480 trotzdem noch besser als bei einer 1080 ist kann ich mir nur durch die relativ schlechte CF-Skalierung erklären (CPU-Limit oder nicht optimale CF-Skalierung), sprich... die zweite GPU langweilt sich ziemlich und dank der abschaltbaren CUs spart man da wohl recht viel bei Teillast ein.

Unicous
2016-06-02, 11:38:52
@BlacKi

Nein, aber immer wieder interessant, wie manche Leute Dinge aus dem Kontext nehmen und Geschichten erfinden um ihre eigene Narrative zu polstern.:rolleyes:

Gipsel
2016-06-02, 11:40:35
ist das wieder ein hervorragendes beispiel für amd marketing?

2x 480 schneller ist als eine 1080 bei nur 51% auslastung.

soll das heißen das eine 480 gleich schnell ist wie eine 1080?
Hatten wir schon. Warte einfach Tests ab, wie die Auslastungszahlen zustande kommen! Da würde ich jetzt nicht so viel drauf geben. Wer weiß, ob die mit dem fine grained power Management jetzt nicht insgesamt niedriger sind und es sehr schwierig ist, irgendwie in die Nähe von 100% zu kommen. Sprich, es könnte schlicht eine andere Berechnungsmethode für die Auslastung des Chips sein.
Und was erwartest Du überhaupt von Marketing-Leuten? Daß die repräsentative Benchmarks präsentieren, die nicht nur die (vermeintlichen) Vorteile herausstellen? :freak:

BlacKi
2016-06-02, 11:42:20
@BlacKi

Nein, aber immer wieder interessant, wie manche Leute Dinge aus dem Kontext nehmen und Geschichten erfinden um ihre eigene Narrative zu polstern.:rolleyes:
das war ein fragzeichen???

wieso aus dem kontext gerissen?

sind doch eindeutige werte.

Hatten wir schon. Warte einfach Tests ab, wie die Auslastungszahlen zustande kommen! Da würde ich jetzt nicht so viel drauf geben. Wer weiß, ob die mit dem fine grained power Management jetzt nicht insgesamt niedriger sind und es sehr schwierig ist, irgendwie in die Nähe von 100% zu kommen. Sprich, es könnte schlicht eine andere Berechnungsmethode für die Auslastung des Chips sein.
also fake werte. zumindest wenn man als normaler user draufschaut.

Botcruscher
2016-06-02, 11:50:47
sind doch eindeutige werte.

Das geht jetzt den ganzen Monat so weiter.:freak:

Cyphermaster
2016-06-02, 11:53:02
sehe ich aus so. endlich mal ein lohnenswertes update meiner aktuelle 7850er, die ich damals in dem gleichen Preis Segment geholt habe.
Scheint so als würde die rx480 (zumindest was die Anzahl der shader-einheiten) direkt die alten high-end karten überflügeln könnte. Das wäre für das 200€ segment schon eine gute Leistung.In dem Segment wäre den aktuellen Infos nach in Relation zu deiner HD 7850 sogar schon die RX4[I]70 massiv interessant. Etwa eine Verdoppelung der Performance (d.h. man landet auf Augenhöhe mit einer 390X oder ganz knapp hinter einer 980), und das für superschmale ~150 Euronen bei wohl noch unterhalb 120W Verbrauch.

Elkinator
2016-06-02, 11:53:10
OK. Missverständnis. Ich stimme dir voll und ganz zu.

Du meinst also, dass ein (persönliche Schätzung) >100mm^2-14nm-Chip günstiger ist als ein sowieso schon laufender 90mm^2-28nm-Chip? letzterer hat auch nur ein 64bit SI, wodurch das Board nochmals günstiger ist, als das von P11. Also da bin ich absolut nicht deiner Meinung.
Ja, weil sie nicht nebenbei die alte GPU weiter fertigen lassen müßen, sie die Produktion der ganzen Karte einstellen können, den Vertrieb einstellen können und sowieso eildefekte Polaris11 abfallen.


Glaube kaum das noch viele eine A7 APU anfassen mit Zen in APUs vor der Tür
Die Meisten haben von solchen Dingen eh keine Ahnung, die wissen nichts von einer Zen-APU.

Dino-Fossil
2016-06-02, 11:54:14
Das geht jetzt den ganzen Monat so weiter.:freak:

Mindestens... :freak:

Cyphermaster
2016-06-02, 11:54:33
das war ein fragzeichen???

wieso aus dem kontext gerissen?

sind doch eindeutige werte.Eindeutig ist "42" als Antwort auf die Frage nach dem Sinn des Lebens auch... :rolleyes:

Gipsel
2016-06-02, 11:58:14
also fake werte. zumindest wenn man als normaler user draufschaut.Marketing, nicht Fake. Die Zahlen werden sich schon irgendwie reproduzieren lassen, genau so wie andere Aussagen in der Preislage von "bis zu x so schnell wie y in Szenario z". Sowas sollte man eigentlich langsam kennen. ;)

-/\-CruNcher-/\-
2016-06-02, 12:00:22
Die Artikel von dem Typen sind immer so mit das beste: ;D
http://seekingalpha.com/article/3979206-amd-exposes-lack-competitiveness-computex

Die Typische art Spezies die uns alle gerne vor die Wand fährt was hab ich höllisch Angst vor denen auch wenn sie nur zu bemitleiden sind ;)

Hatten wir schon. Warte einfach Tests ab, wie die Auslastungszahlen zustande kommen! Da würde ich jetzt nicht so viel drauf geben. Wer weiß, ob die mit dem fine grained power Management jetzt nicht insgesamt niedriger sind und es sehr schwierig ist, irgendwie in die Nähe von 100% zu kommen. Sprich, es könnte schlicht eine andere Berechnungsmethode für die Auslastung des Chips sein.
Und was erwartest Du überhaupt von Marketing-Leuten? Daß die repräsentative Benchmarks präsentieren, die nicht nur die (vermeintlichen) Vorteile herausstellen? :freak:

Die Wahrheit und nichts als die Wahrheit so wahr ihnen Gott helfe ;)

Unicous
2016-06-02, 12:05:08
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/

BlacKi
2016-06-02, 12:11:00
Marketing, nicht Fake. Die Zahlen werden sich schon irgendwie reproduzieren lassen, genau so wie andere Aussagen in der Preislage von "bis zu x so schnell wie y in Szenario z". Sowas sollte man eigentlich langsam kennen. ;)
nicht wenn sie so eindeutig angegeben werden.

welche werte sollen deiner meinung nach etwas gedehnt worden sein? oder anders gefragt, wo habt ihr das diskutuiert, damit ich das nachlesen kann? mir ist den letzen 20 seiten nur eine seite aufgefallen wo es um qualitäts unterschiede ging, mehr nicht.
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/

Edit:
danke für den link. erklärt einiges.

-/\-CruNcher-/\-
2016-06-02, 12:12:29
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/

The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly

Game optimized Drivers we love them ;)

Das witzige ist viele Entwickler wissen das ganz genau was Nvidia teils macht halten aber alle die Klappe es bringt nix wenn Futuremark das Output result validiert aber die anderen alle schön die Klappe halten ;)

Ätznatron
2016-06-02, 12:19:33
Oh, ist da mal wieder nVidias BQ-Trickserei zwecks längerem Balken aufgeflogen?

Dino-Fossil
2016-06-02, 12:21:43
Ganz interessant der Thread:

Thanks for the post, may I ask one question though? When it's claimed that there is only 51% GPU utilization does that mean 51% of each GPU is being utilized or that the performance scaling is equivalent to 151% of a single card?

Scaling is 151% of a single card.

Kann das jemand etwas genauer erklären, wie der Benchmark dabei auf 51% kommt?
Der Wert scheint ja direkt dem Benchmark zu entstammen.

Unicous
2016-06-02, 12:23:30
@Ätznatron

Bleib mal auf dem Teppich. Nur weil die 1080 da laut AMD die Texturen nicht richtig darstellt, muss man das nicht zum großen Skandal hochjazzen. Dass Nivdia Probleme mit AotS hat, ist nicht erst seit heute bekannt.

Ätznatron
2016-06-02, 12:25:54
@Ätznatron

Bleib mal auf dem Teppich. Nur weil die 1080 da laut AMD die Texturen nicht richtig darstellt, muss man das nicht zum großen Skandal hochjazzen. Dass Nivdia Probleme mit AotS hat, ist nicht erst seit heute bekannt.

Ja, und offenbar hat nVidia ganz dolle an der Problemlösung gearbeitet: Man verringert einfach die Qualität.

Unicous
2016-06-02, 12:27:10
Oder es ist ein Bug. Oder es ist ein Fallback der Engine. Bleib mal geschmeidig.:rolleyes:

[MK2]Mythos
2016-06-02, 12:28:54
Ist jedenfalls interessant wie sich das Blatt wendet nach dem zuerst behauptet wurde, AMD ließ AotS absichtlich mit weniger Details laufen. :D

-/\-CruNcher-/\-
2016-06-02, 12:31:20
Ja, und offenbar hat nVidia ganz dolle an der Problemlösung gearbeitet: Man verringert einfach die Qualität.

Sieht doch keiner nun komm schon the Game Experience counts, tricksen doch alle wieso darf es Nvidia dann nicht selbst ein bischen optimieren ;)

Unicous
2016-06-02, 12:32:23
Mythos;11053863']Ist jedenfalls interessant wie sich das Blatt wendet nach dem zuerst behauptet wurde, AMD ließ AotS absichtlich mit weniger Details laufen. :D

Ich sage mal so, im Zweifel vertraue ich Robert Hallock mehr als Arcanoxer, dennoch ist er Repräsentant von AMD.

Dass die maps prozedural erstellt werden ist aber ein Fakt.

ndrs
2016-06-02, 12:32:47
Ja, weil sie nicht nebenbei die alte GPU weiter fertigen lassen müßen, sie die Produktion der ganzen Karte einstellen können, den Vertrieb einstellen können und sowieso eildefekte Polaris11 abfallen.
Dann schätzen wir beide wohl die Fixkosten für eine bestehende Fertigungslinie vollkommen unterschiedlich ein. Außerdem wäre das auch nicht das erste mal, siehe GF119 in der 600er Serie, Caicos (ursprünglich HD6450) in der R200-Serie.

iuno
2016-06-02, 12:38:06
Lustig ist auch Hallocks Antwort auf die Frage, warum es keine single GPU Messungen gab:
Sie wollen die Reviewer nicht um ihre Klicks bringen ;D

-/\-CruNcher-/\-
2016-06-02, 12:38:15
Ich sage mal so, im Zweifel vertraue ich Robert Hallock mehr als Arcanoxer, dennoch ist er Repräsentant von AMD.

Dass die maps prozedural erstellt werden ist aber ein Fakt.

Was ich wieder mal hammer finde das wir es von einem Marketing Freak erfahren und nicht von Dan Baker höchst persönlich, aber so läuft es immer.
Bin mal gespannt wie Nvidia jetzt reagiert und was Dan Baker zu Hallocks Veröffentlichung sagt wenn Hallock hier einen bekannten Bug als Cheaten darstellt wär er genauso ein Marketing Hampelman.

Das gute es bringt allen endlich die Realität vor Augen das der IHV immernoch das sagen hat auch unter DX 12 da hat sich absolut nichts geändert nur für externe wird alles immer weiter dicht gemacht, wieso bastelt man wohl an einer Solution wie Ansel ;)

horn 12
2016-06-02, 12:57:54
http://www.pcgamingshow.com/

[MK2]Mythos
2016-06-02, 13:00:54
http://www.pcgamingshow.com/
Und weiter?

Kartenlehrling
2016-06-02, 13:08:15
er hat wohl die 11 Days (Tage) nicht gesehen/gelesen :)

[MK2]Mythos
2016-06-02, 13:15:21
er hat wohl die 11 Days (Tage) nicht gesehen/gelesen :)
...Muss an der Schnappatmung liegen. :D

kruemelmonster
2016-06-02, 13:25:23
Eindeutig ist "42" als Antwort auf die Frage nach dem Sinn des Lebens auch... :rolleyes:

http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42 (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42)

SCNR ;D

Arcanoxer
2016-06-02, 13:35:51
Bleib mal auf dem Teppich. Nur weil die 1080 da laut AMD die Texturen nicht richtig darstellt, muss man das nicht zum großen Skandal hochjazzen. Dass Nivdia Probleme mit AotS hat, ist nicht erst seit heute bekannt.Laut AMD, hast du ein link dazu?
Wenn die davon wussten und es dennoch als Benchmark genutzt haben, setzt es den "Vergleich" natürlich die Krone auf.
Denn wurden mit Absicht Unwahrheiten publiziert.

iuno
2016-06-02, 13:42:54
Nachzulesen in dem hier schon geposteten Beitrag von Robert Hallock auf Reddit. Lies doch vielleicht mal die vorausgehenden Beitraege und nicht nur die letzte Antwort :rolleyes:

Neues Apple Display mit integrierter Polaris und XConnect fuer MacBooks?! :eek: :eek: ;D
http://www.computerbase.de/2016-06/apple-5k-thunderbolt-display-integrierte-grafikkarte/
Originalquelle: http://9to5mac.com/2016/06/01/apple-readying-new-external-5k-display-as-current-model-goes-out-of-stock-may-feature-integrated-gpu/

Macht aus meinen Augen fuer Apple absolut Sinn, die Intel iGPS machen die Aufloesung nicht einmal (wenn die Infos in der ARK (http://ark.intel.com/products/93340/Intel-Core-i7-6870HQ-Processor-8M-Cache-up-to-3_60-GHz) stimmen). Vielleicht schmeissen sie aber dafuer auch die AMD GPU aus dem grossen MacBook raus? :eek:

Complicated
2016-06-02, 13:43:14
Wenn AMD weiss dass Nvidia Probleme hat in einem Titel dürfen sie diese nicht benchen? Warum nicht? Und wie kommt man darauf, dass dadurch absichtlich Unwahrheiten publiziert werden? Ein Messergebniss ist per Definition als "wahr" einzustufen. Die Frage ist was man daraus interpretiert...das machen aber meist eben die Foren.

Arcanoxer
2016-06-02, 13:50:19
Wenn AMD weiss dass Nvidia Probleme hat in einem Titel dürfen sie diese nicht benchen? Warum nicht?
Natürlich dürfen die das, ist nur Null aussagekräftig.
Aber hey... ist ja nur ein Gaming Evolved Titel.
Würde das bei ein Gameworks Spiel vorkommen, würden hier einige schäumend vorm Rechner sitzen. ;)

Doppelmoral?

Menace
2016-06-02, 13:50:56
Denn wurden mit Absicht Unwahrheiten publiziert.

Ja, zugunsten von nivida?! Pöse AMD. Ein weiterer fail neben mantle.

Hakim
2016-06-02, 13:50:58
Neues Apple Display mit integrierter Polaris und XConnect fuer MacBooks?! :eek: :eek: ;D
http://www.computerbase.de/2016-06/apple-5k-thunderbolt-display-integrierte-grafikkarte/
Originalquelle: http://9to5mac.com/2016/06/01/apple-readying-new-external-5k-display-as-current-model-goes-out-of-stock-may-feature-integrated-gpu/

Sicher mit Polaris? Habs beim überfliegen auf beiden Seiten nicht gefunden.

Pretest
2016-06-02, 13:51:40
Interessanterweise wollte Hallock, eigener Aussage nach, garnichts unterstellen:
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sxpsg

I never said it was intentional. I simply stated the fact that the image quality is a bit fudgy, and it could improve perf by a few percent. There was no implication of malice.

iuno
2016-06-02, 13:52:31
Sicher mit Polaris? Habs beim überfliegen auf beiden Seiten nicht gefunden.
Nein, nicht sicher. Deshalb habe ich da auch ein Fragezeichen ;)
Ergibt aber aus meiner Sicht Sinn, eben weil bei Apple schon klar mit Polaris spekuliert wurde und wegen XConnect. Thunderbolt haben die MacBooks eh, das 12" ueber USB-C und dann koennten sie das Teil sogar auch noch darueber laden ;D Der Monitor hat dann erstmal ein 300 Watt Netzteil :ulol:

Unicous
2016-06-02, 13:53:04
Sicher mit Polaris? Habs beim überfliegen auf beiden Seiten nicht gefunden.

Sicher ist es nicht, aber sehr wahrscheinlich.

Menace
2016-06-02, 13:53:59
Neues Apple Display mit integrierter Polaris und XConnect fuer MacBooks?! :eek: :eek: ;D
http://www.computerbase.de/2016-06/apple-5k-thunderbolt-display-integrierte-grafikkarte/
Originalquelle: http://9to5mac.com/2016/06/01/apple-readying-new-external-5k-display-as-current-model-goes-out-of-stock-may-feature-integrated-gpu/

Habe ich den Hinweis auf die Polaris in deinen Quellen überlesen? Ich finde dazu nichts.

Edit: Ok, zu spät.

][immy
2016-06-02, 13:58:51
Btw, die 151% Skalierung durch die 2xRX480 kommt nicht durch die Nutzung von Crossfire zusammen

DX12 uses Explicit Multi-Adapter. The scaling depends on how mGPU is implemented into the engine, and future patches could boost scaling more for any vendor or any GPU combination that works. Besides that, migrating to full production-grade drivers would help. But as you can image, the drivers are still beta. I'm not promising earth-shattering improvements, here, but there are many variables in play that wouldn't be present with GPUs that have been released for 12+ months
....
DX12 explicit multi-adapter is not CrossFire. We do not control how mGPU functions in DX12 or Vulkan.


Also ist der Bench leider, was die Performance-Einschätzung einer Karte angeht erst mal nichts-sagend, da hier die Implementierung über das Spiel kam durch die Nutzung von DX12.

Elkinator
2016-06-02, 14:02:26
Sicher mit Polaris? Habs beim überfliegen auf beiden Seiten nicht gefunden.
Da Apple wieder auf AMD setzt sehr wahrscheinlich.
Für 5K reichen die meisten APUs von Intel halt nicht, da ist soetwas nötig.

Wenn man an den 5K iMac einen externen 4/5K-Monitor anstöpselt, ruckelt es sogar teilweise im Browser:O

deekey777
2016-06-02, 14:04:16
Es muss nicht Polaris sein, es wird der Hersteller sein, der Apple am tiefsten in den Hintern kriecht.

Im Ernst: Apple hat bis auf das letzte Quartal immer solide und steigende Mac-Verkäufe. Auf dem heutigen Markt ist Apple ein Garant, dass überhaupt was verkauft wird, denn der einzige wachsende Markt ist der der 2in1-Geräte und dort gibt es nur Intel. Apple nutzt mal den Hersteller, mal den. Ein Update für den MacPro ist längst überfällig, Intel hätte die passenden CPUs bereits, jetzt stellt sich nur die Frage, wer die Grafikkarten liefert.

Kartenlehrling
2016-06-02, 14:05:37
Call of Duty: Black Ops III

Ich hatte eigentlich immer CoD als Nvidia support Spiel auf dem Radar,
wieso ist das beim BlackOpsIII nicht so?

BlacKi
2016-06-02, 14:05:58
Wenn AMD weiss dass Nvidia Probleme hat in einem Titel dürfen sie diese nicht benchen? Warum nicht? Und wie kommt man darauf, dass dadurch absichtlich Unwahrheiten publiziert werden? Ein Messergebniss ist per Definition als "wahr" einzustufen. Die Frage ist was man daraus interpretiert...das machen aber meist eben die Foren.
komische ansichtsweise...

über den OC takt mit der niedrigen temperatur bei der 1080 nv präsentation wurde sich ausgelassen. bei amd dann ein szenario auszusuchen indem die konkurenz nicht richtig läuft(abweichend von realistischen szenarien) und dies nicht in der präsentation mitteilt( erst hinterher im internet), wow, das ist "marketing as its best".

demnächst bringt nv dann folien wo die 1080ti 2000% schneller ist als die 480 und sagt hinterher im internet tja, die 480 hat derzeit keinen funktionierenden treiber, oder so.

wow.

Unicous
2016-06-02, 14:12:02
Wer es übrigens von Dan Baker 'höchstpersönlich' erfahren will, der muss einfach mal seinem Twitter-Account einen Besuch abstatten.


Dan Baker ‏@dankbaker
Not a setting issue. Likely a driver bug on one of the cards. Don't know which.

But likely does not impact performace in any meaningful way.

https://twitter.com/dankbaker/status/738216301894742016

Elkinator
2016-06-02, 14:12:34
Es muss nicht Polaris sein, es wird der Hersteller sein, der Apple am tiefsten in den Hintern kriecht.
Wer sollte es denn sein?
NVIDIA scheidet wohl aus und da Apple eh schon auf GCN3/GCN4 setzt wäre es mit Mehrkosten verbunden für eine andere GPU extra wegen dem Monitor noch Treiber zu entwickeln und pflegen.

Eien Eigenentwicklung ist auch eher unwahrscheinlich, dafür sind die Stückzahlen zu gering!


komische ansichtsweise...
Er versteht einfach wie Marketing funktioniert.
NVIDIA kommt bei dem Test schlecht weg, daß bleibt bei den meisten Zusehern hängen.

NVIDIA/Intel würden es nicht anders machen!

Oder warum hat zb. PCGH die GTX 1080 am Anfang nur mit DX11 gtestet?
Vielleicht, weil Pascal bei DX12 einbricht udn teilweise eine Furx (non-X!) etwas schneller is?

Der erste Eindruck ist wichtig, weil der bei denmeisten Lesern hängen bleibt.
So funktioniert nunmal Marketing/Propaganda:O

Botcruscher
2016-06-02, 14:17:16
komische ansichtsweise...

Ach komm. Ich erinnere mal an den gekauften Test bei PCG, HWL und CO zum Supertreiber der 460GTX. Zwei Betatitel samt direkten Vorgaben waren da auch kein Problem. Die Sternstunde der Hardwarepresse.

Was ihr euch an der kack Folie so anhebt würde mich mal interessieren. Ein Apfel-Birnenvergleich ohne (damals) bekannter Einstellungen von vollkommen verschiedenen Karten. Das Ding ist reine Zeitverschwendung. Hier denkt doch keiner wirklich über CF nach. Multi GPU ist tot und war spätestens seit den Mikrorucklern eh nur noch Marketing.

Unicous
2016-06-02, 14:20:14
Nvidia scheidet alleine aus dem Grund aus, weil sie OpenCL stiefmütterlich behandeln und Intel weil sie ein 5K-Display nicht wirklich befeuern können. Apple kämpft ja jetzt schon mit Performance-Problemen, weil sie immer nur Mittelklasse-GPUs von AMD für ihre Retina und 5K-Produkte verwenden.

Arcanoxer
2016-06-02, 14:20:28
Wer es übrigens von Dan Baker 'höchstpersönlich' erfahren will, der muss einfach mal seinem Twitter-Account einen Besuch abstatten.

https://twitter.com/dankbaker/status/738216301894742016
Was Erfahren, dass er auch keine Antwort darauf hat?
Dir ist schon klar was "But likely does not" bedeutet? :freak:

Unicous
2016-06-02, 14:21:20
Nein, klär mich auf mit deinen native speaker Englisch-Kenntnissen.:eek:

BlacKi
2016-06-02, 14:23:19
Ach komm. Ich erinnere mal an den gekauften Test bei PCG, HWL und CO zum Supertreiber der 460GTX. Zwei Betatitel samt direkten Vorgaben waren da auch kein Problem. Die Sternstunde der Hardwarepresse.

Was ihr euch an der kack Folie so anhebt würde mich mal interessieren. Ein Apfel-Birnenvergleich ohne (damals) bekannter Einstellungen von vollkommen verschiedenen Karten. Das Ding ist reine Zeitverschwendung. Hier denkt doch keiner wirklich über CF nach. Multi GPU ist tot und war spätestens seit den Mikrorucklern eh nur noch Marketing.
nachdem ich nun endlich verstanden habe das die folie diesbezüglich nix aussagt, und meine meinung darüber kundgetan habe ist die folie für mich nun auch kein thema mehr.

Pretest
2016-06-02, 14:27:35
Multi GPU ist tot und war spätestens seit den Mikrorucklern eh nur noch Marketing.

Ich würde ja sagen, das Multi GPU die Zukunft sein könnte, dank DX12 und explicit multi adapter. Wenn da in Zukunft noch das Feature für linked gpus genutzt wird könnte das richtig spannend werden. Aber das wird uns die Zeit ja dann zeigen.

Birdman
2016-06-02, 14:28:27
Interessanterweise wollte Hallock, eigener Aussage nach, garnichts unterstellen:
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sxpsg
Tja, die Aussage "The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly" liest sich halt schon so, wie er (sicherlich) beabsichtigt hat dass sie gelesen wird.

Aktuell ist aber eher davon auszugehen dass der SahderBug auf der GTX10x0 performance kostet

-/\-CruNcher-/\-
2016-06-02, 14:29:30
Da Apple wieder auf AMD setzt sehr wahrscheinlich.
Für 5K reichen die meisten APUs von Intel halt nicht, da ist soetwas nötig.

Wenn man an den 5K iMac einen externen 4/5K-Monitor anstöpselt, ruckelt es sogar teilweise im Browser:O

Und das bei einem Apple OS Produkt böse, letztens noch mit einem Apple Freak gequatscht wie toll doch das Apple Ökosystem ist und ihm alles abnimmt und immer Optimal und so und dann zuckelt der Interne Safari Browser bei einem Gerät das sich 5K Schimpft wie geil ist das denn :D

Elkinator
2016-06-02, 14:33:09
Und das bei einem Apple OS Produkt böse :D
Deswegen soll Apple ja auch gerüchteweise bei den APUs von Intel auf AMD umsteigen wollen.

GPU-Leistung wird immer wichtiger, Apple ist schon bei 5K und bald kommt 8K, mit Intel geht das einfach nicht ohne dGPU.
Die dGPU im Macbook Pro müßen sie auch nur verbauen, weil die APU einfach zu schwach für das Display ist.

Pretest
2016-06-02, 14:34:50
Tja, die Aussage "The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly" liest sich halt schon so, wie er (sicherlich) beabsichtigt hat dass sie gelesen wird.

Aktuell ist aber eher davon auszugehen dass der SahderBug auf der GTX10x0 performance kostet

Gut, ein AMD Mitarbeiter der auf dem AMD subreddit kommentiert ist sicher nicht die Ausgeburt der Objektivität :D

Unicous
2016-06-02, 14:38:05
Aktuell ist aber eher davon auszugehen dass der SahderBug auf der GTX10x0 performance kostet

Quelle für diese Behauptung oder logische Argumentation: Fehlanzeige.:up:

-/\-CruNcher-/\-
2016-06-02, 14:38:55
Deswegen soll Apple ja auch gerüchteweise bei den APUs von Intel auf AMD umsteigen wollen.

GPU-Leistung wird immer wichtiger, Apple ist schon bei 5K und bald kommt 8K, mit Intel geht das einfach nicht ohne dGPU.
Die dGPU im Macbook Pro müßen sie auch nur verbauen, weil die APU einfach zu schwach für das Display ist.

Hast du ein Video davon parat wie die Apple Platform hier momentan versagt, das will ich in Motion sehen wie die FPS extern wegkracht beim Browsen :D

Vor allem müssen die ja gewusst haben das die Intel GPU das extern nicht mehr packt, hätten lieber den externen Anschluss weglassen sollen oder ein bischen kreativer sein und ein 1080p Signal auf 4K upscalen das schaft auch Intel und wär den Apple usern eh nie aufgefallen ;)

deekey777
2016-06-02, 14:48:26
Wer sollte es denn sein?
NVIDIA scheidet wohl aus und da Apple eh schon auf GCN3/GCN4 setzt wäre es mit Mehrkosten verbunden für eine andere GPU extra wegen dem Monitor noch Treiber zu entwickeln und pflegen.

Eien Eigenentwicklung ist auch eher unwahrscheinlich, dafür sind die Stückzahlen zu gering!




Es ist Apple, also ein Unternehmen mit riesigen Geldbergen. Daher brauchst du mit der Logik bei Apple nicht anzukommen, auch wenn ein Verbleib bei Apple logisch erscheint.

Apple bezog den vollausgebauten Tonga, wärend dieser erst als R9 380X mit einer langer Verzögerung auf den Markt kam. Und AMD wird für Apple ggf. was besonderes fertigen, um in den Macs zu bleiben. Zum Beispiel ein vollausgebauter Polaris-Chip mit 40 CUs. X-D

-/\-CruNcher-/\-
2016-06-02, 14:53:25
Polaris könnte für Apple wieder längere Laufzeit bedeuten so wie bei der 750 TI der wechsel zu AMD war in dem Bezug eh komisch (kürzere Laufzeit,minimal bessere min performance) aber Metal wollen sie wohl vollkommen auf GCN optimieren macht ja auch Sinn ;)

LadyWhirlwind
2016-06-02, 14:55:46
Es ist Apple, also ein Unternehmen mit riesigen Geldbergen. Daher brauchst du mit der Logik bei Apple nicht anzukommen, auch wenn ein Verbleib bei Apple logisch erscheint.

Apple bezog den vollausgebauten Tonga, wärend dieser erst als R9 380X mit einer langer Verzögerung auf den Markt kam. Und AMD wird für Apple ggf. was besonderes fertigen, um in den Macs zu bleiben. Zum Beispiel ein vollausgebauter Polaris-Chip mit 40 CUs. X-D

Oder halt gleich die ganze Architektur an Apple lizenzieren.

Birdman
2016-06-02, 14:57:56
Quelle für diese Behauptung oder logische Argumentation: Fehlanzeige.:up:
Hey, das war absolut naturgetreue 3dcenter Forenlogik, die MUSS stimmen :freak:

iuno
2016-06-02, 14:58:24
Vor allem müssen die ja gewusst haben das die Intel GPU das extern nicht mehr packt, hätten lieber den externen Anschluss weglassen sollen oder ein bischen kreativer sein und ein 1080p Signal auf 4K upscalen das schaft auch Intel und wär den Apple usern eh nie aufgefallen ;)
Er sprach vom 5k iMac, der hat Tonga XT. Laut ARK koennen Intels IGPs gar keine Aufloesung >4k ausgeben, also muesset da sowieso hochskaliert werden.

Deswegen soll Apple ja auch gerüchteweise bei den APUs von Intel auf AMD umsteigen wollen.

GPU-Leistung wird immer wichtiger, Apple ist schon bei 5K und bald kommt 8K, mit Intel geht das einfach nicht ohne dGPU.
Die dGPU im Macbook Pro müßen sie auch nur verbauen, weil die APU einfach zu schwach für das Display ist.
Ich bin ja auch der Meinung, dass eine starke APU (Zen, GCN, HBM) absolut sinnvoll fuer Apple waere. Das ist aber momentan noch reine Zukunftsmusik und dann gibt es da auch noch die nicht ganz unwichtige oekonomische Komponente ;p

kuj0n
2016-06-02, 15:01:42
Apple bezog den vollausgebauten Tonga, wärend dieser erst als R9 380X mit einer langer Verzögerung auf den Markt kam. Und AMD wird für Apple ggf. was besonderes fertigen, um in den Macs zu bleiben. Zum Beispiel ein vollausgebauter Polaris-Chip mit 40 CUs. X-D
Polaris 10 XT confirmed!!!111 :D :deal:

-/\-CruNcher-/\-
2016-06-02, 15:03:45
Er sprach vom 5k iMac, der hat Tonga XT. Laut ARK koennen Intels IGPs gar keine Aufloesung >4k ausgeben, also muesset da sowieso hochskaliert werden.


Ich bin ja auch der Meinung, dass eine starke APU (Zen, GCN, HBM) absolut sinnvoll fuer Apple waere. Das ist aber momentan noch reine Zukunftsmusik und dann gibt es da auch noch die nicht ganz unwichtige oekonomische Komponente ;p

Ökonomische Komponente bei Apple sorry die exestiert nicht das hab ich in meinem Gespräch gelernt diese "Jünger" würden selbst ihre Mutter verkaufen wenn sie eintritt vor dem Apple Store zahlen müssten zum Launch ;)

Elkinator
2016-06-02, 15:05:00
Hast du ein Video davon parat wie die Apple Platform hier momentan versagt, das will ich in Motion sehen wie die FPS extern wegkracht beim Browsen :D
Nein, ist Monate her und ich hab keine Ahnung mehr wo ich das gelesen hab.
War ein ziemlich umfangreicher Teste.

Soetwas merken die Meisten halt nicht, weil man an einen iMac selten einen zusätzlichen Monitopr betreibt.

Polaris könnte für Apple wieder längere Laufzeit bedeuten
Und Vega dann für den Mac Pro.
Daran verdient AMD zwar nicht viel, aber fürs Marketing ist der Rechner Gold wert!


Es ist Apple, also ein Unternehmen mit riesigen Geldbergen.
Und warum haben sie so viel Geld?
Sicher nicht, weil sie Geld sinnlos verheizen, da wird genau berechnet ob sich ein eigener Chip für den Monitor auszahlt!


Ich bin ja auch der Meinung, dass eine starke APU (Zen, GCN, HBM) absolut sinnvoll fuer Apple waere. Das ist aber momentan noch reine Zukunftsmusik und dann gibt es da auch noch die nicht ganz unwichtige oekonomische Komponente :tongue:
Irgendwann im Jahr 2017 rechne ich damit.
Jetzt wird man noch auf Kaby Lake Upgraden und danach könnte schon AMD zum Zug kommen.

iuno
2016-06-02, 15:05:25
Ökonomische Komponente bei Apple sorry die exestiert nicht das hab ich in meinem Gespräch gelernt diese "Jünger" würden selbst ihre Mutter verkaufen ;)
Es geht mir nicht um die Juenger, sondern darum, dass Apple die fettesten Margen faehrt ;)
Also muss so eine hypothetische APU erstmal guenstig herzustellen sein, dann koennen wir wieder darueber sprechen.

Und warum haben sie so viel Geld?
Sicher nicht, weil sie Geld sinnlos verheizen, da wird genau berechnet ob sich ein eigener Chip für den Monitor auszahlt!
Halte ich auch fuer groben Unfug. Einen custom Chip fuer ein Display wird es nicht geben, das rechnet sich doch kein Stueck. Ist ja nun auch nicht so dass Apple davon mal eben zig Millionen absetzt wie bei Smartphones. Man muss schon noch im Hinterkopf behalten, dass sie im PC Markt in einer Nische sind und diese Displays wird es noch weitaus seltener geben als MacBooks.

Elkinator
2016-06-02, 15:11:58
Ich rechne ja eh auch nicht mit einem Custom-Chip für den Monitor, weil es sich einfach nicht auszahlt.
Anders wäre es, wenn der Monitor die Verkaufszahlen der Macbooks hätte, aber das ist halt nicht so.

Botcruscher
2016-06-02, 15:15:46
Deswegen soll Apple ja auch gerüchteweise bei den APUs von Intel auf AMD umsteigen wollen.

Zeppelin wird ganz sicher von Apple schon extra verplant sein.

scully1234
2016-06-02, 15:25:18
Sieht nicht so aus als wuerde eine Karte fast nix berechnen um die 1080er zu ueberholen

http://videocardz.com/60860/amd-explains-image-quality-in-aots-radeon-rx-480-cf-vs-gtx-1080-demonstration


bleibt also lediglich die Aussage von Hallock bestehen was die Texturen betrifft...

Gipsel
2016-06-02, 15:38:31
bleibt also lediglich die Aussage von Hallock bestehen was die Texturen betrifft...Es sind nicht die Texturen, es ist der Terrain-Shader.

Schnoesel
2016-06-02, 15:41:36
Wieso hängt ihr euch eigentlich immer noch an dem nichtssagenden Screenshot auf. Das ist keine richtige Performanceaussage, da wollte man halt etwas stichel was offensichtlich geglückt ist aber sich jetzt Seitenlang darüber auszulassen ...

Gipsel
2016-06-02, 15:53:12
Wieso hängt ihr euch eigentlich immer noch an dem nichtssagenden Screenshot auf. Das ist keine richtige Performanceaussage, da wollte man halt etwas stichel was offensichtlich geglückt ist aber sich jetzt Seitenlang darüber auszulassen ...
Vor allem da unklar ist, was die Zahlen jetzt genau zu bedeuten haben. Ist es nur Zufall, daß die GPU-Last bei "single batch" (war das nicht sonst immer normal/medium/heavy? Daß ein einzelner Batch schlecht auf zwei GPUs aufgeteilt werden kann, so daß da nur ~50% Auslastung rauskommen, liegt ja irgendwie nahe) mit 51% genau dem angeblichen Performancezuwachs mit der zweiten GPU im Schnitt übereinstimmt oder ein Versehen/Mißverständnis seitens Hallock? Ansonsten könnte man ja einfach auf die Framerate einer einzelnen GPU zurückrechnen (62,7/1,51=41,5 fps), was er aber absolut vermeiden wollte.
Also ich vermute, der weiß schlicht gar nicht soo genau bescheid, so daß man seine Aussagen auch mit einer Prise Salz genießen sollte.

=> Ruhig Blut bewahren, bis es unabhängige Tests gibt.

Unicous
2016-06-02, 15:55:37
=> Ruhig Blut bewahren, bis es unabhängige Tests gibt.

Dieser fromme Wunsch wird hier leider keine Früchte tragen.:frown:

Pretest
2016-06-02, 16:20:19
Hallock hat noch mal ein Update zu einer seiner Antworten gepackt:
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sw31g
Scaling is 151% of a single card.
//EDIT: To clarify this, the scaling from 1->2 GPUs in the dual RX 480 test we assembled is 1.83x. The OP was looking only at the lowest draw call rates when asking about the 51%. The single batch GPU utilization is 51% (CPU-bound), medium is 71.9% utilization (less CPU-bound) and heavy batch utilization is 92.3% (not CPU-bound). All together for the entire test, there is 1.83X the performance of a single GPU in what users saw on YouTube. The mGPU subsystem of AOTS is very robust.

deekey777
2016-06-02, 16:37:53
Oder halt gleich die ganze Architektur an Apple lizenzieren.

Apple hat bereits die PowerVR-Lizenzen, die brauchen AMD nicht, wenn sie was eigenes auf die Beine stellen wollen.

Palpatin
2016-06-02, 16:38:37
Wenn man das Umrechnet wäre Single P10 bei ca 34 Frames. Die 1080 wäre ca 70% schneller. Wenn ich das dann wiederum auf das AOTS Bench von Computerbase umrechne und ins Verhälnis setze erreicht die 480 nicht die 390 Performance, was troz des geringen Preises ne kleine Enttäuschung wäre.

illidan
2016-06-02, 16:42:07
Wenn man das Umrechnet wäre Single P10 bei ca 34 Frames. Die 1080 wäre ca 70% schneller. Wenn ich das dann wiederum auf das AOTS Bench von Computerbase umrechne und ins Verhälnis setze erreicht die 480 nicht die 390 Performance, was troz des geringen Preises ne kleine Enttäuschung wäre.
Das wär wirklich ziemlich schlecht und leider auch eine Erklärung, warum man auf der Präsentation nur so verschwurbelte Werte vorsetzte (die NV-Werte für die 1080 waren ja gar nicht so verkehrt).

maximus_hertus
2016-06-02, 16:44:04
Jau, ist mir auch aufgefallen. Warten wir mal die Tests ab, in AotS konnten ja die 390er durchaus "glänzen". Von daher einfach mal die anderen Benches abwarten, ist ja nicht mehr lange ;)

Cyphermaster
2016-06-02, 16:50:21
http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42 (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42)

SCNR ;DN1ce one! X-D Danach zu suchen, wäre ich jetzt nicht drauf gekommen.
Ach komm. Ich erinnere mal an den gekauften Test bei PCG, HWL und CO zum Supertreiber der 460GTX. Zwei Betatitel samt direkten Vorgaben waren da auch kein Problem. Die Sternstunde der Hardwarepresse.

Was ihr euch an der kack Folie so anhebt würde mich mal interessieren. Ein Apfel-Birnenvergleich ohne (damals) bekannter Einstellungen von vollkommen verschiedenen Karten. Das Ding ist reine Zeitverschwendung.THIS. Insbesondere, da das auch nur ein einziges Beispiel von Vielen ist.
Das wär wirklich ziemlich schlecht und leider auch eine Erklärung, warum man auf der Präsentation nur so verschwurbelte Werte vorsetzte (die NV-Werte für die 1080 waren ja gar nicht so verkehrt).Schon klar, daß bei dem Hin- und Her-Gerechne Einflüsse wie von der CPU, der Szenerie, dem Treiber usw. von euch gar nicht berücksichtigt werden können, weil die nicht bekannt sind - die aber je nach Umstand alleine schon solche Wertedifferenzen erzeugen können, sogar wenn man gar nicht erst zu rechnen anfängt? ;)

Warten, sehen, dann nachdenken, und erst dann drüber posten.

Ätznatron
2016-06-02, 16:50:37
Wenn man das Umrechnet wäre Single P10 bei ca 34 Frames. Die 1080 wäre ca 70% schneller. Wenn ich das dann wiederum auf das AOTS Bench von Computerbase umrechne und ins Verhälnis setze erreicht die 480 nicht die 390 Performance, was troz des geringen Preises ne kleine Enttäuschung wäre.

Ist der hier schon bekannt:

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/6b9e8c43-df70-4cec-8ddb-b209c0316fa8?

Dino-Fossil
2016-06-02, 16:52:52
Naja, ich denke es war einfach nur ein kleines Preis-Leistungs-Spielchen, dass sie da gemacht haben:
Weniger als 500$ Investition in Polaris bringt mehr Leistung als eine 700$ Investition in die 1080.
So wie es Koduri ja auch Präsentiert hat. Sah halt beeindruckender aus, als irgendwelche Benches einer Einzelkarte auf Höhe einer 390 oder 970.
(Zumindest in AotS).

Edit: Was die Computerbase-Benches angeht, ich bin mir nicht sicher ob man die vergleichen kann, hinsichtlich Szene, Auflösung, Presets. Ist das alles identisch?
Denke, wir werden einfach die Reviews abwarten müssen...

Gipsel
2016-06-02, 17:05:47
Ist der hier schon bekannt:

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/6b9e8c43-df70-4cec-8ddb-b209c0316fa8?Was sollen uns zwei Ergebnisse mit verschiedenen Settings sagen?

illidan
2016-06-02, 17:08:00
Schon klar, daß bei dem Hin- und Her-Gerechne Einflüsse wie von der CPU, der Szenerie, dem Treiber usw. von euch gar nicht berücksichtigt werden können, weil die nicht bekannt sind - die aber je nach Umstand alleine schon solche Wertedifferenzen erzeugen können, sogar wenn man gar nicht erst zu rechnen anfängt? ;)

Warten, sehen, dann nachdenken, und erst dann drüber posten.
Hier wird halt spekuliert, passend zum Unterforum.
Auf Basis von Hallocks Posts gibt Palpatins Rechnung diese Schlussfolgerung schon her.

Bei CB hatte die 390X allerdings nur zu 40% mit einer weiteren GPU skaliert (4k, also kein CPU-Limit). Kann also sein, dass Hallock weiterhin totalen Müll erzählt.

iuno
2016-06-02, 17:20:31
Bei Igor waren zwei Fijis auch gerade mal 40% schneller als eine. OK, CPU Limit, aber dennoch...
Wuerde vorsichtig bleiben ;)

Der_Korken
2016-06-02, 17:33:20
36CUs mit 1266Mhz sind von der Rohleistung her gleichauf mit der 390X. Wenn die 480 also langsamer als eine 390X ist, würde das bedeuten, dass sich trotz weniger SPs die IPC bei Polaris verschlechtert hätte. Da die Architektur umfassend überarbeitet wurde, kann ich mir das nicht vorstellen. Da hätte AMD auch gleich ein paar alte Chips shrinken können.

][immy
2016-06-02, 17:38:26
36CUs mit 1266Mhz sind von der Rohleistung her gleichauf mit der 390X. Wenn die 480 also langsamer als eine 390X ist, würde das bedeuten, dass sich trotz weniger SPs die IPC bei Polaris verschlechtert hätte. Da die Architektur umfassend überarbeitet wurde, kann ich mir das nicht vorstellen. Da hätte AMD auch gleich ein paar alte Chips shrinken können.
wir schreiben hier von ein 200€ Karte, gegen eine alte high-end karte und haben keinen Schimmer wie der Rest der Karte aussieht (TMUs, ROPs, ...). Also würde ich nicht unbedingt von einer gesunkenen IPC schreiben. Die 390x war eine 400€+ Karte und nie in diesem Preissegment.
Btw, hier geht auch die Effizienz durch die zweite Karte flöten. Das lässt sich eifnach alles nicht rausrechnen, da es nicht mal was mit Crossfire zu tun hat.

maximus_hertus
2016-06-02, 17:43:56
36CUs mit 1266Mhz sind von der Rohleistung her gleichauf mit der 390X. Wenn die 480 also langsamer als eine 390X ist, würde das bedeuten, dass sich trotz weniger SPs die IPC bei Polaris verschlechtert hätte. Da die Architektur umfassend überarbeitet wurde, kann ich mir das nicht vorstellen. Da hätte AMD auch gleich ein paar alte Chips shrinken können.

Hawaii hat ein 512 Bit Interface, Polaris ein 256 Bit. Das ist schon nicht zu verachten und wird hier und da eine Rolle spielen.

dargo
2016-06-02, 17:48:28
Hawaii hat ein 512 Bit Interface, Polaris ein 256 Bit. Das ist schon nicht zu verachten und wird hier und da eine Rolle spielen.
Inwiefern? P10 hat schon mal eine um 60% höhere Taktrate beim Speicher als Hawaii. Zudem beherrscht Hawaii nicht mal die Kompression von Tonga.

StefanV
2016-06-02, 17:49:32
Es muss nicht Polaris sein, es wird der Hersteller sein, der Apple am tiefsten in den Hintern kriecht.
Genau und mit der nicht vorhandenen/völlig veraltetem OpenCL Unterstützung hat das ja mal überhaupt nix zu tun...

Raff
2016-06-02, 17:52:27
Inwiefern? P10 hat schon mal eine um 60% höhere Taktrate beim Speicher als Hawaii. Zudem beherrscht Hawaii nicht mal die Kompression von Tonga.

390 und 390X ackern mit 3.000 MHz (6 Gbps), die RX 480 hat somit nur 33 Prozent mehr Takt + Kompressionskniffe, die keineswegs immer, sondern sehr durchwachsen durchschlagen (bei Pascal ist's nicht anders).

MfG,
Raff

dargo
2016-06-02, 17:54:36
390 und 390X ackern mit 3.000 MHz (6 Gbps)...
Das ist nicht Hawaii sondern Grenada. ;)

Schnoesel
2016-06-02, 17:54:49
Wieso sollte der Speicher bei Polaris ein Problem sein wenn der Speicher bei der GTX 1070 offenbar auch keiner ist?! Hab die Zahlen nicht im Kopf aber ist er Durchsatz beider Karten so unterschiedlich?

Ätznatron
2016-06-02, 17:57:37
Was sollen uns zwei Ergebnisse mit verschiedenen Settings sagen?

Nimm den ersten Link. Hier war ja die Frage aufgetaucht, wie eine single 480 im Bench abschneiden würde.

Den zweiten kannst du canceln.

Dural
2016-06-02, 18:01:44
Wieso sollte der Speicher bei Polaris ein Problem sein wenn der Speicher bei der GTX 1070 offenbar auch keiner ist?! Hab die Zahlen nicht im Kopf aber ist er Durchsatz beider Karten so unterschiedlich?

AMD benötigt seit jahren für die gleiche Leistung mehr Bandbreite als NV ;) und beim GP104 ist die Bandbreite sehr wohl ein Thema.

Schnoesel
2016-06-02, 18:02:42
Polaris ist aber nicht in der Leistungsklasse von GP104

maximus_hertus
2016-06-02, 18:04:00
Wieso sollte der Speicher bei Polaris ein Problem sein wenn der Speicher bei der GTX 1070 offenbar auch keiner ist?! Hab die Zahlen nicht im Kopf aber ist er Durchsatz beider Karten so unterschiedlich?

Falscher Ansatz, du musst es im Vergleich zu Grenada sehen. Auch die 1070 könnte in dem ein oder anderen Fall durchaus einen ordentlichen Boost bei der Speicherbandbreite gebrauchen.

Auf der anderen Seite hat die GTX 980 auch "nur" 256 Bit mit 7 Gbps. Warten wir mal ab ;)

Rabiata
2016-06-02, 18:06:34
36CUs mit 1266Mhz sind von der Rohleistung her gleichauf mit der 390X. Wenn die 480 also langsamer als eine 390X ist, würde das bedeuten, dass sich trotz weniger SPs die IPC bei Polaris verschlechtert hätte. Da die Architektur umfassend überarbeitet wurde, kann ich mir das nicht vorstellen. Da hätte AMD auch gleich ein paar alte Chips shrinken können.
Die Bandbreite des Speicherinterfaces ist geringer als bei der 390. Nur 256 GB/s gegenüber 384 GB/s. Da wird schon eine Architekturverbesserung nötig, um das langsamere Interface auszugleichen. Aber dafür kommt Polaris 10 ja auch billiger :smile:.

dargo
2016-06-02, 18:06:35
AMD benötigt seit jahren für die gleiche Leistung mehr Bandbreite als NV ;)
Komisch nur, dass die R9 280X in neueren Games sich immer öfter mit der GTX780 anlegt. Und ganz zufälligerweise haben beide Karten die gleiche Bandbreite.

Beispiel:
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Und oh Wunder... eine 380X mit nur 189GB/s überholt die OC-GTX780 mit 288GB/s.

dildo4u
2016-06-02, 18:07:20
Bandbreite kann nicht verglichen werden da keiner weiß wie gut die Kompression bei Polaris arbeitet.

Elkinator
2016-06-02, 18:10:26
Mal ganz nebenbei, was ihr meint ist der Datendurchsatz.

Bandbreite ist in diesem Zusammenhang total falsch!

dildo4u
2016-06-02, 18:12:23
Hallock hat noch mal ein Update zu einer seiner Antworten gepackt:
https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sw31g
Jup wie gesagt über 80% Skalierung alles andere hätte als Crossfire Demo kein Sinn gemacht.

iuno
2016-06-02, 18:12:56
Bandbreite, Bandbreite.
Seht es ein wir haben jetzt eine Generation von Bandbreitenkrüppeln :P und da soll noch einer sagen, hbm sei keine Notwendigkeit.
Je nach Spiel hat die Bandbreite mal mehr mal weniger Einfluss. Wie genau das die 480 beeinträchtigt können erst Tests zeigen

Botcruscher
2016-06-02, 18:16:44
Für die Zielmärkte reicht die Bandbreite aus.

dargo
2016-06-02, 18:23:12
Jup wie gesagt über 80% Skalierung alles andere hätte als Crossfire Demo kein Sinn gemacht.
Wenn CF da zu 80% skaliert sollte eine einzige RX480 deutlich unter den angebenen 150W TDP liegen. Schließlich behauptet AMD auch, dass 2x RX480 effizienter sind als 1x GTX1080.

w0mbat
2016-06-02, 18:24:26
Je nach Spiel hat die Bandbreite mal mehr mal weniger Einfluss. Wie genau das die 480 beeinträchtigt können erst Tests zeigen

Wenn die RX 480 mit der gleichen Bandbreite wie die GTX 1070 kommt mach ich mir sa keine Sorgen. Um die GTX 1070 dann schon eher.

Dino-Fossil
2016-06-02, 18:26:35
Schließlich behauptet AMD auch, dass 2x RX480 effizienter sind als 1x GTX1080.

Kann mich nicht erinnern, dass es dabei um Energieeffizienz ging. Koduri hat doch nur von Kosten gesprochen, oder?

dargo
2016-06-02, 18:27:08
Kann mich nicht erinnern, dass es dabei um Energieeffizienz ging. Koduri hat doch nur von Kosten gesprochen, oder?
http://www.roadtovr.com/wp-content/uploads/2016/05/amd-rx-480-polaris-3.jpg

Dino-Fossil
2016-06-02, 18:29:31
Ah, die Folie hatte ich in der Tat nicht auf dem Schirm.
Ist natürlich dann eine Frage der effektiven Ausnutzung der GPU und wie gut dann z.B. per-CU power gating läuft.
Da könnte man eventuell insgesamt unter den 180-190W einer 1080 liegen.

Unicous
2016-06-02, 18:30:23
RX480@90W TDP confirmed :eek:


:ucrazy:

dargo
2016-06-02, 18:31:39
@Dino-Fossil
Bei 83% CF-Skalierung ist da nicht mehr viel mit CUs abschalten. Bei den 51% laut Folie schon eher. Ist alles noch etwas verwirrend.

@Unicous
Hirn einschalten... dann posten. Würde CF zu 100% skalieren könnte man mit groben 90W je Karte rechnen. Das ist aber hier nicht der Fall.

Dino-Fossil
2016-06-02, 18:35:03
Ja, aber es war ja auch eine Marketing-Veranstaltung. Da pickt man sich halt das beste raus.

Unicous
2016-06-02, 18:38:03
@Unicous
Hirn einschalten... dann posten. Würde CF zu 100% skalieren könnte man mit groben 90W je Karte rechnen. Das ist aber hier nicht der Fall.

Ist an, wie sieht es bei dir aus?

dargo
2016-06-02, 18:40:59
Ja, aber es war ja auch eine Marketing-Veranstaltung. Da pickt man sich halt das beste raus.
Tut das nicht jeder IHV? ;) Natürlich gehts hier speziell nur um den Benchmark in AotS.

dildo4u
2016-06-02, 18:47:45
@Dino-Fossil
Bei 83% CF-Skalierung ist da nicht mehr viel mit CUs abschalten. Bei den 51% laut Folie schon eher. Ist alles noch etwas verwirrend.

Die 51% sind von dem Abschnitt im Benchmark der am meisten CPU limitiert ist steht im Post von AMD.

The single batch GPU utilization is 51% (CPU-bound), medium is 71.9% utilization (less CPU-bound) and heavy batch utilization is 92.3% (not CPU-bound). All together for the entire test, there is 1.83X the performance of a single GPU in what users saw on YouTube. The mGPU subsystem of AOTS is very robust.

dargo
2016-06-02, 18:54:28
Die 51% sind von dem Abschnitt im Benchmark der am meisten CPU limitiert ist steht im Post von AMD.
Ok... dann sollte das ganze relativ einfach sein. Dank per CU Power Gating ist P10 CF effizienter als GP104 in dem speziellen Fall wo überwiegend nicht so viel GPU-Leistung gefordert wird. Schließlich gilt dieses CPU-Limit dann auch bei NV (die fps Endergebnisse liegen ja dicht beieinander). Marketing halt. Man hat sicherlich das gesamte Testsystem pro Zeitachse X vermessen.

Ailuros
2016-06-02, 18:59:56
Ich nehme hauseigene Messungen egal von welchem IHV stets nur als interessante Indizie an und warte stets auf unabhaengige Resultate ab. Gibt es irgendwelche Medikamente fuer meinen Fall, denn ich fuehle mich ziemlich einsam und krank..... :freak:

dildo4u
2016-06-02, 19:01:54
AMD hätte sich auf der Computex ein 10 Core von Intel klauen sollen,der 5830k hat nicht genug Dampf für das Crossfire.

Unicous
2016-06-02, 19:01:58
@Ailuros

Dann hast du mich angesteckt, dü dreckiger Schüft.:eek:

9Jw3uGFstbQ

basix
2016-06-02, 19:03:11
Scaling is 151% of a single card.

Hmm, wenn ich diese Angabe mit den neuesten Benches auf Computerbase verrechne und den AMD Vorteil in Ashes of the Singularity und DX12 berücksichtige (ebenfalls anhand CB Benches) komme ich auf GTX 980 +5% Performance im Gesamtschnitt bei 1440p. Das wäre in etwa R9 Nano Niveau.

Falls sich das bewahrheiten sollte, wäre das doch nicht schlecht ;)

dildo4u
2016-06-02, 19:04:47
Hmm, wenn ich diese Angabe mit den neuesten Benches auf Computerbase verrechne und den AMD Vorteil in Ashes of the Singularity und DX12 berücksichtige (ebenfalls anhand CB Benches) komme ich auf GTX 980 +5% Performance im Gesamtschnitt bei 1440p. Das wäre in etwa R9 Nano Niveau.

Falls sich das bewahrheiten sollte, wäre das doch nicht schlecht ;)
Das scaling ist bis zu 92% im GPU Limit,der Rest vom Bench ist CPU limitiert.

https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sw31g

Pretest
2016-06-02, 19:07:18
https://www.reddit.com/r/Amd/comments/4m7ekb/the_rx480_nda_lifts_on_june_29th_the_same_day_as/d3t8pg8

Cards will be shipped to reviewers and distributors on June 10th :)

Mit einer Prise Salz genießen

Ein ordentlicher Launch mit Reviews und Verfügbarkeit wäre ja mal schön.

basix
2016-06-02, 19:16:23
Das scaling ist bis zu 92% im GPU Limit,der Rest vom Bench ist CPU limitiert.

https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_aots_image_quality_controversy/d3sw31g

Ah ok. Bei 183% vs. 151% Skalierung bleiben noch 80% übrig, das wäre dann in etwa knapp über GTX 970.

Wäre somit ggü. Hawaii aber nicht einmal eine Verbesserung der IPC. Hat AMD nicht mal gesagt oder angedeutet, dass die Effizienz pro CU und Clock steigt?

Edit:
Nimmit man einen Vega, 4096 Cores und 1266 MHz kommt man ziemlich genau auf GTX 1080 Performance :freak:

dargo
2016-06-02, 19:23:49
Hat AMD nicht mal gesagt oder angedeutet, dass die Effizienz pro CU und Clock steigt?
Sogar um bis zu 65%.
http://cdn.videocardz.com/1/2016/06/AMD-Radeon-RX-480-2.jpg

Aber auch das wird wieder nur irgendein Worstcase sein. Ich vermute man bezieht sich hier immer auf "Teillast", Stichwort... per CU Power Gating. Sprich... wird die GPU extrem gefordert (zb. durch die sogenannten Power-Viren) liegt man weit unter diesem Wert.

Ravenhearth
2016-06-02, 19:25:25
Ihr beiden redet gerade von einer unterschiedlichen "Effizienz" ;)

basix
2016-06-02, 19:26:07
Sogar um bis zu 65%.
http://cdn.videocardz.com/1/2016/06/AMD-Radeon-RX-480-2.jpg

Aber auch das wird wieder nur irgendein Worstcase sein. Ich vermute man bezieht sich hier immer auf "Teillast", Stichwort... per CU Power Gating. Sprich... wird die GPU extrem gefordert (zb. durch die sogenannten Power-Viren) liegt man weit unter diesem Wert.

Du hast mich falsch verstanden ;) Nicht Energieeffizienz sondern IPC hatte ich im Sinn.

dargo
2016-06-02, 19:30:36
Für mich ist höhere IPC und mehr fps/Watt durch Architekturänderungen das selbe.

Mortalvision
2016-06-02, 19:31:41
Ich bin schon sehr gespannt auf die ersten Leaks und Reviews.

Sicher scheint mir: die Karte kann was. Aber kann sie genug, um die Masse der Gamer auf das Niveau zwischen 970 und 390(X) zu heben? AMD scheint sich eventuell zu sehr auf die Energieeffizienz versteift zu haben, und hat somit nicht das vielleicht maximal mögliche Taktspektrum (siehe 1080/1070) ausschöpfen können. Aber zumindest brauchen sich die AMD Ingenieure dafür mal wirklich nicht anhören, dass sie einen Bratofen im Spiele-PC installieren wollen (R9 390X!)

Die Ergebnisse zu dieser Karte lassen mMn nur bedingt Rückschlüsse auf Vega zu. Es kann sehr, sehr gut sein, dass Vega hinsichtlich der IPC besser dasteht, mit wesentlich breiterem Front- und Backend (Spekulation... aber schon alleine HBM2 ist ja ein Traum, ca. knapp doppelte Bandbreite zur 1080!)

Mortalvision
2016-06-02, 19:33:56
Für mich ist höhere IPC und mehr fps/Watt durch Architekturänderungen das selbe.

Jein, das war bisher eine allgemein anerkannte Regel. Nur kommen wir jetzt in Strukturbreiten, wo zwar immer noch die Gesetze der Physik gelten, aber deutlich andere Effekte zum Tragen kommen als bei mikroMeter Strukturbreite, so als Laie mal vermutet...

krissbay
2016-06-02, 19:35:10
Für mich ist höhere IPC und mehr fps/Watt durch Architekturänderungen das selbe.

für dich vielleicht aber in der Realität ist es nicht so.
Mit besserer Effizient kann man die GPU höher takten.das heißt nicht, dass die CU effizienter arbeiten.
Ich frage mich ob P10 die 1500-1600 Mhz errreichen kann. Damit könnte man theoretisch so schnell sein wie die 1070.

Der_Korken
2016-06-02, 19:35:54
Für mich ist höhere IPC und mehr fps/Watt durch Architekturänderungen das selbe.

Das sind aber ganz unterschiedliche Dinge. Ich würde IPC bei Grafikkarten mit fps/Rohleistung übersetzen. Die Energieeffizienz kann bei höherer IPC ebenfalls besser sein, muss aber nicht - z.B. wenn die IPC durch massiven Transistoraufwand erreicht wird, der in keinem Verhältnis zur Mehrleistung steht.

Rabiata
2016-06-02, 19:48:52
Für mich ist höhere IPC und mehr fps/Watt durch Architekturänderungen das selbe.

Das sind aber ganz unterschiedliche Dinge. Ich würde IPC bei Grafikkarten mit fps/Rohleistung übersetzen. Die Energieeffizienz kann bei höherer IPC ebenfalls besser sein, muss aber nicht - z.B. wenn die IPC durch massiven Transistoraufwand erreicht wird, der in keinem Verhältnis zur Mehrleistung steht.
Und für den Endverbraucher zählt letztlich nur fps/Watt und fps/Euro.

Wenn z. B. die IPC durch massiven Transistoraufwand erreicht wird, der in keinem Verhältnis zur Mehrleistung steht (treibt auch die Chipfläche hoch!), wäre es besser mehr CUs einzubauen und die "Verschwendung" an Rohleistung hinzunehmen. Diese ist letztlich nur eine theoretische Größe.

dargo
2016-06-02, 19:56:33
Ich frage mich ob P10 die 1500-1600 Mhz errreichen kann. Damit könnte man theoretisch so schnell sein wie die 1070.
Beziehst du dich hier auf die ~6,5TFLOPs der 1070? Nach meiner Rechnung braucht P10 dafür "nur" 1402Mhz. Und das gilt auch nur für den Fall, dass die 1070 die 1683Mhz Boost dauerhaft hält.

Elkinator
2016-06-02, 20:01:17
1,4Ghz sollten möglich sein, man wird den Takt jetzt gering halten, um die Yield zu erhöhen.

krissbay
2016-06-02, 20:03:46
Beziehst du dich hier auf die ~6,5TFLOPs der 1070? Nach meiner Rechnung braucht P10 dafür "nur" 1402Mhz. Und das gilt auch nur für den Fall, dass die 1070 die 1683Mhz Boost dauerhaft hält.

Ach ja stimmt. das entspricht nur einem 10% Overclocking, was locker machbar sein sollte. :biggrin:

Der_Korken
2016-06-02, 20:14:21
Und für den Endverbraucher zählt letztlich nur fps/Watt und fps/Euro.

Natürlich ist IPC für den Kunden egal. Das gleiche gilt aber auch für Taktraten, Recheneinheiten, Speichertechnologie, Bandbreite, etc.

Da hier aber v.a. über die Technik spekuliert wird, ist auch die IPC relevant. Wir wissen z.B. bereits relativ sicher wieviele Recheneinheiten und welche Taktraten P10 hat. Wenn wir jetzt noch wüssten wie gut die IPC im Vergleich zu den vorigen AMD-Karten ungefähr ist, könnte man schon akkurate Leistungsprognose abgeben. Ganz zu schweigen vom puren Interesse an der Technik selbst.

scully1234
2016-06-02, 20:17:49
Hmm, wenn ich diese Angabe mit den neuesten Benches auf Computerbase verrechne und den AMD Vorteil in Ashes of the Singularity und DX12 berücksichtige (ebenfalls anhand CB Benches) komme ich auf GTX 980 +5% Performance im Gesamtschnitt bei 1440p. Das wäre in etwa R9 Nano Niveau.

Falls sich das bewahrheiten sollte, wäre das doch nicht schlecht ;)


Abschließend verrät Hallock auch die Skalierung beim Einsatz der zwei Grafikkarten: Sie habe 183 Prozent betragen.Eine Radeon RX480 hat im Test damit 34,2 FPS erreicht – das entspricht 58 Prozent der Leistung der GeForce GTX 1080 (http://images.google.de/imgres?imgurl=http%3A%2F%2Fcdn.wccftech.com%2Fwp-content%2Fuploads%2F2016%2F05%2FGTX-1080-Ashes-Of-The-Singularity-DirectX-12-Async-Compute-Performance-4K-Extreme.jpg&imgrefurl=http%3A%2F%2Fwccftech.com%2Fnvidia-gtx-1080-async-compute-detailed%2F&h=316&w=630&tbnid=YALLCX6_v5drIM%3A&docid=hfJngEx8U2P8bM&ei=QndQV4fwAYX-aNewtGg&tbm=isch&iact=rc&uact=3&dur=1447&page=1&start=0&ndsp=39&ved=0ahUKEwiHme39-InNAhUFPxoKHVcYDQ0QMwgfKAEwAQ&bih=995&biw=1904)

dildo4u
2016-06-02, 20:20:55
Hat einer die 34fps mal gegen eine 390 verglichen?

Dural
2016-06-02, 20:21:19
Laut AMD erreicht eine rx480 34fps in Aots mit 2.560x1.440

http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/

Edit:
Laut cb ist das gerade mal 970 leistung !?!
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-2560-1440

scully1234
2016-06-02, 20:26:38
Edit:
Laut cb ist das gerade mal 970 leistung !?!
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-2560-1440

Und das Best Case mit Ashes

krissbay
2016-06-02, 20:28:03
Laut AMD erreicht eine rx480 34fps in Aots mit 2.560x1.440

http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/

Edit:
Laut cb ist das gerade mal 970 leistung !?!
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-2560-1440

Das ist schwachsinn. Es wurden schon mehrfach Benches der RX480 hier gepostet in AoS und die Karte schafft 40 FPS während die 1080 62 FPS schafft.
1440P Extreme Setting

Ravenhearth
2016-06-02, 20:28:06
Da kann was nicht stimmen. Bei AMD lief der Benchmark doch mit DX12, und damit schafft eine 390 etwa 43 fps.

Dino-Fossil
2016-06-02, 20:28:25
Edit:
Laut cb ist das gerade mal 970 leistung !?!
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-2560-1440

Gleiche Settings/gleicher Bench?
Hieß der in der AMD-Präsentation nicht "Crazy" und bei CB ist es "Extreme"?

dildo4u
2016-06-02, 20:31:45
CB bencht nicht mit Crazy Setting,aber der Werte sollte das Gehype mal im Keim ersticken nix mit Fury/980 Leistung.

dargo
2016-06-02, 20:32:25
Laut AMD erreicht eine rx480 34fps in Aots mit 2.560x1.440

http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/

Das beißt sich damit.
http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5

Disco_STFU
2016-06-02, 20:33:18
Es wäre echt cool wenn scully und dildo diesem Thread fernbleiben würden. Ihr vergiftet mit eurer Anti-AMD Haltung den ganzen Thread. Geht doch bitte in die entsprechenden Nvidia Threads und frönt euch dort ob eurer eigenen Geilheit.

Danke

MfG

dildo4u
2016-06-02, 20:34:15
Das beißt sich damit.
http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/8b748568-fc96-4e48-9fed-22666a7149f5
Nein das ist nur extreme nicht Crazy,die 40fps kann man mit den CB Benches@1440p Vergleichen.

Dural
2016-06-02, 20:36:03
Was kostet crazy gegenüber extreme?

Da kommt man auf ca. 980 / 390?

dargo
2016-06-02, 20:36:11
Nein das ist nur extreme nicht Crazy,die 40fps kann man mit den CB Benches@1440p Vergleichen.
CB bencht auch mit Extreme-Preset @1440p. :rolleyes:

scully1234
2016-06-02, 20:37:23
Es wäre echt cool wenn scully und dildo diesem Thread fernbleiben würden.

MfG

Tut mir ja echt leid das du nicht damit klar kommst was Hallock da vom Stapel gelassen hat zur Skallierung ohne CPU limit:P

dildo4u
2016-06-02, 20:38:18
Was kostet crazy gegenüber extreme?

Da kommt man auf ca. 980 / 390?

Hier schafft die 480 40fps glatt,entweder es gibt null Verbesserungen bei der Effizienz oder die Bandbreite/ Kompression limitiert.


http://abload.de/img/ahsefgldl7u.png

iuno
2016-06-02, 20:45:08
Wie soll das gehen? Eine 480 hat mehr Leistung als die 390, wenn die 1266mhz stimmen sogar so viel wie die 390x bei 1050mhz. Von daher müsste sie hier im Speicherlimit hängen... Oder es fehlt anderswo (rops, tmus?)

gedi
2016-06-02, 20:45:31
AC:off :confused:

Menace
2016-06-02, 20:49:37
Ach was bin ich froh, dass Scully, Dural und Dildo die Ehre von nvidia hier hochhalten. Hiermit nehme ich euch beim Wort: RX480 erreicht nicht die Leistung einer 970iger, bei gleichem Preis und Feature-Set. Wir sprechen uns dann wieder am 29. Juni. :rolleyes:

Sind die AMD-Fanboys in den nvidia-Threads auch so nervig?

krissbay
2016-06-02, 20:49:38
RX480 Crossfire 1440p Crazy : 51 FPS
http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/ac88258f-4541-408e-8234-f9e96febe303

GTX 1080 1440p Crazy : 50,9 FPS
http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/cfe81b3f-f8d8-4c98-9e03-41978350fa02

dildo4u
2016-06-02, 20:49:57
Wie soll das gehen? Eine 480 hat mehr Leistung als die 390 von daher müsste sie hier im Speicherlimit hängen... Oder es fehlt anderswo (rops, tmus?)
Naja eine 390 hat 5.1 Tflops für die 480 gibts nur die Angabe über 5 Tflops,die Karten können dicht beisammen sein.Sobald die Bandbreite eine Rolle spielt kann die 390 Vorteile haben,der Ashes Bench nutzt z.b MSAA das könnte schon den Ausschlag geben.

Dino-Fossil
2016-06-02, 20:51:16
Vergleichen kann man die Werte nur, wenn sie dem gleichen System entstammen, was aber nicht der Fall ist.
Was zeigt CB da eigentlich, ich nehme an den Mittelwert, der als Average (All Batches) angegeben ist?

Wissen wir, ins Besondere, wie sich die fps in den CPU-limitierten Teile des Benchmarks zwischen den Systemen unterscheiden? Das fließt schließlich direkt in die Berechnung ein.

herp_derp
2016-06-02, 20:51:33
Ach was bin ich froh, dass Scully, Dural und Dildo die Ehre von nvidia hier hochhalten. Hiermit nehme ich euch beim Wort: RX480 erreicht nicht die Leistung einer 970iger, bei gleichem Preis und Feature-Set. Wir sprechen uns dann wieder am 29. Juni. :rolleyes:

Sind die AMD-Fanboys in den nvidia-Threads auch so nervig?

So wird das die nächsten 3 Wochen weitergehen :usad:

dargo
2016-06-02, 20:56:05
Naja eine 390 hat 5.1 Tflops für die 480 gibts nur die Angabe über 5 Tflops,die Karten können dicht beisammen sein.

Die TFLOPs der RX480 sind doch schon längst bekannt... 5,83TFLOPs.


Sobald die Bandbreite eine Rolle spielt kann die 390 Vorteile haben,der Ashes Bench nutzt z.b MSAA das könnte schon den Ausschlag geben.
An der Bandbreite liegt es bestimmt nicht, siehe Default 970 vs. MSI Gaming 970.

maximus_hertus
2016-06-02, 20:58:14
;D;D;D

Ihr hängt euch an einen potentiellen Bench auf, zu geil. Es gibt einen einzigen(!) Wert eines 480 CF Systems, dann die Aussage, dass die CF-Effizienz bei 83% liegt. Das reicht für ein abschließendes Benchmark / fps-Einordnungsfazit?

Junge, Junge, da wartet man Jahre(!) auf eine neue Gen und dann kann man beim "RX 480 Adventskalender" nicht die 29te Tür abwarten :D

Immer geschmeidig bleiben, die RX 480 wird deutlich unterhalb der GTX 1070 raus kommen, soviel sollte sicher sein (Team Grün kann also die Mistgabeln zu Hause lassen, keine Gefahr durch den roten Teufel). Dazu wird die Karte wohl im Bereich bzw. etwas unterhalb von 150W verbrauchen. Alles andere können wir doch gelassen abwarten, es wird genug Karten für alle geben, sowohl Grüne, als auch Rote ;)

Menace
2016-06-02, 20:58:36
Im Vergleich zu Dir wird hier doch wenig kalkuliert, sondern von den meisten bisher skeptisch betrachtet. Ausdrücklich wird auf unabhängige Tests gewartet. Die Hyperventilation hier im Thread rührt meist von den genannten Personen. Wie gesagt: Wir vergleichen in 4 Wochen:
- Preis
- Verbrauch
- Lautstärke
- Echten Speicher
- Leistung (opencl, opengl, vulkan, dx11 und dx12)
- Zukunftsfähigkeit (sofern abschätzbar)

Und dann kann man auf Eure Aussagen zurückkommen. ;)

dildo4u
2016-06-02, 20:59:28
Die TFLOPs der RX480 sind doch schon längst bekannt... 5,83TFLOPs.

Die einzige offizielle Angabe ist über 5 Tflops,würden die Taktraten feststehen hätten sie ne konkrete Nummer.

http://abload.de/img/amd-rx-480-polaris-4-yhbvy.jpg

dargo
2016-06-02, 20:59:48
Mythos;11054586']Wenn man euch drei noch ein paar Stunden weiter fantasieren lässt, dann ist der RX480 nachher unter dem Level von R600 und verbraucht noch mehr Strom.
;D ;D ;D

Die einzige offizielle Angabe ist über 5 Tflops,würden die Taktraten feststehen hätten sie ne konkrete Nummer.

http://www.techpowerup.com/223043/amd-radeon-rx-480-clock-speeds-revealed-clocked-above-1-2-ghz

Egoim
2016-06-02, 21:01:37
die 1266MHz kann man doch inzwischen als recht fest ansehen... oder habe ich das falsch verstanden?

Pumpi74
2016-06-02, 21:03:25
GTX 970 Leistung ? Ich schätze aufrüstwillige Freesyncnutzer sind derzeit stark suizidgefährdet.