PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

Zergra
2016-05-14, 10:28:04
Doch es macht Sinn, so kann man die anderen Chip´s später ins Mobile Segment bringen. Denke mal die Produktion wird noch nicht gut genug sein. Möglicherweise ist auch einfach der Unterschi
ed zwischen P11 und P10 so groß, das man selbst mit einem Salvage Part dies nicht gut ausgleichen kann.

HOT
2016-05-14, 10:31:27
Der M490 wird bei der Preislage eh nur in Minimalmengen verkauft im Notebookbereich, von daher ist das Lieferbarkeitsproblem absurd. Nein, man wird Tonga einfach günstiger anbieten und die Polaris10 mehrheitlich im Desktop-Bereich anbieten. Man produziert halt Tonga und Bonaire bei TSMC parallel zu P11/10 bei GloFo, das ist der ganze Witz. Man wird die Produktion von Hawaii und Fiji bei TSMC stark herunterfahren und stattdessen Tonga und Bonaire einfach mehr poduzieren, da Hawaii und Fiji vorerst ja nur im Profisegment weiterlaufen.

Man könnte das so machen:
FuryII = Vega11 16GB HBM
R9 490(X) = Vega10 8GB HBM
R9 480(X) = P10 8GB GDDR5(X)
R9 470(X) = P11 4GB GDDR5
R9 460(X) = Bonaire 2GB GDDR5

tm0975
2016-05-14, 10:37:57
Der M490 wird bei der Preislage eh nur in Minimalmengen verkauft im Notebookbereich, von daher ist das Lieferbarkeitsproblem absurd. Nein, man wird Tonga einfach günstiger anbieten und die Polaris10 mehrheitlich im Desktop-Bereich anbieten. Man produziert halt Tonga und Bonaire bei TSMC parallel zu P11/10 bei GloFo, das ist der ganze Witz.

die m490 ist mit abstand das beste, was es im notebook zu kaufen geben wird. der sprung ist riesig und es wird gewiß viele geben, die endlich satte leistung bei akzeptablen kühlgeräuschen im notebook haben wollen. und stand heute läuft tonga gut für amd. daran wird sich, eine kleine preisreduktion vorausgesetzt, wahrscheinlich so viel nicht ändern. welche alternativen gibts denn für unter 200 € absehbar, außer p11 und dessen preisgestaltung kennen wir noch nicht?

HOT
2016-05-14, 10:44:55
die m490 ist mit abstand das beste, was es im notebook zu kaufen geben wird. der sprung ist riesig und es wird gewiß viele geben, die endlich satte leistung bei akzeptablen kühlgeräuschen im notebook haben wollen. und stand heute läuft tonga gut für amd. daran wird sich, eine kleine preisreduktion vorausgesetzt, wahrscheinlich so viel nicht ändern. welche alternativen gibts denn für unter 200 € absehbar, außer p11 und dessen preisgestaltung kennen wir noch nicht?
Die werden P10 aber nicht verschleudern, das kann man mit Tonga machen. Zudem hat man offenbar recht viele TongaXT auf Lager. Die müssen weg. Kein Wunder, im Desktop-Bereich lief TongaXT wohl echt schlecht.

dargo
2016-05-14, 10:45:54
"Zwischen passt"? Polaris 10 ist überall besser: Leistung, Effizienz und Wirtschaftlichkeit.
Wenn 14nm aktuell wirklich genau so teuer ist wie die doppelte Fläche @28nm dann bezweifle ich das mit der Wirtschaftlichkeit etwas.

Zergra
2016-05-14, 11:10:36
Die werden P10 aber nicht verschleudern, das kann man mit Tonga machen. Zudem hat man offenbar recht viele TongaXT auf Lager. Die müssen weg. Kein Wunder, im Desktop-Bereich lief TongaXT wohl echt schlecht.
Der Unterschied zwischen Tonga und der 280x/7970 war auch zu gering. Da kam man einfach mit einer alten gebrauchtet Karte fast besser weg.

fondness
2016-05-14, 11:58:16
Übrigens: würden die nur 2048 sps bei polaris 10 mit den relativ hohen Taktraten stimmen, würde das vega 10 deutlich aufwerten. Denn die 4096 sps dort sollten stehen und das wäre dann doppelt so viel wie bei polaris 10. Dann wäre auch die die size klar über 400 mm2 und es gibt vielleicht wirklich nur einen vega.

victore99
2016-05-14, 12:12:34
Übrigens: würden die nur 2048 sps bei polaris 10 mit den relativ hohen Taktraten stimmen, würde das vega 10 deutlich aufwerten. Denn die 4096 sps dort sollten stehen und das wäre dann doppelt so viel wie bei polaris 10. Dann wäre auch die die size klar über 400 mm2 und es gibt vielleicht wirklich nur einen vega.

Wir haben polaris doch schon mit 2304 SP "gesehen"?

Und wenn die Taktraten genug wären, um an NV annähernd ranzukommen, würde sich Vega mit GP102 bekämpfen. Dürfte knapp für NV ausgehen.
Und Polaris gewinnt gegen GP106, verliert aber sehr viel zu deutlich gegen GP104.
Damit überlässt man das Geschäft der GTX 70er und 80er komplett NV. Seeehr intelligent, sollten die das so machen.

Ich bin immernoch im Glauben, dass Polaris mit 2560SP antritt. Die Vegas dann mit HBM und 4096SP + 6144SP mit genauso breiten Interfaces.

AlphaNUSS
2016-05-14, 12:17:52
Ich hoffe mal ihr irrt euch. Wenn AMD im 350-500€ Segment nichts anzubieten hat, wird es bei mir wahrscheinlich eine grüne Karte. Hat sich die 390 trotz der 970 bei AMD nicht am besten verkauft? Ich kann mir nicht vorstellen, dass AMD in diesem Preisbereich nichts zu bieten haben wird.

Complicated
2016-05-14, 12:38:38
AMD zielt auf die größere Zielgruppe und will Marktanteile anstatt Margen um sein Software Ökosystem zu stärken. Zum einen bei VR und zum anderen müssen die Anteile hoch um bei den Spielentwicklern wieder mehr Berücksichtigung bei den Optimierungen zu erhalten. Da hat Nvidia zuletzt einfach zu viel Dominanz. Da auch zurecht mit einem Marktanteil von 20-80%. Da muss AMD zumindest mal Richtung 40-60 kommen. 2015 wurden 44 Mio. diskrete GPUs verkauft. 7,5 Mio über einem Preisbereich von $ 349,-. Der Markt unter dem Preispunkt $ 349,- war 36,5 Mio. Stück schwer. AMD fokusiert sich darauf dort Anteile zu gewinnen wo der geringste Widerstand von Konkurrenzprodukten zu erwarten ist und wo sie zugleich am meisten Boden wieder gut machen können so schnell es geht.
http://www.lowyat.net/wp-content/uploads/2016/02/AMD-tam-slide.jpg
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/RTG-Vergleich-Nvidia-VR-1193693/
Roy Taylor dazu:
"Ich glaube, Polaris ist eine große Sache, weil wir damit den TAM [im VR-Bereich] signifikant vergrößern können. Ich glaube nicht, dass Nvidia darum bemüht ist, den TAM zu vergrößern, weil alles, was wir zu Pascal gesehen haben, für den High-End-Markt gedacht ist. Ich weiß nicht, wie der Preis ausfallen wird, aber nehmen wir an, er wird bei 600 US-Dollar beginnen und bei 1.000 enden. Diese Preisspanne wird den TAM für VR nicht vergrößern. Wir sagen jetzt offiziell, dass Polaris den TAM vergrößern wird. Punkt." Es muss also die Leistung einer Radeon R9 290 respektive Geforce GTX 970 bei einem günstigeren Preispunkt erreicht werden, um der Zielsetzung gerecht zu werden.

MadPenguin
2016-05-14, 12:42:41
AMD wird mit P10 die Leistung einer 390(x) zum Preia einer 280(x) oder knapp höher anbieten meiner Meinung nach

Hübie
2016-05-14, 13:55:19
Klingt nach taktischer small-die-operation. Ob deren Einschätzungen vom Markt richtig sind und die so genug Anteile erhalten um R&D für Innovationen auszubauen muss man abwarten, weil man nach oben zwar den abnehmenden Grenzertrag hat, aber NVIDIA mit seinen mittleren Volumen wirklich fette Gewinne einfährt, welche zur Reinvestition verwendet werden.

Ravenhearth
2016-05-14, 15:09:14
Übrigens: würden die nur 2048 sps bei polaris 10 mit den relativ hohen Taktraten stimmen, würde das vega 10 deutlich aufwerten. Denn die 4096 sps dort sollten stehen und das wäre dann doppelt so viel wie bei polaris 10. Dann wäre auch die die size klar über 400 mm2 und es gibt vielleicht wirklich nur einen vega.

Vielleicht hat die Quelle für die Info auch die rebrandeten Bonaire und Tonga für Polaris gehalten und hat sich gedacht "um bei 2048 SPs auf die Rechenleistung von Hawaii zu kommen, braucht man halt 1,4 GHz". Denn dass die TPU-News zufälligerweise ebenfalls von 896 bzw. 2048 SPs spricht ist schon ein ziemlicher Zufall.

iuno
2016-05-14, 15:56:25
Das selbe dachte ich mir auch schon... vielleicht hat die "Quelle" einfach nur etwas frueher von den Rebranding Modellen Wind bekommen (32 und 14 CUs; Tonga und Bonaire). Wie gesagt ist die News eh komisch, 150 Watt wird man kaum ins Notebook stecken, gerade AMD die dahingehend im Verruf stehen. Auf die FLOPs Werte wuerde ich dann auch mal nichts geben.
Ich denke mal AMD wird jetzt einfach die Rebrandings listen, weil die ersten Notebook-Modelle mit "M400" wohl schon am ausrollen sind. War nicht sogar die Rede von April bei Lenovo oder so?

fondness
2016-05-14, 16:20:37
Es sieht nach dem Launch der M400 Serie tatsächlich so aus, als hätte da nur jemand die alten Chip fälschlicherweise für Polaris gehalten ja.

Blediator16
2016-05-14, 22:04:53
Hey guys,
I noticed the hype train full steam about this call on 5/18 but I need to put the brakes on this for now :(.
This is a high-level partner webinar, and there will be no specific technical details discussed.
I want to set expectations here, and while this may seem incredibly disappointing, you'll know more about Polaris soon (no ™).
Pls no shooterino the messenger. While tempted to downvote, please do the opposite to bring awareness.

https://www.reddit.com/r/Amd/comments/4jcf29/psa_the_call_on_518_at_9am_ct_about_polaris_is/

Daraus wird sicher auch noch eine News verwurstet.

Allerdings muss man sich dann fragen was zur Hölle dieser Tweet suggerieren soll...

https://twitter.com/AMD/status/731158531664171008

AMD ist einfach marketingtechnisch ein totaler Müllhaufen.

horn 12
2016-05-14, 22:23:49
http://videocardz.com/59947/amd-to-launch-polaris-10-at-computex

OBrian
2016-05-14, 23:04:18
es kann auch sein, daß diese 400er Serie genau sowas ist wie die 8000er Serie, nämlich ein reiner OEM-Wunsch mit ausschließlich Rebrands, technisch völlig uninteressant, aber als Marketingtrick, um Lagerbestände noch rauskloppen zu können.

Nachdem die Fiji-Karten ja nicht als "Radeon 395" oder "397,5" oder was weiß ich verkauft wurden, sondern einen eigenen Namen bekamen, der sie außerhalb einer Serie stellt, könnte das der Beginn einer anderen Strategie sein, womit man sich Rebrands erspart (PR-technisch ja immer eine Katastrophe), trotzdem aber alte Chips weiter im Handel lassen kann (was ja rein technisch eine Notwendigkeit geworden ist). Irgendein nichtssagender schmissiger Name ist doch zeitlos und nicht einzuordnen, also perfekt für's Marketing. Vielleicht nennen sie die neuen Karten einfach, um das Konzept mit Fury (Tiere aus 80er-Jahre-Fernsehserien) fortzusetzen, Skippy, Clarence, Flipper usw. ;)

Dino-Fossil
2016-05-14, 23:28:43
So kurz vor dem Launch der 400er Serie glaube ich nicht an eine reine OEM-Serie für mobile.
Eher denke ich, dass wir bisher einfach nur die Rebrands gesehen haben, die dann mit neuen Chips ausgepolstert werden.
Genug Platz für Polaris wäre ja:
M480(X) Polaris11
M490(X) Polaris10
oder auch zusätzliche Codenamen (wie mit Fury geschehen).

Pretest
2016-05-14, 23:54:21
https://www.reddit.com/r/Amd/comments/4jcf29/psa_the_call_on_518_at_9am_ct_about_polaris_is/

Daraus wird sicher auch noch eine News verwurstet.

Allerdings muss man sich dann fragen was zur Hölle dieser Tweet suggerieren soll...

https://twitter.com/AMD/status/731158531664171008

AMD ist einfach marketingtechnisch ein totaler Müllhaufen.

Ich fand es von Anfang an komisch, dass das auf dem AMD-Account und nicht dem von AMDRadeon veröffentlicht wurde. Und die Website selber sollte auch jedem schnell klar gemacht haben, dass es eben kein launch oder so werden würde. Aber gerade sind eh alle dabei sich gegenseitig wuschig zu machen.;D Wird Zeit das die Karten endlich kommen

MadPenguin
2016-05-15, 07:45:19
http://www.amdcomputex.com.tw/

Offizielle Computex Seite AMD. Ganz offizielle Einladung. Also nichts was es wert wäre, gephotoshoped zu werden. Bristol Ridge kommt sicherlich :) Polaris eher nicht. Wird sicherlich von den Partnern hinter verschlossenen Türen gezeigt und, wie es die Gerüchte sagen, auf einem eigenen Event nach der Computex.

Kriegsgeier
2016-05-15, 08:43:59
Betreibt eigentlich NVIDIA solch ein ausgeprägten Rebranding?

scully1234
2016-05-15, 08:55:07
Betreibt eigentlich NVIDIA solch ein ausgeprägten Rebranding?

Im OEM Markt schenken sie sich beide nix

MadPenguin
2016-05-15, 08:56:12
Betreibt eigentlich NVIDIA solch ein ausgeprägten Rebranding?

Rebranding? Wir wissen bei der Radeon 4XX Reihe noch nichts über Rebranding, bis auf das Mobile Segment. Sagen wir mal so: AMD hat sich das Rebranding beim großen Meister Nvidia abgeschaut, obwohl sie es in letzter Zeit auf die Spitze getrieben haben...(AMD)

MadPenguin
2016-05-15, 09:00:55
Sollte Polaris auf einem eigenen Event gezeigt werden, finde ich das wohl sehr gut überlegt: Ende Mai Presse-Event Polaris. Wenn AMD etwas dazugelernt hat, sollten sie der Presse einfach ein Sample mitgeben und 2 Wochen lang testen lassen. Computex mit Focus auf Bristol Ridge (2 Hasen stehlen sich nicht die Show). Polaris Event nach der Computex, Hardlaunch mit Reviews.

Hmm, ich sollte bei AMD arbeiten...in der Marketingabteilung...

scully1234
2016-05-15, 09:07:14
Sollte Polaris auf einem eigenen Event gezeigt werden, finde ich das wohl sehr gut überlegt: Ende Mai Presse-Event Polaris.
Hmm, ich sollte bei AMD arbeiten...in der Marketingabteilung...

Du findest es ''gut ueberlegt'' niemanden was zu sagen, waehrend sich Nvidia zu Tode teasert:eek:

Was soll das fuer ein Marketing sein, wenn man Marktanteile behalten und dazugewinnen muss?

tm0975
2016-05-15, 09:13:17
Betreibt eigentlich NVIDIA solch ein ausgeprägten Rebranding?
;D;D;D nvidia hats erfunden! und auch damit begonnen. amd war damit quasi in zugzwang.

MadPenguin
2016-05-15, 09:30:17
Du findest es ''gut ueberlegt'' niemanden was zu sagen, waehrend sich Nvidia zu Tode teasert:eek:

Was soll das fuer ein Marketing sein, wenn man Marktanteile behalten und dazugewinnen muss?

Solle Polaris 10 gut sein, war es die richtige Entscheidung. 1080 spielt keine Rolle, weil andere Leistungsklasse, 1070 ist noch nicht erhältlich (1080 auch nicht). Wieso sollte AMD sich exponieren? Man nimmt so der 1070 den Wind aus den Segeln (wenn P10 wirklich ähnliche Leistung bietet).

These2: AMD stellt nur Idioten in der Marketingabteilung an (meine Chancen hätten sich somit schlagartig verdoppelt)

ndrs
2016-05-15, 09:49:19
These2: AMD stellt nur Idioten in der Marketingabteilung an (meine Chancen hätten sich somit schlagartig verdoppelt)
Über diese Aussage würde ich nochmal gehörig nachdenken ;D

HOT
2016-05-15, 09:56:16
Mal ne Überlegung zur Größe:
Tonga hat mit GCN1.2 5 Mia Transistoren bei 32CUs
Fiji hat mit GCN1.2 9 Mia Transistoren bei 64CUs aber gleichem Frontend
Polaris setzt sicherlich noch ein paar Transistoren mehr drauf, mit 40CUs käme man auf ca. 5,8-6 Mia Transistoren würd ich schätzen (knapp unter Hawaii). Damit hätte Polaris 25Mio Transistoren pro mm², was an Sich ein sehr realistischer Wert ist mMn. GP104 hat 22,7 Mio / mm².

MadPenguin
2016-05-15, 09:58:21
Über diese Aussage würde ich nochmal gehörig nachdenken ;D

Ich glaube beide Varianten der Interpretation würden auf mich zutreffen :D

Mal ne Überlegung zur Größe:
Tonga hat mit GCN1.2 5 Mia Transistoren bei 32CUs
Fiji hat mit GCN1.2 9 Mia Transistoren bei 64CUs aber gleichem Frontend
Polaris setzt sicherlich noch ein paar Transistoren mehr drauf, mit 40CUs käme man auf ca. 5,8-6 Mia Transistoren würd ich schätzen (knapp unter Hawaii). Damit hätte Polaris 25Mio Transistoren pro mm², was an Sich ein sehr realistischer Wert ist mMn. GP104 hat 22,7 Mio / mm².

Ich glaube Hawaii wird man in Spielen hinter sich lassen. Die 390X auch, oder eben Gleichstand. Würden 25Mio Transistoren pro qmm auf eine ähnliche Taktbarkeit wie 104 hinweisen, weil die Dichte ähnlich ist?

fondness
2016-05-15, 10:10:55
Du findest es ''gut ueberlegt'' niemanden was zu sagen, waehrend sich Nvidia zu Tode teasert:eek:

Was soll das fuer ein Marketing sein, wenn man Marktanteile behalten und dazugewinnen muss?

Nvidia hat noch keine einzige Grafikkarte verkauft und wird bis weit hinein in den Juni höchstens homöopathische Dosen zu überhöhten Preisen liefern können. AMD wäre schon blöd jetzt ohne Not die Hosen runter zu lassen.

HOT
2016-05-15, 10:14:33
[...]

Ich glaube Hawaii wird man in Spielen hinter sich lassen. Die 390X auch, oder eben Gleichstand. Würden 25Mio Transistoren pro qmm auf eine ähnliche Taktbarkeit wie 104 hinweisen, weil die Dichte ähnlich ist?
Da spielt die Architektur auch ne Rolle und GP104 hat ja deutlich weniger Packdichte, aber man wird sicherlich 1,5GHz ebenfalls packen mMn. Aber 180W TDP wird man sehr sicher nicht brauchen, man hat ja deutlich weniger Transistoren als GP104.

Nvidia hat noch keine einzige Grafikkarte verkauft und wird bis weit hinein in den Juni höchstens homöopathische Dosen zu überhöhten Preisen liefern können. AMD wäre schon blöd jetzt ohne Not die Hosen runter zu lassen.

Ich würd das sogar genau andersherum sehen, mir kommt das eher so vor, als hätte NV in Panik einen Paperlaunch hingelegt und sich mächtig verbogen um die erste Presse abzubekommen.

fondness
2016-05-15, 10:23:22
Ich würd das sogar genau andersherum sehen, mir kommt das eher so vor, als hätte NV in Panik einen Paperlaunch hingelegt und sich mächtig verbogen um die erste Presse abzubekommen.

Soweit würde ich zwar nicht gehen, aber ich finde die Forderungen hier schon etwas abstrus. AMD war in der Vergangenheit häufig früher dran als Nvidia, hat Nvidia da jemals direkt die Hosen runter gelassen? Natürlich nicht. Aber es ist wohl opportun, AMD einfach aus Prinzip immer zu kritisieren.

Kriegsgeier
2016-05-15, 10:24:19
Ob es ein Papierlaunch war werden wir am 27sten sehen: werden die Karten zu kaufen sein - dann war das keine Panik sondern alles Kalkulation.

AMD soll unter Druck gesetzt werden und somit zu einem Papierlaunch gedrängt werden?

scully1234
2016-05-15, 10:28:44
Nvidia hat noch keine einzige Grafikkarte verkauft und wird bis weit hinein in den Juni höchstens homöopathische Dosen zu überhöhten Preisen liefern können. .

Das habe ich schon bei mehreren Launches gehoert , bestaetigt hatte es sich bisher nie

So wie die AIBs schon fleißig Custom Designs teasern, wuerde ich sogar eine breit gefächerte Produktpalette als sehr wahrscheinlich ansehen

fondness
2016-05-15, 10:29:24
Das habe ich schon bei mehreren Launches gehoert , bestaetigt hatte es sich bisher nie

Was genau?

Ob es ein Papierlaunch war werden wir am 27sten sehen: werden die Karten zu kaufen sein - dann war das keine Panik sondern alles Kalkulation.

AMD soll unter Druck gesetzt werden und somit zu einem Papierlaunch gedrängt werden?

Natürlich werden sie am 27. Karten liefern können, warum sollten sie es auch behaupten wenn sie es dann nicht können? Es wird halt die teure Founders Edition sein und die Stückzahlen sind bei einem zu erwartenden Preis von >700 EUR entsprechend gering.

scully1234
2016-05-15, 10:34:24
Was genau?
.

Die homöopathischen Dosen

uweskw
2016-05-15, 10:58:42
Nvidia hat noch keine einzige Grafikkarte verkauft und wird bis weit hinein in den Juni höchstens homöopathische Dosen zu überhöhten Preisen liefern können. AMD wäre schon blöd jetzt ohne Not die Hosen runter zu lassen.

Und im Hype-Train macht es sich die Mehrheit inzwischen im grünen Wagon bequem und feiert die zu erwartende, haushohe Überlegenheit in Taktbarkeit und Effizienz der neuen 10x0.:freak::freak::freak:
AMD sollte schon ein bisschen leaken, hier ein OC-Ergebnis, dort einen günstigen Verbrauchswert.... sofern sie sich nicht wirklich verstecken MÜSSEN.

greetz
US

Menace
2016-05-15, 11:15:41
AMD geht wohl nvidia bewusst aus dem Weg (man schaue doch nur hier und auf CB die Kommentare an), da Polaris in einer anderen Klasse landen wird. Da manchen Menschen das nie klar sein wird (oder der virale Marketingauftrag das Verständnis darüber verbietet) kann AMD mit seiner langsameren Karte nur verlieren. Also soll halt nvidia seine zum Halbleiter gewordene Gottheit launchen, damit die Anbetung einiger Seiten und Kunden erst einmal gepflegt werden können, bevor AMD dann ihre günstigeren Karten veröffentlicht.

Wobei ich Globalfoundries durchaus zutraue, dass sie mal wieder Mist gebaut haben.

@nvidia-scully: Geht es zumindest in den AMD-Threads ein bisschen weniger hysterisch? Man bekommt ja Angst um Deine Gesundheit. :smile:

Schnoesel
2016-05-15, 11:48:03
AMD hat doch verlauten lassen sich um Nvidia nicht mehr zu kümmern und ihr eigenes Ding duchzuziehen. Da Polaris P/L eine ganz andere Klasse ist müssen Sie ja schonmal gar nicht reagieren auf Pascal. Wozu auch? Diejenigen die Pascal in Erwägung ziehen denken bestimmt nicht über Polaris nacht.

Nakai
2016-05-15, 12:52:41
https://www.zauba.com/import-video-graphics-card-hs-code.html

Date HS Code Description Origin Country Port of Discharge Unit Quantity Value (INR) Per Unit (INR)
12-May-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO / GRAPHICS CARD) P/N. 102-C95401-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 8 217,566 27,196

C95?

Hübie
2016-05-15, 13:14:50
Ja C95. Steht doch da. :D

MadPenguin
2016-05-15, 13:20:02
Ja C95. Steht doch da. :D

Bedeutet für einen Laien?

Kriegsgeier
2016-05-15, 13:20:19
Und das heißt was?

MadPenguin
2016-05-15, 13:30:25
http://www.ithome.com/html/digi/225244.htm

AMD R9 470x
P11
1Ghz Chiptakt
4gb Ram 7Ghz
1280 StreamProzessors
128 bit

Kein Stromanschluß

Aus dem AnandtechForum kopiert. All rights reserved (for them)

Nakai
2016-05-15, 13:32:00
Ja C95. Steht doch da. :D

:rolleyes:

Ja, AMD versucht mit P10 und P11 anscheinend sehr viele verschiedene Boards auf den Markt zu schmeißen. Rebrands kann man relativ gut ausschließen. Man weiß nicht, ob es für OEM, Retail, Mobile, etc. ist. Man kann nichts abschätzen.


€:
http://www.ithome.com/html/digi/225244.htm

AMD R9 470x
P11
1Ghz Chiptakt
4gb Ram 7Ghz
1280 StreamProzessors
128 bit

Kein Stromanschluß

Aus dem AnandtechForum kopiert. All rights reserved (for them)


Sieht gut aus.

€2: Laut Link Leistung zwischen 380 und 380X? Erstmal abwarten...

fondness
2016-05-15, 13:36:38
60W TDP gibt die Quelle für P11 an. Eine doppelten P10 könnte man dann also grob auf 120W taxieren, wahrscheinlich etwas mehr, da der Chiptakt bei nicht nur 1Ghz liegen wird. Wenn jetzt die Leistung pro ALu wie angekündigt noch deutlich stiegt, wird die Karte in ihren Preis/TDP-Bereich lange Zeit konkurrenzlos sein.

y33H@
2016-05-15, 13:51:59
Interessiert sich ernsthaft jemand für Preis/TDP?

MadPenguin
2016-05-15, 13:59:25
470X mit Leistung einer 380(X) ohne Stromanschluss und DX12 Bonus = 1080p Traum.

[MK2]Mythos
2016-05-15, 14:09:08
Das würde einer Verdreifachung der Leistung/Watt entsprechen. Ich bezweifle dass die sich mit der 380x messen kann, alleine schon wegen des dünnen Speicherinterfaces.

Agent117
2016-05-15, 14:16:03
€2: Laut Link Leistung zwischen 380 und 380X? Erstmal abwarten...

Da wäre die IPC dann schon um 40% gestiegen das wäre sehr ordentlich.
Vlt unterschätzen wir aber alle auch den neuen Command Prozessor und die "L0" Instruction Buffer Neuerungen.

Nakai
2016-05-15, 14:16:55
Mythos;11033052']Das würde einer Verdreifachung der Leistung/Watt entsprechen. Ich bezweifle dass die sich mit der 380x messen kann, alleine schon wegen des dünnen Speicherinterfaces.

470X mit Leistung einer 380(X) ohne Stromanschluss und DX12 Bonus = 1080p Traum.

P11 wird eher für 1080p ausgelegt sein. Mit 112GB/s und deutlich besserer DCC, sowie mehr Cache, sollte man schon eine Bandbreitenausnutzung von Pitcairn erreichen (~170GB/s).

€:
Da wäre die IPC dann schon um 40% gestiegen das wäre sehr ordentlich.
Vlt unterschätzen wir aber alle auch den neuen Command Prozessor und die "L0" Instruction Buffer Neuerungen.

Jemand hat hier einen netten Kommentar gebracht, wie Polaris aussehen wird. Hat bloß niemand drauf gehört.

Ja, Polaris bringt IPC-Steigerungen mit. Das wurde auch schon stark spekuliert bzw. "geleakt".

€2: Ahja, falls die Story mit den Rebrands stimmt, wird P11 nicht zwischen R9 380 und 380X landen. Eher ~R9 380, aber nicht viel mehr, imo.

Agent117
2016-05-15, 16:12:09
Hier wurde einiges darüber gepostet, teilweise Posts denen vom technischen Inhalt keine Hardwareseite auch nur annähernd das Wasser reichen kann.
Das waren aber meistens Spekulationen. Offizielles gibt es ja wenig bisher.

Hoffentlich werden wir bald schlauer. Sieht aber nach dem Leak den du gepostet hast mit nur 1Ghz für P11 XT nicht danach aus, dass man sich mit der GTX 1070 anlegen können wird.
Wollte man auch wahrscheinlich garnicht, nur erwarten jetzt viele, nachdem Nvidia überraschend schnell GP104 präsentiert hat, einen von AMD nie geplanten Konkurenzkampf. Man hat vlt schlicht Angst, dass trotz des niedrigeren Preises sämtliche Reviews mit
"....kann AMD mit Polaris zurückschlagen...." beginngen und mit "....selbst die GTX 1070 wir nicht erreicht...." enden.
Jetzt wartet man bis sich 2-4 Wochen nach den Pascal Reviews alles etwas gelegt hat man sich leichter abgrenzen kann.

Käsetoast
2016-05-15, 16:19:08
AMD R9 470x
P11
1Ghz Chiptakt
4gb Ram 7Ghz
1280 StreamProzessors
128 bit

Kein Stromanschluß

[Leistung zwischen 380 und 380X]


Das fände ich auf den ersten Blick schon sehr bitter. Vom Stromverbrauch her prima, aber ansonsten? Eine 7870 hatte auch schon 1280 Prozessoren und eine 470X würde da ja wohl die direkte Nachfolge antreten. Da frühere Pitcairn Ableger auch immer an der 2GB Speichergrenze herumkrebsten dürften die 380 / 380X dann also auch an Leistungsvorsprung in einem direkten Vergleich verlieren, so dass wir eher von 15-20% Mehrleistung gegenüber einer 270X sprechen oder sagen wir's so: Man würde sich bei der Mehrleistung komplett auf IPC Verbesserungen und Speichermengenvorteile beschränken...

Wäre theoretisch an sich ja alles nicht so schlecht, aber wenn das wirklich die 470X werden soll, d.h. der Preis analog zu den alten Serien im > 200-250 € Preisbereich liegt, dann wäre das schon sehr unattraktiv. Aus Stromverbrauchssicht natürlich extrem nett, aber nach quasi 4,5 Jahren Stillstand in diesem Segment hatte ich schon auf ein wenig mehr Leistung gehofft und nicht nur tolle Vebrauchswerte. Die Karte dürfte es auch schwierig gegen die GTX 960 haben insofern als dass NVIDIA hier nun schon lange 380er Leistung mit 4GB Ram mit 128 Bit Speicherinterface und geringem Stromverbrauch anbietet (bzw. mit den hochgetakteten Modellen dürfte man dann auch zwischen 380 und 380X liegen und das eben zu Preisen unter 200 €). Wäre im Endeffekt ja nur ein Gegenmodell zur existierenden 960, die es aber eben schon seit anderthalb Jahren gibt. Solange Polaris da nicht doch noch mit 100-200 MHz zusätzlich kommt (Basistakt, den die Hersteller dann gerne nochmals hochdrehen können) sehe ich nicht wie mich da ein 14nm Polaris gegenüber der 28nm Maxwell begeistern will...

tm0975
2016-05-15, 16:23:01
Das fände ich auf den ersten Blick schon sehr bitter. Vom Stromverbrauch her prima, aber ansonsten? Eine 7870 hatte auch schon 1280 Prozessoren und eine 470X würde da ja wohl die direkte Nachfolge antreten. Da frühere Pitcairn Ableger auch immer an der 2GB Speichergrenze herumkrebsten dürften die 380 / 380X dann also auch an Leistungsvorsprung in einem direkten Vergleich verlieren, so dass wir eher von 15-20% Mehrleistung gegenüber einer 270X sprechen oder sagen wir's so: Man würde sich bei der Mehrleistung komplett auf IPC Verbesserungen und Speichermengenvorteile beschränken...

Wäre theoretisch an sich ja alles nicht so schlecht, aber wenn das wirklich die 470X werden soll, d.h. der Preis analog zu den alten Serien im > 200-250 € Preisbereich liegt, dann wäre das schon sehr unattraktiv. Aus Stromverbrauchssicht natürlich extrem nett, aber nach quasi 4,5 Jahren Stillstand in diesem Segment hatte ich schon auf ein wenig mehr Leistung gehofft und nicht nur tolle Vebrauchswerte. Die Karte dürfte es auch schwierig gegen die GTX 960 haben insofern als dass NVIDIA hier nun schon lange 380er Leistung mit 4GB Ram mit 128 Bit Speicherinterface und geringem Stromverbrauch anbietet (bzw. mit den hochgetakteten Modellen dürfte man dann auch zwischen 380 und 380X liegen und das eben zu Preisen unter 200 €). Wäre im Endeffekt ja nur ein Gegenmodell zur existierenden 960, die es aber eben schon seit anderthalb Jahren gibt. Solange Polaris da nicht doch noch mit 100-200 MHz zusätzlich kommt (Basistakt, den die Hersteller dann gerne nochmals hochdrehen können) sehe ich nicht wie mich da ein 14nm Polaris gegenüber der 28nm Maxwell begeistern will...

Eine 960 hat es schon gegen eine 380 schwer. Diese kleine nette 470 mit ca 50 watt verbrauch wäre für die meisten full hd pcs ideal.

Achill
2016-05-15, 16:24:50
Der P11 ist der kleinere Polaris Chip, also nix Vergleich mit 1070.

Auch wenn die Performance bei einer 380 liegt, der nicht benötigte extra Stromanschluss sollte OEM Herstellern gefallen, besonders in Märkten wo man auf jeden Euro/Dollar/Yuan schaut und Gewinn über Masse gemacht wird - weil dann auch das NT auch kleiner sein kann...

Ich glaube AMDs prim. Ziel mit dem P11 ist nicht der Gamer-Markt - zumindest der westliche - sonder der asiatische Lower Budget Markt. Ich bin der Meinung gelesen zu haben, dass die APUs von AMD im China und generell im asiatischen Raum recht gut ankamen.

Ein günstiger P11 und eine kleine AMD (Carrizo/Zen) CPU kann ausreichen wenn man nur genügend Marktdurchdringung hat sodass Spiele dafür optimiert werden.

MadPenguin
2016-05-15, 16:27:26
Das fände ich auf den ersten Blick schon sehr bitter. Vom Stromverbrauch her prima, aber ansonsten? Eine 7870 hatte auch schon 1280 Prozessoren und eine 470X würde da ja wohl die direkte Nachfolge antreten. Da frühere Pitcairn Ableger auch immer an der 2GB Speichergrenze herumkrebsten dürften die 380 / 380X dann also auch an Leistungsvorsprung in einem direkten Vergleich verlieren, so dass wir eher von 15-20% Mehrleistung gegenüber einer 270X sprechen oder sagen wir's so: Man würde sich bei der Mehrleistung komplett auf IPC Verbesserungen und Speichermengenvorteile beschränken...

Wäre theoretisch an sich ja alles nicht so schlecht, aber wenn das wirklich die 470X werden soll, d.h. der Preis analog zu den alten Serien im > 200-250 € Preisbereich liegt, dann wäre das schon sehr unattraktiv. Aus Stromverbrauchssicht natürlich extrem nett, aber nach quasi 4,5 Jahren Stillstand in diesem Segment hatte ich schon auf ein wenig mehr Leistung gehofft und nicht nur tolle Vebrauchswerte. Die Karte dürfte es auch schwierig gegen die GTX 960 haben insofern als dass NVIDIA hier nun schon lange 380er Leistung mit 4GB Ram mit 128 Bit Speicherinterface und geringem Stromverbrauch anbietet (bzw. mit den hochgetakteten Modellen dürfte man dann auch zwischen 380 und 380X liegen und das eben zu Preisen unter 200 €). Wäre im Endeffekt ja nur ein Gegenmodell zur existierenden 960, die es aber eben schon seit anderthalb Jahren gibt. Solange Polaris da nicht doch noch mit 100-200 MHz zusätzlich kommt (Basistakt, den die Hersteller dann gerne nochmals hochdrehen können) sehe ich nicht wie mich da ein 14nm Polaris gegenüber der 28nm Maxwell begeistern will...

Ich bin noch relativ entspannt.

P11 -> 470X -> Gegner 960 und sparsamer, geringerer Preis
P10 Salvage -> 480 -> Gegner 970 und sparsamer, geringerer Preis
P10 -> 480X -> Gegner 1070

Einfach abwarten.

Käsetoast
2016-05-15, 16:34:50
Eine 960 hat es schon gegen eine 380 schwer. Diese kleine nette 470 mit ca 50 watt verbrauch wäre für die meisten full hd pcs ideal.
Also mein Stand ist der, dass die 380 und 960 (4GB) sich ein ziemliches Kopf an Kopf Rennen liefern. Die merkbar übertakteten Varianten der diversen Anbieter sollten dann 5-10% vor der 380 liegen. Laut dem Gerücht ist das ja auch nicht die kleine nette 470, sondern die kleine nette 470X und da würde man eben mit Preisen > 250 € rechnen was die Nomenklatur angeht. Zumindest habe ich es da im Kopf, dass zur Zeit wo ich meine 7850 gekauft habe die so bei 220 € lag, während der Vollausbau 7870 so um die 270 € gekostet hat. Selbst wenn wir mal gnädig sind und der P11 250 € als Anfangs-UVP zugestehen, so sehe ich nicht wie man außer beim Stromverbauchs-Argument da gegenüber der 50+ € günstigeren 960 einen Stich landen will. Für 14 vs 28 nm und anderthalb Jahre später dran sein fände ich das wie gesagt sehr schwach...

P11 -> 470X -> Gegner 960 und sparsamer, geringerer Preis
Wie gesagt - wieso siehst du da den geringeren Preis? Rein von der Bezeichnung her ist die 470er Reihe doch was für den 200 - 300 € Bereich, die 480er im 300-400 € Bereich und die 490er im 400-500 € Bereich...

MadPenguin
2016-05-15, 16:37:00
Also mein Stand ist der, dass die 380 und 960 (4GB) sich ein ziemliches Kopf an Kopf Rennen liefern. Die merkbar übertakteten Varianten der diversen Anbieter sollten dann 5-10% vor der 380 liegen. Laut dem Gerücht ist das ja auch nicht die kleine nette 470, sondern die kleine nette 470X und da würde man eben mit Preisen > 250 € rechnen was die Nomenklatur angeht. Zumindest habe ich es da im Kopf, dass zur Zeit wo ich meine 7850 gekauft habe die so bei 220 € lag, während der Vollausbau 7870 so um die 270 € gekostet hat. Selbst wenn wir mal gnädig sind und der P11 250 € als Anfangs-UVP zugestehen, so sehe ich nicht wie man außer beim Stromverbauchs-Argument da gegenüber der 50+ € günstigeren 960 einen Stich landen will. Für 14 vs 28 nm und anderthalb Jahre später dran sein fände ich das wie gesagt sehr schwach...

P11 wird um die 150-200 Euro kosten. Top die Wette gilt...
Kann das sein, dass du P11 (kleiner) mit P10 (performanter) verwechselst?

Edit: habe dein edit erst jetzt gesehen. Ich glaube wir sehen die Preise alle eine Stufe tiefer gehen

fondness
2016-05-15, 16:39:30
Da man weder die IPC noch sonst wirklich was genaues über die Polaris-Architektur weiß, sind jegliche Werte ohnehin kaum einzuschätzen. Hier muss man abwarten.

Der_Korken
2016-05-15, 16:44:07
Namen sind doch Schall und Rauch. Zwischen der 470 und 480 liegt nach bisherigen Spekulationen ein Unterschied von Faktor 2 was die SPs angeht. Die 7900 hatte aber nur 60% mehr als die 7800 und durch schlechtere Skalierung und weniger Takt war erstere in der Praxis bestenfalls 30-50% schneller. Die 470 legt gegenüber der 370 kaum zu, dafür sollte es die 480 im Vergleich zur 380 deutlich besser machen. Vom Abstand her wäre es vermutlich besser gewesen, die Karten als 460 und 480 zu platzieren, aber vielleicht hat AMD nicht vor einen weiteren Chip dazwischen zu setzen und nimmt daher die höhere Bezeichnung. Außerdem ist gar nicht gesagt, dass die 470 so teuer wie die 7800 werden soll. Letztere war ein 210mm²-Chip mit 256Bit SI, während P11 auf ~140mm² und 128bit SI geschätzt wird. Wenn die genannten Werte stimmen und sich auf P10 übertragen lassen, sieht es ganz OK für AMD aus.

Zergra
2016-05-15, 16:44:46
Wie gesagt - wieso siehst du da den geringeren Preis? Rein von der Bezeichnung her ist die 470er Reihe doch was für den 200 - 300 € Bereich, die 480er im 300-400 € Bereich und die 490er im 400-500 € Bereich...
oO Ich würde bei jedem Preis 100€ abziehen, dann kommst du eher an die neuen Preise

Käsetoast
2016-05-15, 16:48:44
P11 wird um die 150-200 Euro kosten. Top die Wette gilt...
Kann das sein, dass du P11 (kleiner) mit P10 (performanter) verwechselst?

Edit: habe dein edit erst jetzt gesehen. Ich glaube wir sehen die Preise alle eine Stufe tiefer gehen
Ich gehe halt komplett nach der Serienbezeichnung und beziehe das analog zu der Einführung von Pitcairn. Dort war eben auch der 28nm Prozess neu - jetzt wird der 14nm Prozess neu sein. Da sind die Yields halt noch nicht so gut, weswegen wir da nicht die Preisniveaus wie zu Zeiten der 300er Serie sehen werden, wo die 28nm Produktion schon jahrelang durchoptimiert wurde. Deswegen gehe ich rein von der Bezeichnung von 200-300 € für die 470er Reihe aus. Da darf man mich natürlich gerne positiv überraschen, aber deiner Annahme folgend die 480X dann eher im Preisbereich von 250-300 € ? Bei einem neuen Produktionsprozess? Ich weiß nicht - das würde mich schon überraschen...

Wie gesagt alles so gesehen nichts schlechtes am P11 selber, aber die Klassierung als 470X fand ich dann schon komisch - hätte ich eher als 460X gesehen eben aus den besagten Überlegungen der Preispolitik der letzten Jahre...

Nakai
2016-05-15, 16:49:31
Hier wurde einiges darüber gepostet, teilweise Posts denen vom technischen Inhalt keine Hardwareseite auch nur annähernd das Wasser reichen kann.
Das waren aber meistens Spekulationen. Offizielles gibt es ja wenig bisher.

Hoffentlich werden wir bald schlauer. Sieht aber nach dem Leak den du gepostet hast mit nur 1Ghz für P11 XT nicht danach aus, dass man sich mit der GTX 1070 anlegen können wird.
Wollte man auch wahrscheinlich garnicht, nur erwarten jetzt viele, nachdem Nvidia überraschend schnell GP104 präsentiert hat, einen von AMD nie geplanten Konkurenzkampf. Man hat vlt schlicht Angst, dass trotz des niedrigeren Preises sämtliche Reviews mit
"....kann AMD mit Polaris zurückschlagen...." beginngen und mit "....selbst die GTX 1070 wir nicht erreicht...." enden.
Jetzt wartet man bis sich 2-4 Wochen nach den Pascal Reviews alles etwas gelegt hat man sich leichter abgrenzen kann.

Wie gesagt, ich würde da erstmal nüchtern an die Sache herangehen. Die Verbesserungen die AMD mit Polaris bringt, sind sehr "nett".

Der Primitive Discard Accelerator kann extrem viel bringen. Das wird daraus ersichtlich, dass nun Game Engines (Frostbite) Culling Algorithmen per Compute Shader integrieren. Spricht, es ist effektiver einen Culling Algorithmus in Software zu fahren, als eben nicht zu cullen. NV scheint da schon einen Schritt weiter zu sein. Im Grunde, wird dadurch erreicht, dass Dreiecke früh aus der Pipeline geschmissen werden und nichtmal den Rasterisierer erreichen (hoffentlich). Ergo muss die GPU sich nicht mit Sachen beschäftigen die eh nix bringen. ;)

Instruction Prefetch wird auch sehr wichtig werden, zumal schon erwähnt wurde, dass AMD mit kleineren Kernels einen deutlich höheren Durchsatz erreicht. Manche Kernels/Calls bestehen nur aus wenigen Wavefronts. GCN scheint hier Probleme zu haben, was daraus ersichtlich wird, dass bei steigender Auflösung, wodurch die Größe der Kernels/Calls mitskaliert (und dadurch mehr Wavefronts benötigen), die Performance besser skaliert.

Ich vermute diebezüglich auch, dass das System der Quad-Engines (bis zu 4 CUs sharen sich Instruktion-Caches für Vektor/Skalar), aufgebrochen wird bzw. verbessert wird.

40% mehr IPC? Wieso nicht. Ich vermute bei Polaris etwa ~80% Mehrperformance (für den besten Usecase bzw. Worstcase für alte GPUs), bei etwa 25% mehr Einheiten. Kurz, P10 könnte eher bei Fiji liegen, je nach Anwendungsfall. Und P10 eben bei Tonga darum. Aber irgendwann werden definitiv die Bandbreitenachteile oder andere Limitierungen einsetzen.

Ravenhearth
2016-05-15, 17:11:19
40% mehr IPC? Wieso nicht.

Damit würde man Nvidia übertreffen. Die 390 braucht etwa 25% mehr Rohleistung für 970-Performance in Full HD, mit 40% mehr "IPC" läge man >10% über Maxwell und wohl auch Pascal. 15-25% finde ich realistischer. 40% wären es dann im Vergleich mit Fiji in FHD, der da ja wirklich schlecht abschneidet.

w0mbat
2016-05-15, 17:13:59
Damit würde man Nvidia übertreffen.

Und? Hat AMD ja schon häufiger.

Ravenhearth
2016-05-15, 17:24:16
AMD braucht seit 10 Jahren mehr Rohleistung für die gleiche Performance. Da wäre ein Gleichstand oder Vorbeiziehen imho ein kleines Wunder.

Nakai
2016-05-15, 17:26:08
Damit würde man Nvidia übertreffen. Die 390 braucht etwa 25% mehr Rohleistung für 970-Performance in Full HD, mit 40% mehr "IPC" läge man >10% über Maxwell und wohl auch Pascal. 15-25% finde ich realistischer. 40% wären es dann im Vergleich mit Fiji in FHD, der da ja wirklich schlecht abschneidet.

Wie gesagt, es sieht eher nicht danach aus, dass AMD die Taktraten exorbitant erhöhen wird. Ergo wird man die Packdichte hochschrauben. Ich gehe vonirgendwas zwischen 25 und 30 Mio Transen/mm² aus. Womöglich sogar etwas mehr. Ergo wohin mit den Transistoren? Man muss bei einigen Sachen stark mit NV aufholen, eben bei Effizienz und Auslastung.

Ravenhearth
2016-05-15, 17:34:28
Bei 25 Mio Transistoren/mm² hätte man auch nur 5,8 Mrd., was gerade mal 16% mehr als Tonga wären - bei wahrscheinlich 25% mehr Einheiten. Mit 30 Mio./mm² hätte man aber immerhin knapp 7 Mrd., was 40% mehr als bei Tonga wären und in der Tat etwas Raum lassen würde. Wir haben aber leider keine Daten vorliegen, sodass beides im Rahmen des Möglichen liegt.

Nakai
2016-05-15, 17:51:16
Der Linux-Treiber hat den Polaris-Branch in den Master anscheinend zurückgeführt, ergo basischer Polaris-Support ist nun fertiggestellt.

https://cgit.freedesktop.org/~agd5f/linux/commit/drivers/gpu/drm/amd/amdgpu?h=drm-next-4.8-wip&id=a64424d722504926f3375bc4887976e3bfe3a01d

€:
Bei 25 Mio Transistoren/mm² hätte man auch nur 5,8 Mrd., was gerade mal 16% mehr als Tonga wären - bei wahrscheinlich 25% mehr Einheiten. Mit 30 Mio./mm² hätte man aber immerhin knapp 7 Mrd., was 40% mehr als bei Tonga wären und in der Tat etwas Raum lassen würde. Wir haben aber leider keine Daten vorliegen, sodass beides im Rahmen des Möglichen liegt.

Tja, einfach mal abwarten. Tee trinke ich ja schon...

Agent117
2016-05-15, 18:00:40
Ich vermute diebezüglich auch, dass das System der Quad-Engines (bis zu 4 CUs sharen sich Instruktion-Caches für Vektor/Skalar), aufgebrochen wird bzw. verbessert wird.


Wahrscheinlich könnte man auch nur 2 CUs drannhängen oder den Instruction-Buffer einfach verdoppeln (ersteres sollte mehr Leistung bringen).
Das mit dem verbesserten Instruction Prefetch mit Hilfe einer Art L0-Cache noch eine Ebene unter dem L1-Cache erscheint mir aber als die elegantere Lösung gerade in Bezug auf Kollisionen.
Den Aufwand kann ich aber nicht einschätzen und bin auch kein GCN-Experte leider:biggrin:

Lightning
2016-05-15, 18:08:30
Damit würde man Nvidia übertreffen. Die 390 braucht etwa 25% mehr Rohleistung für 970-Performance in Full HD, mit 40% mehr "IPC" läge man >10% über Maxwell und wohl auch Pascal.

Worauf basiert diese Schätzung?

Das letzte Computerbase-Rating (http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet) sieht die 390 nur 2% vor der 970 in 1080p - bei 46% mehr Rohleistung. Erst in höheren Auflösungen setzt sie sich etwas ab.

HarryHirsch
2016-05-15, 19:16:17
hat jemand ne kurze zusammenfassung aller specus am start?

keiner? keine zeit mehr hier jeden tag abzuhängen...

reaperrr
2016-05-15, 19:22:24
Worauf basiert diese Schätzung?

Das letzte Computerbase-Rating (http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet) sieht die 390 nur 2% vor der 970 in 1080p - bei 46% mehr Rohleistung. Erst in höheren Auflösungen setzt sie sich etwas ab.
Finde ich jetzt nicht gerade das beste Beispiel. Gerade bei GCN (jedenfalls vor Polaris) skaliert die Performance bekanntlich besser mit höherem Takt als zusätzlichen CUs. In dem 1080p-Rating ist die 980 Ti mit ~70% mehr Rohleistung auch nur 38% schneller als die 970, und Maxwell skaliert eigentlich besser mit zusätzlichen SMs als GCN mit zusätzlichen CUs.

1080p mit normalen (also nicht höchsten) Einstellungen ist eben der "sweet spot" der 970.

Ravenhearth
2016-05-15, 20:00:37
Worauf basiert diese Schätzung?

Das letzte Computerbase-Rating (http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet) sieht die 390 nur 2% vor der 970 in 1080p - bei 46% mehr Rohleistung. Erst in höheren Auflösungen setzt sie sich etwas ab.

Die 46% stimmen nur, wenn man die 1050 MHz Basistakt heranzieht. Damit arbeitet aber keine 970, selbst die langsamsten Modelle erreichen effektiv mindestens ~1150 MHz bei dauerhaftem Spielen, ein Referenzdesign gibt es ja nicht. Die meisten Modelle takten sogar höher, weswegen ich von etwas mehr als 1200 MHz ausgegangen bin - das wäre dann wohl die 970 OC in dem Rating. Damit liegt der Unterschied in der Rohleistung noch bei grob 25%.

aim.star
2016-05-15, 20:30:46
Deswegen gehe ich rein von der Bezeichnung von 200-300 € für die 470er Reihe aus. Da darf man mich natürlich gerne positiv überraschen, aber deiner Annahme folgend die 480X dann eher im Preisbereich von 250-300 € ?.
Nach oben hin ist der Preis praktisch schon durch die GTX 1070 gedeckelt, die nVidia fuer $380 bis $450 verkaufen wird. Da P10 wahrscheinlich langsamer ist, muss AMD den Preis auch etwas weiter unten ansetzen, vielleicht $350. Falls P11 ein halber P10 ist (bei den zuletzt spekulierten 1280 SP und 60W TDP plausibel) kann AMD wenn ueberhaupt nur den halben Preis aufrufen, eher weniger.
Ich kann mir aber auch gut vorstellen, dass P11 als R9 460(X) kommt.

Lightning
2016-05-15, 20:31:26
Die 46% stimmen nur, wenn man die 1050 MHz Basistakt heranzieht. Damit arbeitet aber keine 970, selbst die langsamsten Modelle erreichen effektiv mindestens ~1150 MHz bei dauerhaftem Spielen, ein Referenzdesign gibt es ja nicht. Die meisten Modelle takten sogar höher, weswegen ich von etwas mehr als 1200 MHz ausgegangen bin - das wäre dann wohl die 970 OC in dem Rating. Damit liegt der Unterschied in der Rohleistung noch bei grob 25%.

Stimmt, an den Boost-Takt hatte ich in dem Moment nicht gedacht. Dennoch halte ich die 25% - baiserend auf dem 1080p-Rating von CB - noch für relativ niedrig gegriffen (man könnte sich auch die 960 anschauen und die R9 285 oder 380 gegenüberstellen; in der Performanceklasse ist Maxwell im Vergleich nochmal deutlich effizienter edit: lesen müsste man können ;().
Sehr große Sprünge beim Verhältnis Spieleleistung zu Rohleistung bei Polaris würden mich aber auch überraschen.

iuno
2016-05-15, 20:32:47
CB hat es doch ordentlich dokumentiert, wie sie testen: http://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/2/#abschnitt_die_tatsaechlichen_taktraten
Demnach sind es dort 1.184 MHz, insofern bleiben bei CBs 970 vs 390 noch knapp 30% ueber. Dass die FLOPs aber keinen direkten Bezug auf die Spieleperformance haben sollte ja klar sein.
keiner? keine zeit mehr hier jeden tag abzuhängen...
Es gibt ja auch nichts neues. Die Uebersicht gibts auf der Hauptseite (https://www.3dcenter.org/news/amd-wird-polaris-10-wohl-zur-computex-am-1-juni-2016-offiziell-vorstellen)

tm0975
2016-05-15, 20:44:47
Das letzte Computerbase-Rating (http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet) sieht die 390 nur 2% vor der 970 in 1080p - bei 46% mehr Rohleistung. Erst in höheren Auflösungen setzt sie sich etwas ab.

laß CB noch 2 mal testen, dann ist die 970 10% vor der 390 und verbraucht die hälfte :biggrin:

abgesehen davon ist ein GTI auf den ersten 1 metern einem 911er bestimmt auch ebenbürtig...

fondness
2016-05-15, 21:07:07
Ein aktuelles Rating mit DX12-Spielen würde jedenfalls anders aussehen...

dargo
2016-05-15, 21:19:00
Jup... diese Ratings mit alten DX11 Spielen finde ich immer amüsant. Ich weiß ja nicht wie das andere sehen aber wenn ich mir eine neue Grafikkarte kaufen möchte dann schaue ich mir das Potenzial in einer low level API an mit wenigen Ausnahmen. Diese Ausnahmen wären einzelne, neue DX11 Spiele.

Botcruscher
2016-05-15, 21:19:38
Ein Rating mit Microrucklern würde auch anders aussehen. Mal sehen was die neue Gen bringt.

Diese Ausnahmen wären einzelne, neue DX11 Spiele.
Also jenseits von deinem gegifte weiterhin über 95%.

illidan
2016-05-15, 21:24:04
Wenn du die technisch kaputten DX12 Renderer abziehst, darfst du das auch aufrunden.

dargo
2016-05-15, 21:28:09
Also jenseits von deinem gegifte weiterhin über 95%.
Wenn ich die AAA-Titel die in diesem Jahr erschienen sind aufzähle dürfte deine Rechnung nicht ganz hinkommen. Das Jahr ist aber noch lang. Das meiste kommt erst im Herbst/Winter. Ich würde vorschlagen wir schauen es uns nochmal Ende 2016 an.

Leonidas
2016-05-16, 09:00:55
AMD geht wohl nvidia bewusst aus dem Weg (man schaue doch nur hier und auf CB die Kommentare an), da Polaris in einer anderen Klasse landen wird. Da manchen Menschen das nie klar sein wird (oder der virale Marketingauftrag das Verständnis darüber verbietet) kann AMD mit seiner langsameren Karte nur verlieren. Also soll halt nvidia seine zum Halbleiter gewordene Gottheit launchen, damit die Anbetung einiger Seiten und Kunden erst einmal gepflegt werden können, bevor AMD dann ihre günstigeren Karten veröffentlicht.


Trifft dies zu, sollten AMDs Leaks in Richtung Verbrauch und Preis heraushauen. Gerade in letzterem Punkt würde man in eine offene Flanke bei NV rennen.

MadPenguin
2016-05-16, 09:24:26
Trifft dies zu, sollten AMDs Leaks in Richtung Verbrauch und Preis heraushauen. Gerade in letzterem Punkt würde man in eine offene Flanke bei NV rennen.

Bin immer noch der Meinung, dass Leaks in der jetzigen Lage für AMD unwichtig sind. Diejenigen, welche 1080 vorbestellt haben, für die ist Leistungsklasse Polaris uninteressant, 1070 Vorbesteller können noch umdenken. Am 18. Mai wird man Polaris anteasern, vielleicht einen Teil der technischen Daten preisgeben, HDR pushen, etc. Presse-Event vor der Computex mit Review-Datum Festlegung. Zur Computex Polaris offiziell launchen und hoffentlich nach wenigen Tagen in den Regalen stehen haben. Amd ist nicht im Zugzwang (bezüglich Informationslage), die Internetseiten haben ihre Patronen bezüglich News zu Pascal verschossen (außer die noch anstehenden Reviews). Die Show gehört nun AMD. Einziger Punkt: Hoffentlich verscheißern sie es nicht.

krissbay
2016-05-16, 09:45:36
Trifft dies zu, sollten AMDs Leaks in Richtung Verbrauch und Preis heraushauen. Gerade in letzterem Punkt würde man in eine offene Flanke bei NV rennen.

Ein Leak in Richtung Preis allein würde nicht reichen mMn. da viele AMD sowieso für eine billige Lösung Wahrnehmen. Zudem wenn man Forenposten liest erwarten viele Leute dass AMD die 1080 kontert.Die Leute müssen keine zu große Erwartungen an Polaris haben. AMD muss verdeutlichen, dass beide Chip nicht in der gleichen Liga spielen. Jetzt wissen wir wie groß GP104 ist, ein Leak mit der P10 Größe wäre hilfreich. Webseiten würden dann News wie "Der neue Chp von Nvdia ist 35% dicker als Polaris".

Complicated
2016-05-16, 09:46:35
AMD reagiert nicht auf GP104 da GP106 bereit steht auf Polaris zu reagieren. Daher keine Leaks um Nvidia hier so lange wie möglich im unklaren zu lassen. Sicherlich hat AMD GP104 nicht so früh erwartet, doch das ist die logische Gegenaktion von Nvidia um den Zeitraum zu verlängern in dem die GP104 in ihrer Leistungsklasse alleine den Markt bedient. AMD wird jetzt erst einmal abwarten ob das eine Presse-Hoheit bedeutet oder tatsächlich auch schon große Stückzahlen für GP104 bedeuten wird, sprich wie die Verfügbarkeit aussehen wird.

AnarchX
2016-05-16, 09:49:51
http://www.ithome.com/html/digi/225244.htm

AMD R9 470x
P11
1Ghz Chiptakt
4gb Ram 7Ghz
1280 StreamProzessors
128 bit

Kein Stromanschluß

Aus dem AnandtechForum kopiert. All rights reserved (for them)

Fragt sich wer wo abgeschrieben hat: http://videocardz.com/amd/radeon-rx-400/radeon-r9-470x

BlacKi
2016-05-16, 09:53:13
mal eine andere frage bezügl. dx11: würdet ihr einen kleinen i5 mit einer fury (x) paaren? aber einen p10 der angeblich schneller sein soll als eine 390(x)? ich glaube das es einige verdutzte gesichter gibt wenn reviews releasen die sich sehr stark unterscheiden, wenn man die finger vom i7 lässt. das thema dx11 sucks ist bei amd noch lange nicht gegessen.

Hübie
2016-05-16, 09:55:21
Ein aktuelles Rating mit DX12-Spielen würde jedenfalls anders aussehen...

Ja und dann kommen die grünen Fanboys und sagen in VR siehts dann wieder anders aus. :rolleyes: Tolle Argumentation. Ist NVIDIA überhaupt an irgendeinem DX12-Titel beteiligt der dann mit wehenden Fahnen in die Schlacht geführt werden kann? X-D

MadPenguin
2016-05-16, 10:02:20
mal eine andere frage bezügl. dx11: würdet ihr einen kleinen i5 mit einer fury (x) paaren? aber einen p10 der angeblich schneller sein soll als eine 390(x)? ich glaube das es einige verdutzte gesichter gibt wenn reviews releasen die sich sehr stark unterscheiden, wenn man die finger vom i7 lässt. das thema dx11 sucks ist bei amd noch lange nicht gegessen.

Wir wissen im Moment nicht, wie sich Polaris mit DX11 schlagen wird. Ein I5 ist ein solider Prozessor. Verstehe deine Frage nicht ganz. Zwischen Fury und P10 würde ich im Moment ohne genaueres über Polaris zu wissen, diesen letzteren kaufen. Es hängt jedoch viel von deiner Spielwauflösung ab. Warte zumindest ab, bis man weiß, wie gut/anders/schlecht P10 wird :)

BlacKi
2016-05-16, 10:22:13
Wir wissen im Moment nicht, wie sich Polaris mit DX11 schlagen wird. Ein I5 ist ein solider Prozessor. Verstehe deine Frage nicht ganz.
http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/5/

wenn man dem p10 dann noch OC potential unterstellt, muss man sich fragen ob ein i5 der richtige partner ist.

HOT
2016-05-16, 10:29:04
Bin immer noch der Meinung, dass Leaks in der jetzigen Lage für AMD unwichtig sind. Diejenigen, welche 1080 vorbestellt haben, für die ist Leistungsklasse Polaris uninteressant, 1070 Vorbesteller können noch umdenken. Am 18. Mai wird man Polaris anteasern, vielleicht einen Teil der technischen Daten preisgeben, HDR pushen, etc. Presse-Event vor der Computex mit Review-Datum Festlegung. Zur Computex Polaris offiziell launchen und hoffentlich nach wenigen Tagen in den Regalen stehen haben. Amd ist nicht im Zugzwang (bezüglich Informationslage), die Internetseiten haben ihre Patronen bezüglich News zu Pascal verschossen (außer die noch anstehenden Reviews). Die Show gehört nun AMD. Einziger Punkt: Hoffentlich verscheißern sie es nicht.
AMD hat den Termin nicht umsonst so angesetzt, dass man genau vor der 1070 launcht. Die 1080 ist AMD ja egal vorerst. Wenn man schlau ist, wird man einen ausreichenden Ausblick auf Vega geben, damit die Leute darauf hinfiebern können und keine 1080 kaufen - aus Marketingsicht.

fondness
2016-05-16, 10:32:52
Ja und dann kommen die grünen Fanboys und sagen in VR siehts dann wieder anders aus. :rolleyes: Tolle Argumentation. Ist NVIDIA überhaupt an irgendeinem DX12-Titel beteiligt der dann mit wehenden Fahnen in die Schlacht geführt werden kann? X-D

Was genau stört dich daran, wenn ich ein aktuelles Rating verlange, wo auch DX12-Spiele inbegriffen sind? Also darf man keine Dx12-Spiele zum Vergleich heran ziehen, weil NV da schlecht dasteht (muss mit Pascal nicht ebenso sein)? Und zu deinem letzten Satz: Hat ja in der Vergangenheit auch niemanden daran gehindert diverse Gameworks-Titel zu benchen.

MadPenguin
2016-05-16, 11:19:04
Was haltet ihr davon?
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Erste-OpenCL-Benchmarks-im-Web-1195462/

Fury mit 90% der OpenCl Leistung einer 1080. Kenn mich mit OpenCl zu wenig aus, um zu erkennen ob es aussagekräftig ist, oder nicht.

Edit: vielleicht kommt es zwischen 1070 und P10 zum Gleichstand?

Hübie
2016-05-16, 11:22:18
Ich bin aus Prinzip Gegner von herumgepfusche von IHV bei Spieleentwicklungen. Das sagte ich dir bereits im Gameworks-Thread als du behauptet hattest AMD würde aktiv benachteiligt werden. Mir egal wer. Die sollen ihre Griffel da weg lassen. Wenn es um Codeoptimierung beider geht okay. Aber was denkst du womit Hitman entwickelt wird? Frag mal deinen AG was da alles hingeschikt wurde. X-D
Nebenbei: Gameworks ist toll wenn man die Tesselation sinnvoll begrenzen würde (wird ein Wunschtraum bleiben). AMD hat bisher keine (Leistungs-) Nachteile dadurch erfahren, dass Gameworks auf deren Karten läuft, wenn man Tesselation auf 16/32 setzt. Es ist also in der Verantwortung der Benchmarkseiten dies durchzuführen.

Complicated
2016-05-16, 11:38:06
Für Gaming sind die Tests T-Rex (einziger 3D Test) und die Physik-Tests Ocean Surface Simulation und Partikel Surface Simulation wichtig.

Der TV L1 optical Flow bietet Vorteile bei starkem Post-Processing, da sind AMDs ACE Engines stark.
Face Recognition und Bitcoin Mining sind Compute Leistungen die mit hoher Latenz beschleunigt werden können.

Korvaun
2016-05-16, 11:40:14
Was mich eingentlich am meisten interessiert ist ob AMD mal einen guten Launch fertigbringt. Also gute&viele Review-Karten (Kühler!) für die HW-Seiten und schnelle Verfügbarkeit zu guten Preisen im Handel.

Wenn sie das nicht hinbekommen und Nv es möglicherweise schafft GP106 doch relativ zügig nachzulegen, dann gute Nacht AMD...

dargo
2016-05-16, 11:48:42
Ich bin aus Prinzip Gegner von herumgepfusche von IHV bei Spieleentwicklungen. Das sagte ich dir bereits im Gameworks-Thread als du behauptet hattest AMD würde aktiv benachteiligt werden. Mir egal wer. Die sollen ihre Griffel da weg lassen. Wenn es um Codeoptimierung beider geht okay. Aber was denkst du womit Hitman entwickelt wird? Frag mal deinen AG was da alles hingeschikt wurde. X-D

Warum versteifst du dich so sehr auf Hitman? Was ist mit GoW, Forza 6: Apex oder Quantum Break? Gut... beim letzteren müssen wir noch auf einen Patch für Vsync Off warten, sonst machts ja keinen Sinn. Bei F6 fällt mir gerade ein kommen wir aktuell auch nicht weit.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11033433&postcount=580

Hier ist also auch noch ein Patch notwendig.

Ist NVIDIA überhaupt an irgendeinem DX12-Titel beteiligt der dann mit wehenden Fahnen in die Schlacht geführt werden kann? X-D
Rise of the Tomb Raider.

Menace
2016-05-16, 11:53:11
Was haltet ihr davon?
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Erste-OpenCL-Benchmarks-im-Web-1195462/

Fury mit 90% der OpenCl Leistung einer 1080. Kenn mich mit OpenCl zu wenig aus, um zu erkennen ob es aussagekräftig ist, oder nicht.

Edit: vielleicht kommt es zwischen 1070 und P10 zum Gleichstand?

Bin da auch kein Fachmann, aber soweit ich weiß ist OpenCl nicht mit der allgemeinen Spielleistung vergleichbar.
Bei OpenCl ist AMD schon immer stark gewesen (wobei nicht in allen Teilbereichen gleich stark). Da hätte ich 1080 wesentlich stärker erwartet, aber vielleicht wird der OpenCl Treiber mal wieder nicht priorisiert. Aber ich ahnte, dass ich mit der Nano -was OpenCl angeht- relativ auf der sicheren Seite bin.

Die Polaris schätze ich auch bei OpenCl wesentlich schwächer ein (wie auch die restliche Leistung).

Kriton
2016-05-16, 12:24:55
Ist NVIDIA überhaupt an irgendeinem DX12-Titel beteiligt der dann mit wehenden Fahnen in die Schlacht geführt werden kann? X-D

Spielt das eine Rolle? Und bei Nvidia wird immer die gute Dev-Relation als Pluspunkt angeführt.

Im Übrigen ist das für Käufer wichtig, die ihre Karte nicht alle 1-2 Jahre austauschen. Du magst nicht dazu gehören, aber ich z.B. achte daher auf Features, die zukünftig eine stärkere Rolle spielen (könnten).

Ich bin aus Prinzip Gegner von herumgepfusche von IHV bei Spieleentwicklungen. [...] Die sollen ihre Griffel da weg lassen. Wenn es um Codeoptimierung beider geht okay. [...]
Nebenbei: Gameworks ist toll wenn man die Tesselation sinnvoll begrenzen würde (wird ein Wunschtraum bleiben).

Finde den Fehler...:wink:

Kartenlehrling
2016-05-16, 12:37:57
Zitat von Hübie
Ist NVIDIA überhaupt an irgendeinem DX12-Titel beteiligt der dann mit wehenden Fahnen in die Schlacht geführt werden kann?


Rise of the Tomb Raider.


Call to Action

HDR is here to stay, and more and more displays will support HDR. As described in this blog,
adding HDR support to you game is reasonably straightforward and there is a lot of help from NVIDIA in the form of NvAPI and source code for ACES tone mappers.

If you are still early enough in the development cycle of your game make sure that color grading isn’t abused to fix lighting or other artefacts in your rendering pipeline.
Instead try to restrict your color grading operations to combinations of simple gain, bias, contrast enhancement, and saturation functions to achieve the desired look.


Wenn ich aber wieder sowas lese,... wieso muss die hilfe über NvAPI gehen, wenn doch von offen Quellcode die rede ist?

iuno
2016-05-16, 12:42:19
Kann man mal beim Thema bleiben? Aus einer Frage wie roh- mit gamingleistung korelliert wird wieder eine Diskussion ueber dx12, GameWorks und Testmethodik.
Sicher wird CB den Parcour wieder mal anpassen, wenn es eine nennenswerte Anzahl "low-level Spiele" gibt, wie sie es immer machen. Das dauert aber und jedes andere Vorgehen ist doch voellig sinnlos fuer die Einbeziehung in ein langfristiges Rating. Wenn man die neuesten Titel vergleichen will schaut man halt deren gesonderte Tests an.
Und zu GW wurde denke ich laengst schon alles im entsprechenden Thread gesagt...

Bin da auch kein Fachmann, aber soweit ich weiß ist OpenCl nicht mit der allgemeinen Spielleistung vergleichbar.
Stimmt genau. AMD war da immer deutlich staerker, was zu einem gewissten Teil auch daran liegt, dass Nvidia den CUDA Weg geht. Aber dass sie immer deutlich mehr Rohleistung hatten gibt da eher den Ausschlag.
Ich erwarte nicht, dass P10 ein Computing-Krueppel wird, obwohl Wert auf Effizienz gelegt wurde. Der Chip sollte schon da raus kommen, wo man ihn bzgl. der Rohleistung auch erwartet. Vielleicht gewinnt man aber auch Effizienz, indem man etwa eine MEC weg laesst. Bisher hatten fast alle GPUs zwei davon. Das wuerde etwa weniger Compute Queues aber nicht zwangslaeufig weniger Performance bedeuten.

Undertaker
2016-05-16, 15:21:22
Wie realistisch sind die Polaris 11 Daten auf der Startseite einzuschätzen? Mit der Konfiguration würde es selbst bei höherer Leistung pro CU höchstens für eine GTX 950 75W reichen. Heißt also 20% weniger Leistungsaufnahme für Polaris trotz neuem Fertigungsprozess, das wäre aus Effizienzsicht doch arg enttäuschend. :(

Der_Korken
2016-05-16, 15:33:30
Wie realistisch sind die Polaris 11 Daten auf der Startseite einzuschätzen? Mit der Konfiguration würde es selbst bei höherer Leistung pro CU höchstens für eine GTX 950 75W reichen. Heißt also 20% weniger Leistungsaufnahme für Polaris trotz neuem Fertigungsprozess, das wäre aus Effizienzsicht doch arg enttäuschend. :(

Die chinesische Quelle, die ein paar Seiten vorher hier gepostet wurde, schrieb was von Leistung auf Niveau der 380 bzw. 380X. Wenn das stimmt, würde Polaris einen ordentlichen Schub bei Leistung pro Takt und SP mitbringen und auch die GTX950 klar distanzieren.

Nakai
2016-05-16, 15:37:43
So optimistisch wäre ich nicht. Wenn P11 durch Bandbreite und Rohleistung nicht limitiert wird, dann sieht es ganz gut aus.

€: Ahja, was derzeit als P10 Benches geleakt wurde, bloß nicht ernst nehmen. Irgendjemand trollt das Internet schon wieder...wie bei DualLink HBM bei Fiji.

dargo
2016-05-16, 15:47:18
Wie realistisch sind die Polaris 11 Daten auf der Startseite einzuschätzen? Mit der Konfiguration würde es selbst bei höherer Leistung pro CU höchstens für eine GTX 950 75W reichen.
Eine GTX950 hat eine TDP von 90W.

illidan
2016-05-16, 15:48:30
Er meint wohl eine Variante ohne Stromstecker.

Hübie
2016-05-16, 16:43:20
Finde den Fehler...:wink:

Öhm. Das ist mittlerweile Open Source und wenn sich jetzt ein Entwickler entscheidet das rein zu nehmen finde ich es nicht verwerflich. Frage ist nun ob der Entwickler dass dann so anpassen kann / darf, dass es alles auch auf AMD läuft (z.B. VXAO) - Voraussetzung ist natürlich dass die Hardware nicht begrenzt. Die Lizenz ist da etwas schwammig und riecht nach Willkür.
Was ich meinte sind die Effekte von Gameworks. ;)

illidan
2016-05-16, 16:49:06
Wird wohl mal wieder Zeit für eine deftige OT GameWorks-Debatte? :freak:

Tamagothi
2016-05-16, 17:13:51
Wie realistisch sind die Polaris 11 Daten auf der Startseite einzuschätzen? Mit der Konfiguration würde es selbst bei höherer Leistung pro CU höchstens für eine GTX 950 75W reichen. Heißt also 20% weniger Leistungsaufnahme für Polaris trotz neuem Fertigungsprozess, das wäre aus Effizienzsicht doch arg enttäuschend. :(

Erstens hast du wohl vergessen das eine R9 380/380X flotter Rechnet als eine GTX 950.

Zweitens eine Reduzierung der TDP auf 1/3 bei gleicher Leistung wäre einem Wunder gleich.

tm0975
2016-05-16, 17:19:57
die 950 ohne zusätzlichen stromanschluß verdient den namen nicht, denn sie ist eine ganze klasse langsamer als die 950. zudem hat doch AMD per video schon polaris 11 mit der 950 bzgl. des verbrauchs verglichen und die unterschiede waren enorm. die karte ist top für kleine spiele/wohnzimmer-pcs

MadPenguin
2016-05-16, 17:23:38
Hab mich mal zum Webinar angemeldet. 18. Mai 15.00 Uhr lokale Zeit.

Undertaker
2016-05-16, 17:45:46
Erstens hast du wohl vergessen das eine R9 380/380X flotter Rechnet als eine GTX 950.

Mit 1280 ALUs und 1000 MHz hat die Karte 74% der Rechenleistung einer R9 380 bzw. 64% der Rechenleistung einer R9 380X. Selbst wenn die drastisch reduzierte Speicherbandbreite überhaupt keine Performanceeinbußen mit sich bringt, müsste die Leistung pro FLOP um bis zu 55% steigen, damit sich das ausgeht. Das ist mit eine evolutionären Weiterentwicklung der Architektur nicht machbar.

Ich habe mich oben dennoch verlesen und bin von 1024 statt 1280 ALUs ausgegangen. Das sollte dann eine Leistung irgendwo zwischen GTX 950 90W und GTX 960 ergeben.

Schnoesel
2016-05-16, 17:48:03
zudem hat doch AMD per video schon polaris 11 mit der 950 bzgl. des verbrauchs verglichen und die unterschiede waren enorm. die karte ist top für kleine spiele/wohnzimmer-pcs

Das will ich hoffen. Meine Bonaire (R7 260x) im HTPC heizt mir zu stark, da kommt mir ein Leistungsplus bei geringerer Aufnahme gerade recht.

Der_Korken
2016-05-16, 18:10:46
Mit 1280 ALUs und 1000 MHz hat die Karte 74% der Rechenleistung einer R9 380 bzw. 64% der Rechenleistung einer R9 380X. Selbst wenn die drastisch reduzierte Speicherbandbreite überhaupt keine Performanceeinbußen mit sich bringt, müsste die Leistung pro FLOP um bis zu 55% steigen, damit sich das ausgeht. Das ist mit eine evolutionären Weiterentwicklung der Architektur nicht machbar.

55% ist natürlich Unsinn. Von der 380 sind es "nur" noch 35,8%. Von der 270X aus sind es laut CB-Rating 22% Mehrleistung bei knapp 5% weniger Rohleistung. In Full HD könnte es schon möglich sein, dass eine hypothetische 470X vllt an eine 380 rankommt. Eine GTX960 schafft das gelegentlich auch mit mageren 1024SP@1,2Ghz (~1280SPs@1Ghz). In höheren Auflösungen würde es natürlich wieder anders aussehen.

tm0975
2016-05-16, 18:32:54
@schnoesel: wahrscheinlich läßt sich der verbrauch nochmal um 15 bis 20% senken, auch wenn der takt dann bei ca. 800 bis 900 mhz rauskommen würde.

iuno
2016-05-16, 18:51:15
Mit 1280 ALUs und 1000 MHz hat die Karte 74% der Rechenleistung einer R9 380 bzw. 64% der Rechenleistung einer R9 380X. Selbst wenn die drastisch reduzierte Speicherbandbreite überhaupt keine Performanceeinbußen mit sich bringt, müsste die Leistung pro FLOP um bis zu 55% steigen, damit sich das ausgeht. Das ist mit eine evolutionären Weiterentwicklung der Architektur nicht machbar.
Die Taktraten sind noch voellig unklar und koennten bei dem kleinen Chip durchaus noch deutlich ueber 1 GHz steigen. Ich glaube zwar nicht, dass AMD die Takte so enorm anheben kann, wie manche hier, aber die kleineren Chips waren eher unproblematisch (z.B. Bonaire mit 1,1 GHz) und das Power Budget sollte es theoretisch wohl hergeben. Ich glaube aber auch nicht, dass P11 an Tonga ran kommt, sonst wuerde der Rebrand noch weniger Sinn ergeben.
Ansonsten "nicht machbar"? Maxwell sollte ja auch annaehernd so einen Faktor drauf gelegt haben? Wenn ich z.B. die 780 Ti (2880 sp) mit der 970 vergleiche (1664) und der 970 noch etwas mehr Takt zugestehe...

Öhm. Das ist mittlerweile Open Source und [...]
Nein ist es nicht, das wurde auch hier schon mehrfach und ausdruecklich erklaert. Und den OT Kram interessiert hier eigentlich auch keinen...

Undertaker
2016-05-16, 19:23:01
Die Taktraten sind noch voellig unklar und koennten bei dem kleinen Chip durchaus noch deutlich ueber 1 GHz steigen. Ich glaube zwar nicht, dass AMD die Takte so enorm anheben kann, wie manche hier, aber die kleineren Chips waren eher unproblematisch (z.B. Bonaire mit 1,1 GHz) und das Power Budget sollte es theoretisch wohl hergeben. Ich glaube aber auch nicht, dass P11 an Tonga ran kommt, sonst wuerde der Rebrand noch weniger Sinn ergeben.
Ansonsten "nicht machbar"? Maxwell sollte ja auch annaehernd so einen Faktor drauf gelegt haben? Wenn ich z.B. die 780 Ti (2880 sp) mit der 970 vergleiche (1664) und der 970 noch etwas mehr Takt zugestehe...

Nicht machbar für eine evolutionäre GCN-Weiterentwicklung. Von Kepler zu Maxwell wurde doch so einiges umgebaut, derart große Änderungen (die dann auch entsprechend Platz fressen und weniger ALUs/mm² erlauben würden) dürfte es bei Polaris vermutlich nicht geben. Also mehr Leistung pro FLOP ja, aber nicht in einer Größenordnung von 50%. Imo.

Kriton
2016-05-16, 19:24:25
War OT.

reaperrr
2016-05-16, 21:15:04
Nicht machbar für eine evolutionäre GCN-Weiterentwicklung.
Warum?
Bisher war jede Weiterentwicklung von Nvidia seit Fermi im Grunde auch nur evolutionär. Klar waren die Sprünge auch mal größer, aber es gab nie eine völlig neue Architektur.

Kepler hat gegenüber den Mainstream-Fermis "nur" die großen, stromfressenden Hochtakt-ALUs durch 4x so viele kleine ALUs @Chiptakt ersetzt, der Rest war nur eine moderate Evolution der Consumer-Fermis, sogar der superskalare Ansatz bei den ALUs (das letzte Drittel der ALUs wurde selten wirklich ausgelastet) und die gegenüber GF100 verdoppelten TMUs pro SM wurde trotz mäßiger Auslastung und Effizienz beibehalten.

Maxwell 1.0 ist dann im Grunde nur zum im Nachhinein sinnvolleren, weil effizienteren SM-Grundaufbau von GF100 zurückgekehrt (halbierte TMUs pro SM, um 1/3 reduzierte ALUs im skalaren Ansatz) und hat ansonsten außer Stromspar-Features nichts bahnbrechendes gebracht. Die verbesserte Taktbarkeit war auch hauptsächlich der Mischung aus deutlich kleineren SM und eben den Stromsparfeatures geschuldet.
Maxwell 2.0 hat außer DX12-Support und DCC auch nicht viel neues gegenüber MW1.0 gebracht.

Consumer-Pascal ist im Grunde auch nur Maxwell 3.0, auch wenn der Sprung größer als zwischen 1.0 und 2.0 ausfällt, aber offensichtlich deutlich kleiner als zwischen Kepler und Maxwell 2.0.


AMD hat sich im Gegensatz zu Nvidia eben nur die Arbeit gespart (auch wenn das eine Fehlkalkulation war), die großen, einschneidenden Änderungen schon in 28nm zu bringen. Ist nicht gesagt bzw unwahrscheinlich, dass GCN4 unbedingt gleich so gut wie Pascal wird, ich will nur darauf hinaus, dass man bloß weil die Grund-Architektur immer noch "GCN" heißt, nicht automatisch davon ausgehen sollte, dass keine großen Sprünge möglich sind.

fondness
2016-05-16, 21:41:40
Was ist das überhaupt für eine blöde Klassifizierung, sorry? Ein Großteil des Funktioneinheiten sind laut den bereits bekannten Folien neu. Ab wann ist es denn revolutionär, wenn alles neu ist? Dann ist jede Entwicklung evolutionär, denn bei Null fängt niemand an.

http://s32.postimg.org/yoi7znahh/amd_polaris_gpu.jpg (http://postimage.org/)

ks
2016-05-16, 22:09:41
Also die CUs sind beim Power Gating überarbeitet - Vermutung - jede CU kann separat gesteuert werden -> Teillast deutlich weniger Verbrauch.
Jedenfalls beim Polaris 10

HOT
2016-05-16, 22:31:37
Wenn man das Schaubild ganz exakt nimmt, ändert sich eben nicht
a.) Das Render Backend, als die FB-Kompression dürfte dieselbe wie bei Tonga sein
b.) der Rasterizer, ergo kein FL12_1
c.) Cumpute Engines, also keine erhöhte Computeleistung ggü. Tonga und Fiji - die letzten beiden Punkte würden erklären, warum keine neue ISA erforderlich ist

Ändern tun sich
a.) Geomerieprozessor, also bessere Tesselation, mehr Dreiecksdurchsatz
b.) Commandprozessor, also bessere Auslastung
c.) CUs, Powersaving nehme ich in
d.) L2-Cache und Mem-Ctrl, ich nehme an mehr L2-Cache und deutlich kleinere mem-Controller
e.) MM-Cores, also Vediogedöns wird wohl alles fehlende unterstützt
f.) DE, klar für DP1.3 und HDMI2

Warum?
Bisher war jede Weiterentwicklung von Nvidia seit Fermi im Grunde auch nur evolutionär. Klar waren die Sprünge auch mal größer, aber es gab nie eine völlig neue Architektur.

Kepler hat gegenüber den Mainstream-Fermis "nur" die großen, stromfressenden Hochtakt-ALUs durch 4x so viele kleine ALUs @Chiptakt ersetzt, der Rest war nur eine moderate Evolution der Consumer-Fermis, sogar der superskalare Ansatz bei den ALUs (das letzte Drittel der ALUs wurde selten wirklich ausgelastet) und die gegenüber GF100 verdoppelten TMUs pro SM wurde trotz mäßiger Auslastung und Effizienz beibehalten.

Maxwell 1.0 ist dann im Grunde nur zum im Nachhinein sinnvolleren, weil effizienteren SM-Grundaufbau von GF100 zurückgekehrt (halbierte TMUs pro SM, um 1/3 reduzierte ALUs im skalaren Ansatz) und hat ansonsten außer Stromspar-Features nichts bahnbrechendes gebracht. Die verbesserte Taktbarkeit war auch hauptsächlich der Mischung aus deutlich kleineren SM und eben den Stromsparfeatures geschuldet.
Maxwell 2.0 hat außer DX12-Support und DCC auch nicht viel neues gegenüber MW1.0 gebracht.

Consumer-Pascal ist im Grunde auch nur Maxwell 3.0, auch wenn der Sprung größer als zwischen 1.0 und 2.0 ausfällt, aber offensichtlich deutlich kleiner als zwischen Kepler und Maxwell 2.0.


AMD hat sich im Gegensatz zu Nvidia eben nur die Arbeit gespart (auch wenn das eine Fehlkalkulation war), die großen, einschneidenden Änderungen schon in 28nm zu bringen. Ist nicht gesagt bzw unwahrscheinlich, dass GCN4 unbedingt gleich so gut wie Pascal wird, ich will nur darauf hinaus, dass man bloß weil die Grund-Architektur immer noch "GCN" heißt, nicht automatisch davon ausgehen sollte, dass keine großen Sprünge möglich sind.

Sicherlich arbeitet auch NV evolutionär, jedoch sind die Änderungen kaum mit der GCN-Evolution zu vergleichen. NV nimmt da wirklich deutlich mehr Geld in die Hand als AMD pro Generation.

Nakai
2016-05-17, 00:12:17
Wenn man das Schaubild ganz exakt nimmt, ändert sich eben nicht
a.) Das Render Backend, als die FB-Kompression dürfte dieselbe wie bei Tonga sein
b.) der Rasterizer, ergo kein FL12_1
c.) Cumpute Engines, also keine erhöhte Computeleistung ggü. Tonga und Fiji - die letzten beiden Punkte würden erklären, warum keine neue ISA erforderlich ist


Zu a)
Im Treiber hat das Renderbackend eine höhere Version. Ich würde mich nicht darauf verlassen.

Zu b) sehr wahrscheinlich

Zu c) Die ACEs sind sowieso nicht überarbeitet worden. Wieso auch? Die sind so ziemlich state-of-the-art. Die GFX ISA ist nicht geändert worden. Aber in der Präsi werden diese als die 4th Gen bezeichnet. AMD hat bisher bei jeder Revision die ISA hochgezählt. Ergo die CUs sind dramatisch überarbeitet worden, aber laufen noch mit der alten ISA. Die Effizienzvorteile erschließen sich eher aus den Änderungen am Frontend (ME/GCP; Primitive Discard Accelerator).


Ändern tun sich
a.) Geomerieprozessor, also bessere Tesselation, mehr Dreiecksdurchsatz
b.) Commandprozessor, also bessere Auslastung
c.) CUs, Powersaving nehme ich in
d.) L2-Cache und Mem-Ctrl, ich nehme an mehr L2-Cache und deutlich kleinere mem-Controller
e.) MM-Cores, also Vediogedöns wird wohl alles fehlende unterstützt
f.) DE, klar für DP1.3 und HDMI2


Vll sollte man zum Dreiecksdurchsatz sagen, dass hierbei eher die Culling-Rate hochgejagt wird und deswegen deutlich weniger Dreieicke die Renderpipeline vollstopfen. Bzw. die kommen nichtmal zum Rasterizer.

GCP und das Insruction-Prefetch gehören eh zusammen. Das Frontend wird auf Durchsatz getrimmt. Wurde auch mal Zeit...da war man immer Welten hinter NV.

Digidi
2016-05-17, 00:36:51
Vll sollte man zum Dreiecksdurchsatz sagen, dass hierbei eher die Culling-Rate hochgejagt wird und deswegen deutlich weniger Dreieicke die Renderpipeline vollstopfen. Bzw. die kommen nichtmal zum Rasterizer.

GCP und das Insruction-Prefetch gehören eh zusammen. Das Frontend wird auf Durchsatz getrimmt. Wurde auch mal Zeit...da war man immer Welten hinter NV.

Das Frontend war nie schlecht bei AMD, es war dank dx11 nur nie ausgelastet, was ja der Drawcall Test zeigt wo AMD bei dx12 mehr Polygonen durchsetzt als NVIDIA. Deshalb wohl auch der Druck von AMD seitens Mantle

horn 12
2016-05-17, 00:40:13
Deshalb wird auch Fiji mehr zulegen als NV lieb sein wird unter DX12 und so manchmal gar an der GTX 1080 knabbern!
So schnell würde ich die Fury, Nano Serie nicht abschreiben, die GTX 970 und 980 packen jene Karten problemlos bei neuesten Games. Zudem jene wohl bald für unter 400 bis 450 Euro zu haben sein werden.

Korvaun
2016-05-17, 07:31:39
Evolutionär = alle aktuellen und in näherer Zukunft erscheinenden Karten
Revolutionär = eine praxistaugliche Raytracing-Grafikkarte :wink:

Gipsel
2016-05-17, 13:36:38
Wenn man das Schaubild ganz exakt nimmt, ändert sich eben nicht
a.) Das Render Backend, als die FB-Kompression dürfte dieselbe wie bei Tonga seinNun, so ganz hundertprozentig sicher ist das nicht, auch wenn es wahrscheinlich ist. Die Render-Backends haben bei den Radeons bisher eigene Caches. Die sind nicht an den L2 angeschlossen, sondern von den RBE-Caches geht es direkt zu den Speichercontrollern. Die FB-Kompression wird beim Laden und Speichern von Tiles des Framebuffers (bzw. Z-Buffers, jedes RBE hat einen getrennten Cache für Z-Buffer- und einen für Color-Tiles) in diese spezialisierten Caches durchgeführt. Sollte man dieses System umwerfen und die RBEs über den L2-Cache anbinden (wie nV das macht), könnte das (zusammen mit einer überarbeiteten Kompression) im Prinzip unter dem Punkt des geänderten L2-Caches zusammengefaßt sein.

=================

GCP und das Insruction-Prefetch gehören eh zusammen.Eher nicht. Der Command-Processor beschäftigt sich mit Draw- und Kernel-Calls in Command-Queues, verwaltet die zugehörigen Resourcen und sowas. Der Instruction Prefetch findet auf deutlich tieferer Ebene statt. Das ist eine Modifikation der CUs, bzw. des Zusammenspiel zwischen Scheduler und Instruction Buffers in den CUs und dem L1-Instruction-Cache, wodurch sichergestellt werden soll, daß die CUs seltener stallen, weil dort schlicht nicht die nächsten Instruktionen für eine Wavefront vorliegen. Es erhöht also die Auslastung der CUs und steigert die Abarbeitungsgeschwindigkeit, ohne daß der CP irgendwas davon wissen müßte.

Nakai
2016-05-17, 14:07:45
Eher nicht. Der Command-Processor beschäftigt sich mit Draw- und Kernel-Calls in Command-Queues, verwaltet die zugehörigen Resourcen und sowas. Der Instruction Prefetch findet auf deutlich tieferer Ebene statt. Das ist eine Modifikation der CUs, bzw. des Zusammenspiel zwischen Scheduler und Instruction Buffers in den CUs und dem L1-Instruction-Cache, wodurch sichergestellt werden soll, daß die CUs seltener stallen, weil dort schlicht nicht die nächsten Instruktionen für eine Wavefront vorliegen. Es erhöht also die Auslastung der CUs und steigert die Abarbeitungsgeschwindigkeit, ohne daß der CP irgendwas davon wissen müßte.

Mhh? Dann hatte ich was falsch im Kopf.

Der ME/MEC (also GCP/ACE) muss den jeweiligen Wavefronts auf den CUs natürlich den Instructionsstream bereitstellen. Wie das genau funktioniert, kA. Aber wenn da keine Daten über den GCP laufen, dann muss der GCP wenigstens den jeweiligen Programmcounter bzw. Pointer auf den Speicherbereich bereitstellen, in dem die Instruktionen für diesen Call/Kernel liegen. Normalerweise müsste da erstmal über die DMA-Engines bzw. vom Host die Insturktionen des jeweiligen Kernels/Calls transferiert werden und den ACEs/dem GCP wird dann mitgeteilt im welchem Speicherbereich das Programm liegt.

Liegt das Instruction Fetch in Frontend einer Quadengine (bis zu 4 CUs)? Oder hat jede CU für sich einen Instruction Fetch?
Und wird auch die Grundstruktur der Quadengines überarbeitet (zB. dass jede CU einen eigenen Cache besitzt[evtl extra ein L0-Cache?])?.

Es ist ja bekannt, dass GCN bei kleinen Kernels/Calls ein niedrigen Durchsatz besitzt. GCN braucht viel Last und große Kernels, um einen hohen Durchsatz zu erreichen. Falls man hier einen deutlichen besseren Durchsatz erreichen könnte, wäre das sehr, sehr geil.

Gipsel
2016-05-17, 16:19:02
Der ME/MEC (also GCP/ACE) muss den jeweiligen Wavefronts auf den CUs natürlich den Instructionsstream bereitstellen. Wie das genau funktioniert, kA. Aber wenn da keine Daten über den GCP laufen, dann muss der GCP wenigstens den jeweiligen Programmcounter bzw. Pointer auf den Speicherbereich bereitstellen, in dem die Instruktionen für diesen Call/Kernel liegen. Normalerweise müsste da erstmal über die DMA-Engines bzw. vom Host die Insturktionen des jeweiligen Kernels/Calls transferiert werden und den ACEs/dem GCP wird dann mitgeteilt im welchem Speicherbereich das Programm liegt.Im Prinzip genau so. Der CP / die ACEs allozieren ja Platz auf den CUs und initialisieren die Wavefronts mit ein paar Startwerten. Und dazu gehört eben auch der Programmcounter der Wavefront, der ja nichts weiter als ein (40bit-) Zeiger auf den Binärcode des Shaders/Kernels ist. Die Übertragung des Binärcodes des Shaders von der CPU bzw. deren Speicher zur Grafikkarte erfolgt typischerweise nur einmal für sehr viele gestartete Wavefronts, das ist also so ziemlich vernachlässigbar. Die eigentlichen Instruktionen fetchen die CUs dann schon selber von der Adresse (individuell für jede Wavefront, gepuffert von L2, L1-I und den instruction buffern [praktisch eine Art von L0-I], der Reuse und damit die Amplification durch die Caches ist normalerweise sehr hoch), da hat der CP nichts mehr mit zu tun.
Liegt das Instruction Fetch in Frontend einer Quadengine (bis zu 4 CUs)? Oder hat jede CU für sich einen Instruction Fetch?Meiner Vermutung nach in jeder CU selber. Dort gibt es ja für jede der vALUs nochmal je 10 instruction buffer, die praktisch wie insgesamt 40 L0-I$ für die bis zu 40 Wavefronts pro CU wirken können (je nachdem, wie sie genau funktionieren, im schlimmsten Fall puffern sie wirklich nur den sequentiell betrachteten Instruktionsstrom, können also z.B. bei kleinen Schleifen keine L1-I-Bandbreite sparen; das hängt aber auch stark von deren Größe ab, worüber meines Wissens keine öffentlichen Informationen verfügbar sind). Die werden signalisieren, wenn sie leer laufen (die Zugriffsmuster sind ja ohne Branches recht sequentiell), was dann den Instruction fetch zu dem jeweiligen IB triggert. Und genau an dieser Stelle hat man laut Mike Mantor bei Polaris wohl angesetzt, da bisher in gewissen Situationen dies nicht ausreichend gut funktioniert hat, um ein Leerlaufen der IBs zu verhindern (insbesondere wurde Controlflow genannt und auch back-to-back-issue vieler größerer [also 8Byte] Instruktionen). Offenbar werden die IBs etwas größer und man triggert den Fetch früher bzw. eventuell bei Branches schon vorab einen Fetch des Targets. Mal sehen, ob man dazu noch was Genaueres hört.
Und wird auch die Grundstruktur der Quadengines überarbeitet (zB. dass jede CU einen eigenen Cache besitzt[evtl extra ein L0-Cache?])?.Es existieren wie gesagt bereits die IBs, die je nach Auslegung des Ganzen auch wie mehrere (pro Wavefront) kleine L0-I-Caches (bzw. die Loop-Buffer in Intel-CPUs) in der CU wirken könnten und genau diese wurden für Polaris auch überarbeitet (Vergrößerung wurde explizit erwähnt) und mit einem verbesserten I-Fetch (inklusive Prefetch) versehen. Ob es darüber hinaus größere Änderungen in dem Bereich wie eine zusätzliche Cache-Stufe gibt, entzieht sich meiner Kenntnis.
Es ist ja bekannt, dass GCN bei kleinen Kernels/Calls ein niedrigen Durchsatz besitzt. GCN braucht viel Last und große Kernels, um einen hohen Durchsatz zu erreichen. Falls man hier einen deutlichen besseren Durchsatz erreichen könnte, wäre das sehr, sehr geil.Mike Mantor hat zumindest eine erhöhte "single thread performance" angekündigt. Das würde ich mal in Ermangelung genauerer Angaben als Verbesserung des Durchsatzes bei geringer Occupancy, also mit wenigen Wavefronts auf einer CU interpretieren.

PS:
AMD plant bei Polaris wohl auch mit zumindest moderat höherer Frequenz als bei den 28nm GPUs:
https://youtu.be/5g3eQejGJ_A?t=37
Das war zumindest der Stand im Januar 2016 (lange bevor nV die Pascal-Frequenzen angekündigt hat).

Nakai
2016-05-17, 16:41:36
Meiner Vermutung nach in jeder CU selber. Dort gibt es ja für jede der vALUs nochmal je 10 instruction buffer, die praktisch wie insgesamt 40 L0-I$ für die bis zu 40 Wavefronts pro CU wirken können (je nachdem, wie sie genau funktionieren, im schlimmsten Fall puffern sie wirklich nur den sequentiell betrachteten Instruktionsstrom, können also z.B. bei kleinen Schleifen keine L1-I-Bandbreite sparen; das hängt aber auch stark von deren Größe ab, worüber meines Wissens keine öffentlichen Informationen verfügbar sind). Die werden signalisieren, wenn sie leer laufen (die Zugriffsmuster sind ja ohne Branches recht sequentiell), was dann den Instruction fetch zu dem jeweiligen IB triggert. Und genau an dieser Stelle hat man laut Mike Mantor bei Polaris wohl angesetzt, da bisher in gewissen Situationen dies nicht ausreichend gut funktioniert hat, um ein Leerlaufen der IBs zu verhindern (insbesondere wurde Controlflow genannt und auch back-to-back-issue vieler größerer [also 8Byte] Instruktionen). Offenbar werden die IBs etwas größer und man triggert den Fetch früher bzw. eventuell bei Branches schon vorab einen Fetch des Targets. Mal sehen, ob man dazu noch was Genaueres hört.

Ja, das macht Sinn.

Mhh, eventuell wird auch mal die Workgroupsize vergrößert. 256 Work-Items sind manchmal echt zu wenig. NV erlaubt bis zu 1024, was einen ganzen SM praktisch auslastet.

StefanV
2016-05-17, 16:49:14
Warum?
Bisher war jede Weiterentwicklung von Nvidia seit Fermi im Grunde auch nur evolutionär. Klar waren die Sprünge auch mal größer, aber es gab nie eine völlig neue Architektur.
Sorry, aber G80 bitteschön.
Darauf basiert alles auf, Fermi ist auch nur eine Evolution vom G80 usw...

Bei AMD hat man mit GCN mal was neues gemacht...

y33H@
2016-05-17, 16:54:21
Neu muss ja nicht immer besser sein ...

Gipsel
2016-05-17, 17:32:28
Mhh, eventuell wird auch mal die Workgroupsize vergrößert. 256 Work-Items sind manchmal echt zu wenig. NV erlaubt bis zu 1024, was einen ganzen SM praktisch auslastet.Hmm, da müßte man eigentlich mal nachforschen, warum die Radeons da über OpenCL nur 256 zurückgeben, während die ISA-Manuals schon seit Jahren 1024 als Maximum angeben und über DirectX CS 1024 auch funktionieren (1024 sind seit CS5.0 vorgeschrieben, bei CS4.x waren es aber auch bereits 768).

Edit: Und in OpenGL gehen wohl auch 1024.

AnarchX
2016-05-17, 17:37:44
Polaris 10 dreht auf: 1,26GHz / 7,6Gbps (http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en)

iuno
2016-05-17, 17:43:26
Max OC Test? :ugly:

Bei SiSoft hat man auch relativ frueh Fiji mit HBM bei 625 MHz gesehen.

Ailuros
2016-05-17, 17:44:28
Polaris 10 dreht auf: 1,26GHz / 7,6Gbps (http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en)

GDDR3? :freak:

Nakai
2016-05-17, 17:48:56
Hmm, da müßte man eigentlich mal nachforschen, warum die Radeons da über OpenCL nur 256 zurückgeben, während die ISA-Manuals schon seit Jahren 1024 als Maximum angeben und über DirectX CS 1024 auch funktionieren (1024 sind seit CS5.0 vorgeschrieben, bei CS4.x waren es aber auch bereits 768).

Nur so nebenbei, ich hab mal bei OpenCL die Workgroupsize automatisch wählen lassen (also NULL übergeben) und im CodeXL wurde von der OpenCLRuntime anscheinend 2560 Threads/Work-Items festgelegt bzw angezeigt. Manuell konnte ich nicht über 256 einstellen.

2560 Threads/Work-Items machen sogar sehr Sinn, da 4x10x64 eben die 2560 Threads/Work-Items sind. Womöglich will man über OpenCL nicht über 256 Threads/Work-Items anbieten, weil es eben 4 IBs gibt, ergo pro Takt können max. 4 VektorInstructions a 64 Work-Items auf die SIMDs geschedult werden.

Also ich hoffe, dass AMD in gleichen Atemzug hier mal etwas ändert.

€:
Polaris 10 dreht auf: 1,26GHz / 7,6Gbps (http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en)


Immer noch der kleine P10? Oder schon der Große?

MadPenguin
2016-05-17, 18:00:00
Immer noch der kleine P10? Oder schon der Große?

2304 SP :D
Gute Frage

Edit: DDR3...wie AnarchX sagte. Deshalb wird die Karte so billig werden lmao

Ailuros
2016-05-17, 18:26:08
2304 SP :D
Gute Frage

Edit: DDR3...wie AnarchX sagte. Deshalb wird die Karte so billig werden lmao

Weiss der Geier was SiSoft "herausliest".....

Der_Korken
2016-05-17, 18:26:25
DDR3 und 7,6Ghz macht doch gar keinen Sinn. Das kann nur GDDR5 gewesen sein. Und schon wieder 2304SPs - vielleicht hat Polaris 10 wirklich nur 36CUs.

horn 12
2016-05-17, 18:34:04
Wann findet das Event unserer "EU Zeit" denn bitte statt
04:30 wenn mich nicht alles täuscht!

Nun kann AMD mal den Hammer rausholen

Gipsel
2016-05-17, 18:35:11
Womöglich will man über OpenCL nicht über 256 Threads/Work-Items anbieten, weil es eben 4 IBs gibt, ergo pro Takt können max. 4 VektorInstructions a 64 Work-Items auf die SIMDs geschedult werden.Also ich sehe da keinen Sinn bzw. Zusammenhang. Warum sollte man eine Workgroup auf eine Wavefront pro SIMD (also vier Wavefronts in der Gesamt-CU) limitieren?
Und in OpenGL und DX geht es doch auch und die Barriers/Fences funktionieren auch mit größeren Workgroups. Das wäre die einzige Einschränkung, die ich da so spontan gelten lassen würde.

PS:
Wie die IBs genau implementiert sind, ist nicht klar. Laut einiger Präsentationen gibt es einen IB pro Wavefront. Ob das wirklich physisch getrennte IBs sind und damit auch die maximale Anzahl von 10 Wavefronts pro SIMD/ 40 pro CU vorgeben, weil es eben nur genau 10 pro SIMD gibt, ist nicht klar. Die Alternative wären dynamisch allozierte und damit variabel große IBs innerhalb einer physischen Struktur (ähnlich wie das Registerfile verwaltet wird) und die maximale Anzahl der Wavefronts wird durch die anderen pro Wavefront vorzuhaltenen Datenstrukturen vorgegeben (auch wenn man die wohl häufig einfach auf skalare Register mappen könnte und somit letzlich nur durch die Registerfilegröße limitiert wäre, deshalb vielleicht fraglich).
Wie auch immer, das Scheduling geht wohl round robin auf die SIMDs, also wird maximal nur eine Vektor-Instruktion pro Takt geschedult, jede SIMD-Einheit kommt nur einmal alle 4 Takte dran ;). Aber das Alles hat nichts mit der Workgroup-Größe zu tun.

====================================

GDDR3? :freak:
Halt SiSoft Sandra. Auf deren Hardware-Erkennung würde ich keinen Pfifferling geben.

Nakai
2016-05-17, 18:59:35
Also ich sehe da keinen Sinn bzw. Zusammenhang. Warum sollte man eine Workgroup auf eine Wavefront pro SIMD (also vier Wavefronts in der Gesamt-CU) limitieren?
Und in OpenGL und DX geht es doch auch und die Barriers/Fences funktionieren auch mit größeren Workgroups. Das wäre die einzige Einschränkung, die ich da so spontan gelten lassen würde.


Da ist auch kein Zusammenhang. Es ist nur eine Vermutung.

Wie die IBs genau implementiert sind, ist nicht klar. Laut einiger Präsentationen gibt es einen IB pro Wavefront. Ob das wirklich physisch getrennte IBs sind und damit auch die maximale Anzahl von 10 Wavefronts pro SIMD/ 40 pro CU vorgeben, weil es eben nur genau 10 pro SIMD gibt, ist nicht klar. Die Alternative wären dynamisch allozierte und damit variabel große IBs innerhalb einer physischen Struktur (ähnlich wie das Registerfile verwaltet wird) und die maximale Anzahl der Wavefronts wird durch die anderen pro Wavefront vorzuhaltenen Datenstrukturen vorgegeben (auch wenn man die wohl häufig einfach auf skalare Register mappen könnte und somit letzlich nur durch die Registerfilegröße limitiert wäre, deshalb vielleicht fraglich).
Wie auch immer, das Scheduling geht wohl round robin auf die SIMDs, also wird maximal nur eine Vektor-Instruktion pro Takt geschedult, jede SIMD-Einheit kommt nur einmal alle 4 Takte dran . Aber das Alles hat nichts mit der Workgroup-Größe zu tun.

Stimmt, die 4 Takte Latenz hatte ich mal wieder übersehen.

Gipsel
2016-05-17, 19:11:07
Da ist auch kein Zusammenhang. Es ist nur eine Vermutung.Aber warum sollte man es denn machen, also eine unnötige künstliche Limitierung einbauen?

horn 12
2016-05-17, 19:18:36
Abwarten was uns, der Presse AMD heute abend, morgen früh präsentiert
Rechne 1070 minus 10% sind immer drinn, oder aber man hebt den Takt auf und lässt die Effizienz sausen, wovon ich aber nicht ausgehe!
Viel mehr davon dass Polaris 10 für 300 Dollar/ 349 Euro auf den Markt gebracht wird.

Skysnake
2016-05-17, 19:23:40
Hat jemand nochmals den Link zum Anmelden inkl deutscher Zeit? :D

Unicous
2016-05-17, 19:29:12
Nix wird da präsentiert, was wir nicht schon kennen.:rolleyes:

Hat AMD selbst verlauten lassen.

MadPenguin
2016-05-17, 19:29:13
Hat jemand nochmals den Link zum Anmelden inkl deutscher Zeit? :D

http://experience.amd.com/amdwebinar?sf26297405=1

15 Uhr
Edit: 3pm British Summer Time ist 16 Uhr, sorry

Disco_STFU
2016-05-17, 19:56:01
Nun kann AMD mal den Hammer rausholen

Ich würd lieber mal kleinere Brötchen backen. Nachher sind wieder alle enttäuscht weil die Erwatungen mal wieder zu hoch waren...

krissbay
2016-05-17, 20:25:00
ich bin ein Laie mit Sandra aber wenn man z.B. die Single-float GP Compute Werte von Hawai und dem angeblichen P10 Chip vergleicht, ist Hawai um ca. 75% schneller. Sagt es was über die zu erwartete Leistung von P10 aus?

Ailuros
2016-05-17, 20:28:04
ich bin ein Laie mit Sandra aber wenn man z.B. die Single-float GP Compute Werte von Hawai und dem angeblichen P10 Chip vergleicht, ist Hawai um ca. 75% schneller. Sagt es was über die zu erwartete Leistung von P10 aus?

Nicht wirklich; ich bezweifle erstmal dass IHVs so naiv sind und in solchen tests ihre hw auf voller Frequenz laufen lassen.

iuno
2016-05-17, 20:44:53
Die Werte die dort vor Release auftauchen sind immer mehr oder weniger hanebuechen ;)
Das taugt eigentlich nur als Lebenszeichen

Nakai
2016-05-17, 21:49:02
Aber warum sollte man es denn machen, also eine unnötige künstliche Limitierung einbauen?

Was definiert denn die maximale Blocksize oder Workgroupsize? Da man nur auf workgroupebene also lokal synchronisieren kann, muss hierbei eine Art Steuerlogik implementiert sein. Ich weiß es nicht, aber dass AMD unter Opencl eben max 256 Workitems zulässt, muss einen Grund haben. Reinher von den Parametern, sollte eine CU eben Workgroupsize von max 2560 unterstützen können, eben wie NV maximal 1024 unterstützt (in x und y, in z max 32).

Gorkon
2016-05-17, 23:01:11
Nix wird da präsentiert, was wir nicht schon kennen.:rolleyes:

Hat AMD selbst verlauten lassen.

Dann auch bitte mit irgendeiner Quelle, sonst brennt bei horn noch was durch ;D

https://www.reddit.com/r/Amd/comments/4jcf29/psa_the_call_on_518_at_9am_ct_about_polaris_is/

iuno
2016-05-18, 01:03:05
Gibt noch haufenweise PCI IDs fuer Polaris 10 (https://lists.freedesktop.org/archives/dri-devel/2016-May/107756.html) und 11 (https://lists.freedesktop.org/archives/dri-devel/2016-May/107758.html).
Offenbar gibt es eine stattliche Anzahl SKUs ;p

Polaris10|Polaris11
67C0|67E0
67C1|67E1
67C2|67E3
67C4|67E7
67C7|67E8
67C8|67E9
67C9|67EB
67CA|67EF
67CC|67FF
67CF|
67DF|

Gipsel
2016-05-18, 09:05:44
Was definiert denn die maximale Blocksize oder Workgroupsize? Da man nur auf workgroupebene also lokal synchronisieren kann, muss hierbei eine Art Steuerlogik implementiert sein. Ich weiß es nicht, aber dass AMD unter Opencl eben max 256 Workitems zulässt, muss einen Grund haben.Die Frage ist ja gerade welchen Grund es haben könnte (außer einen seit Jahren mitgeschleppten Bug, wodurch einfach ein falscher Wert für das Maximum zurückgegeben wird). Denn unter OpenGL und DirectX kann man natürlich auch in 1024er Workgroups (heißen da bloß Threadgroups) syncen. Und im ISA-Manual steht auch, daß die maximale Größe einer Workgroup 16 Wavefronts wären.

Skysnake
2016-05-18, 09:35:05
Greift das ueberhaupt?

Kann durchaus ein Bug sein.

Sunrise
2016-05-18, 09:55:08
Gibt noch haufenweise PCI IDs fuer Polaris 10 (https://lists.freedesktop.org/archives/dri-devel/2016-May/107756.html) und 11 (https://lists.freedesktop.org/archives/dri-devel/2016-May/107758.html).
Offenbar gibt es eine stattliche Anzahl SKUs ;p

Polaris10|Polaris11
67C0|67E0
67C1|67E1
67C2|67E3
67C4|67E7
67C7|67E8
67C8|67E9
67C9|67EB
67CA|67EF
67CC|67FF
67CC|67E7
67DF|

Beide Spalten enthalten eine doppelte Nennung, ansonsten sieht das in der Tat gut aus. Eventuell gleich vom Start weg alle möglichen Mobile-Varianten und Desktop-Varianten auf einen Schlag, das würde AMD ganz gut Geld bringen, wenn sie die gut verkaufen können.

-/\-CruNcher-/\-
2016-05-18, 09:56:43
Was ist das überhaupt für eine blöde Klassifizierung, sorry? Ein Großteil des Funktioneinheiten sind laut den bereits bekannten Folien neu. Ab wann ist es denn revolutionär, wenn alles neu ist? Dann ist jede Entwicklung evolutionär, denn bei Null fängt niemand an.

http://s32.postimg.org/yoi7znahh/amd_polaris_gpu.jpg (http://postimage.org/)

Intel hat praktisch bei 0 Angefangen mit Intel HD aber gut das ist jetzt auch schon länger her ;)

Beide Spalten enthalten eine doppelte Nennung, ansonsten sieht das in der Tat gut aus. Eventuell gleich vom Start weg alle möglichen Mobile-Varianten und Desktop-Varianten auf einen Schlag, das würde AMD ganz gut Geld bringen, wenn sie die gut verkaufen können.

jep vor allem der sich ankündigende Kampf bei den Notebooks wird diesmal sehr interessant :)

iuno
2016-05-18, 14:07:28
Beide Spalten enthalten eine doppelte Nennung, ansonsten sieht das in der Tat gut aus. Eventuell gleich vom Start weg alle möglichen Mobile-Varianten und Desktop-Varianten auf einen Schlag, das würde AMD ganz gut Geld bringen, wenn sie die gut verkaufen können.
Stimmt, habe die Tabelle mal korrigiert.

Ich erwarte mir zwar nicht viel davon, aber schaut jemand dieses Meet the Experts Ding an? Koennte ja dann hier berichten ;p

Intel hat praktisch bei 0 Angefangen mit Intel HD aber gut das ist jetzt auch schon länger her ;)
und war demnach genauso "evolutionaer", wenn man es ernst nimmt sogar noch viel mehr :P
Aber was soll das mit dem Thema zu tun haben?

Fliwatut
2016-05-18, 14:41:33
Wo in etwa wird die max. Leistung von Polaris 10 liegen? Auf dem Niveau der R9 390(x)?

dargo
2016-05-18, 14:51:04
Alles noch offen.

Wixi
2016-05-18, 15:04:33
Ich schätze für P10 390(X) leistung für 250$ bei >150W Stromverbrauch.

iuno
2016-05-18, 15:06:03
>150W? :ulol:
Da bist du ja schon bald bei einem handgetunten Hawaii in typischer Spielelast

Zergra
2016-05-18, 15:18:06
Ich schätze für P10 390(X) leistung für 250$ bei >150W Stromverbrauch.

Wohl eher bei 110-120Watt...

Ravenhearth
2016-05-18, 15:36:16
Möglich wären imho 390-Performance bei 100W bis hoch zu 980 Ti/1070-Performance bei 150W, irgendwo in dem Bereich. Je nachdem wie hoch AMD Polaris10 taktet, wie viel mehr "IPC" der bekommt und wie die Speicherbandbreite ausfällt.

uweskw
2016-05-18, 16:01:16
Sollte es heute nicht eine Erklärung von AMD geben, bei der auch was neues über Polaris erzählt wird?

greetz
US

Zergra
2016-05-18, 16:03:16
Sollte es heute nicht eine Erklärung von AMD geben, bei der auch was neues über Polaris erzählt wird?

greetz
US

Sollte ja, aber wohl eher heute Abend.

Sunrise
2016-05-18, 16:04:22
Und bitte die Erwartungen an diesen Call nicht zu hoch schrauben:
https://www.reddit.com/r/Amd/comments/4jcf29/psa_the_call_on_518_at_9am_ct_about_polaris_is/

Schnoesel
2016-05-18, 16:04:28
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Details-AMD-18-Mai-1195402/

Kanns aber nicht verfolgen. Soll ja jetzt stattfinden?!

PS: 6 sekunden früher... pfff ;-)

y33H@
2016-05-18, 16:22:43
55962

Sunrise
2016-05-18, 16:32:32
@y33H@
Danke, bitte weiter posten, sobald es neue Folien gibt.

PS: Ich mag die AMD-Slides nicht, die sind immer so ungenau, beim En- und Decoding steht wieder mal nichts von 10bit dabei. ARGH! :mad:

Ravenhearth
2016-05-18, 16:33:52
Neue Infos sind das auch nicht.

Skysnake
2016-05-18, 16:36:18
In QA wurde von 10 Bit support gesprochen, wenn ich es richtig verstanden habe.

Ansonsten war das Ding total zum Vergessen. Leider.

MadPenguin
2016-05-18, 16:37:50
Alles beim Alten, mit einigen wenigen interessanten Punkten (vor allem Multimedia):
http://abload.de/img/amd12fu3y.jpg (http://abload.de/image.php?img=amd12fu3y.jpg)
DP 1.4 ready, 10 bit en-, decoding in hardware

http://abload.de/img/amd2hjutp.jpg (http://abload.de/image.php?img=amd2hjutp.jpg)
Infinity Multiply GPU VR : one GPU x eye

iuno
2016-05-18, 16:38:02
Fuer wen hat die Veranstaltung denn jetzt ueberhaupt getaugt oder worauf war das ausgerichtet?
Bei der letzten Folie habe ich erstmal nur OBS gesehen und dachte toll, sie lassen raptr sterben... :redface: ;D

DP 1.4 ready, 10 bit encoding in hardware
Wurde das gesagt? Auf den geposteten Folien steht dazu nichts.

MadPenguin
2016-05-18, 16:40:11
Fuer wen hat die Veranstaltung denn jetzt ueberhaupt getaugt oder woaruf war das ausgerichtet?

Keine Ahnung. Eigentlich für Partner...

Gezeigt wurde fast ausschließlich ein recap von den alten Präsentationen

Ravenhearth
2016-05-18, 16:40:47
Wieso steht da jetzt wieder HDMI 2.0a, auf der Website aber 2.0b?

Das 10bit bezieht sich auch nicht aufs de-/encoding.

MadPenguin
2016-05-18, 16:41:33
Wieso steht da jetzt wieder HDMI 2.0a, auf der Website 2.0b?

Das 10bit bezieht sich auch nicht aufs de-/encoding.
Wurde zumindest jedoch gesagt, mehr als einmal (bezüglich 10-bit). 12bit würde es nicht brauchen, da zu speziell (zu spezifisch und nicht von der "Masse" gebraucht)

Ravenhearth
2016-05-18, 16:43:26
Geht es ums De/-Encoding oder um die Ausgabe? Das sind zwei Paar Schuhe.

MadPenguin
2016-05-18, 16:45:27
Geht es ums De/-Encoding oder um die Ausgabe? Das sind zwei Paar Schuhe.

So wie ich es verstanden habe bei den Q&A ging es um das de- und encoding, da mehrere diese Frage gestellt hatten. Hoffentlich kann jemand der auch dabei gewesen ist, dies bestätigen

illidan
2016-05-18, 16:47:19
Es wär sehr seltsam, nicht auch 10 Bit Decoding Support anzubieten, wenn man die Media Engine schon überarbeitet und schon Fiji und Carrizo 8 Bit HEVC nativ konnten.

Sunrise
2016-05-18, 16:47:28
Also 10bit HEVC Main10 Decoding sollen sie auf jedenfall haben, sonst wäre der neue UVD nicht Ultra HD Blu-ray fähig und sie bieten ja auch HDR an.

Aber 10bit Encoding bezweifle ich nach wie vor stark, davon war bisher nämlich nie die Rede.

Schade, hatte mit etwas mehr neuen Details gehofft. Na dann halt weiter warten.

fondness
2016-05-18, 17:02:26
DP 1.4 ready, 10 bit en-, decoding in hardware

So wie ich es verstanden habe bei den Q&A ging es um das de- und encoding, da mehrere diese Frage gestellt hatten. Hoffentlich kann jemand der auch dabei gewesen ist, dies bestätigen

Wenn die Frage mehrmals gestellt wurde, und es so gesagt wurde, dann wird es auch so sein. Der Stream wird sicher bald mal online gehen, dann kann man es eh nochmal anschauen.

horn 12
2016-05-18, 19:36:03
Neueste Infos!

https://techaltar.com/amd-webinar-details/

Kriegsgeier
2016-05-18, 19:38:00
Und wann genau?

Sunrise
2016-05-18, 19:45:13
Neueste Infos!

https://techaltar.com/amd-webinar-details/
Es sind paar interessante Details drin, aber von einem Event heute Abend steht da nichts.

AMD scheint hier zu bestätigen, dass es eine ganze Menge an verschiedenen Board-Designs für Polaris geben wird. Es werden auch keine Begrenzungen an die AIBs von AMD auferlegt, somit können AIBs vollkommen frei ihre Board-Designs bauen.

Das ist zwar schön, aber wenn Polaris keinen GDDR5X-kompatiblen IMC haben sollte, dann wird auch hier die Bandbreite stark begrenzen. Da bringen starke Takterhöhungen also nicht wirklich was. Mal gespannt ob das wieder wie bei Fiji abläuft, das wäre enttäuschend.

Kriegsgeier
2016-05-18, 19:58:55
Was sagt ihr zu einer Dual-Polaris-10 Karte?

Dies erwartet doch bestimmt keiner, ne?

Wäre DIE Überraschung schlicht hin

y33H@
2016-05-18, 20:07:44
Wozu sollte die gut sein?

Kriegsgeier
2016-05-18, 20:14:20
Andere Marktanteile zu sichern

victore99
2016-05-18, 20:20:43
Was sagt ihr zu einer Dual-Polaris-10 Karte?

Dies erwartet doch bestimmt keiner, ne?

Wäre DIE Überraschung schlicht hin
Sorry, aber was will man damit? kannste bei dem aktuellen MultiGPU-Support knicken, vorallem mit den lahmen CPUs.
Vorteil wäre VR. Aber was will man mit Polaris da? Bei den Auflösungen ist Fiji besser dran.

Mortalvision
2016-05-18, 20:28:56
Abwarten... Polaris soll ja nicht die Highend-Lösung darstellen. AMD braucht jeden Penny, und wird einen Teufel tun, jetzt schon Highend mit einem noch reifenden Prozess liefern. Mit dem großen Polaris kommt man irgendwo zwischen 390 und Fury Pro, bei 8 GB gut angebundenem Speicher. Ob das Teil GDDR5X noch bekommt, weiß keiner, wäre aber auch nicht sooo wichtig. Vielleicht in einer 2nd Edition später im Jahr. AMD wird dann mit den Vorteilen leiser, effizienter, kühler werben können. Bei 110-130 W (ein 6-pin Stecker reicht!) wäre das ein enormer Fortschritt, es könnten sowohl beim Referenzbrett als auch bei den custom Boards auf ausladende Spannungsversorgung verzichtet werden (man sehe sich doch bitte mal die Kühlung der 390X Bratpfanne an!). => die Karte kann tatsächlich mit viel weniger Geld hergestellt und vermarktet werden. Die Leistung einer 390x/Fury pro mit diesen Verbesserungen im Bereich 270-320€, und AMD bekommt in diesem wichtigen Segment die Karte aus der Hand gerissen, TROTZ/UNABHÄNGIG von 1080/1070.

Ich denke nicht, dass sich Übertakter-Boards von Sapphire und co. lohnen werden, dann sind die o.g. Vorteile schon wieder perdü...

Bezüglich VR: Doch, das wäre denkbar, wenn der Polaris in 4k genug Leistung liefern würde für annehmbares zocken, aber das ist total Glaskugel meinerseits (und zwei Polaris zum günstigsten Preis ca. 500-550€ wären ggf. besser als eine 1070/könnten an eine 1080 rankommen?)

scully1234
2016-05-18, 21:14:47
Gehoert wohl hier rein

http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en

Fliwatut
2016-05-18, 21:19:43
Und was sagt das aus?

Unicous
2016-05-18, 21:24:45
Gehoert wohl hier rein

http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdce4dde4d5e5c3b18cbc9aff9aa797b1c2ffc7&l=en

Dir ist schon klar, dass das schon längst hier gepostet wurde?

horn 12
2016-05-18, 21:27:35
@Nakai

Mit diesen Werten sollte man doch schon auf etwa R9 390+ Performance kommen
1,4 bis 1,45 Ghz und 40 CU sollten dann gut Fury erreichen können, eher gar mehr!

Nakai
2016-05-18, 21:31:32
@Nakai

Mit diesen Werten sollte man doch schon auf etwa R9 390+ Performance kommen
1,4 bis 1,45 Ghz und 40 CU sollten dann gut Fury erreichen können, eher gar mehr!

Das ist GeneralPurpose-Performance mit OpenCL. Man liegt so ziemlich auf Tonga-Niveau. "Dieser" P10 hat ein 1:16 DP:SP-Verhältnis.

Einfach mal abwarten.

uweskw
2016-05-18, 23:06:38
.......Das ist zwar schön, aber wenn Polaris keinen GDDR5X-kompatiblen IMC haben sollte, dann wird auch hier die Bandbreite stark begrenzen. Da bringen starke Takterhöhungen also nicht wirklich was. Mal gespannt ob das wieder wie bei Fiji abläuft, das wäre enttäuschend.

Wenn überhaupt soll Polaris mit der 1070 konkurrieren. Wozu sollte er da GDDR5X brauchen? Aber wahrscheinlicher ist ohnehin, dass Polaris auf R390X Niveau ist. Nachfolger für die R380.
Da braucht es erst recht keinen GDDR5X.

greetz
US

Sunrise
2016-05-18, 23:10:43
Wenn überhaupt soll Polaris mit der 1070 konkurrieren. Wozu sollte er da GDDR5X brauchen? Aber wahrscheinlicher ist ohnehin, dass Polaris auf R390X Niveau ist. Nachfolger für die R380.
Da braucht es erst recht keinen GDDR5X.

greetz
US
Gut Morgen, es geht um Partnerkarten, die stärker übertaktet sind. Nur mit GDDR5 an einem 256bit SI kommst du da nicht weit. Da rennst du voll ins BW-Limit. Und genau darum ging es.

illidan
2016-05-18, 23:14:53
Abwarten, wie weit der Takt diesmal geht.
Die Referenzprodukte will AMD sicher nach dem positiven Nano-Feedback weiter mit Effizienz veredeln. Mit etwas Glück sind durch die Fertigung und damit mögliche Optimierungen ähnliche prozentuale Taktsteigerungen drin wie bei Maxwell vs. Pascal, was auf Customs oder mit händischem OC sehr nett wäre.
Ich würd auch nicht davon ausgehen, dass AMD bei der Bandbreitennutzung Nvidia zwangsläufig hinterherhinken muss bei einem generalüberholten Design.
Ich sage nicht, dass es so kommt, aber ausgeschlossen ist es imho nicht.

Abe_
2016-05-19, 01:07:15
Wenn überhaupt soll Polaris mit der 1070 konkurrieren. Wozu sollte er da GDDR5X brauchen? Aber wahrscheinlicher ist ohnehin, dass Polaris auf R390X Niveau ist. Nachfolger für die R380.
Da braucht es erst recht keinen GDDR5X.

greetz
US

Wie gesichert ist das oder ist das eher Wunschdenken? Also dass die Performance einer R390x erreicht wird. Denn meiner Meinung nach könnte man auch deutlich niedriger landen, für einen dann halt auch deutlich geringeren Preis...

victore99
2016-05-19, 06:49:21
Wie gesichert ist das oder ist das eher Wunschdenken? Also dass die Performance einer R390x erreicht wird. Denn meiner Meinung nach könnte man auch deutlich niedriger landen, für einen dann halt auch deutlich geringeren Preis...
Dadrin werkeln immernoch 2560 oder 2304 Shader. Und so mies wie Hawaii Balanciert ist (zwar 512 bit SI, aber nur 1 MB Cache), sollte das mit der Bandbreite schon passen, sofern AMD vernünftig Cached (2MB+, vielleicht 2560 Shader an einem 256-Bit-SI mit 2,56MB Cache? :D )
Nicht zu vergessen, dass Hawaii verdammt schlecht in Tesselation ist und dass das Frontend nicht mehr zur heutigen FHD-Zielrichtung passt / Das SI erst oberhalb von 1440p seine Stärken ausspielen kann.
Dann noch der höhere Polaris-Takt.. Die 390X sollte drin sein. Oder gar die 980, die hat ja auch nur 256 bit.

Limit
2016-05-19, 06:57:14
Bei den kursierenden Daten für Polaris 10 (2560 Shader, 1154 MHz) hätte der Chip die gleiche Rohleistung wie die 390X. Eine geringere Leistung als diese ist also eher unwahrscheinlich. Einzig die geringere Speicherbandbreite könnte sie bei höheren Auflösungen ausbremsen. Die ab Tonga eingeführte Farbkompression und andere Architekturvetbesserungen sollten das aber zumindest teilweise kompensieren.

radical83
2016-05-19, 08:07:08
Polaris 10 wird von der Leistung im Bereich einer 390(X) liegen, sich dabei rund 125W genehmigen.
Um die Versprochen Leistungssteigerung im VR Bereich zu bieten, wird AMD ihr Pendant zu Nvidia's SMP vorstellen. Gleichzeitig wird Battlefield 1 als erster Titel angekündigt der diese Technik von Haus aus unterstützt.
Der Preis wird nicht unter 300$ liegen, wahrscheinlicher sind es 349$.

Trap
2016-05-19, 08:36:03
Polaris 10 wird von der Leistung im Bereich einer 390(X) liegen, sich dabei rund 125W genehmigen.[...]
Der Preis wird nicht unter 300$ liegen, wahrscheinlicher sind es 349$.
Dazu braucht man doch kein neues Produkt. Die 390X hat die Leistung der 390X für $370...

Menace
2016-05-19, 08:50:55
Der Preis wird nicht unter 300$ liegen, wahrscheinlicher sind es 349$.

Bei den Preis würden dann viele zu schnelleren und nur unwesentlich teureren Custom 1070 der Konkurrenzmarke greifen.

TheGood
2016-05-19, 09:02:58
Sehe ich auch so. Maximal 300$ darf das Teil kosten, bei einer 980 Performance.

tm0975
2016-05-19, 09:10:56
und das wißt ihr schon, dass die 1070 das bessere produkt als der p10 ist? an nvidias umgang mit dem kunden ist derart viel auszusetzen, dass die 1070 schon sehr viel besser sein müßte...

[MK2]Mythos
2016-05-19, 09:25:36
Polaris 10 wird von der Leistung im Bereich einer 390(X) liegen, sich dabei rund 125W genehmigen.
Um die Versprochen Leistungssteigerung im VR Bereich zu bieten, wird AMD ihr Pendant zu Nvidia's SMP vorstellen. Gleichzeitig wird Battlefield 1 als erster Titel angekündigt der diese Technik von Haus aus unterstützt.
Der Preis wird nicht unter 300$ liegen, wahrscheinlicher sind es 349$.

Wie kommt man dazu so selbstsicher planlos ins blaue zu schießen und das so zu formulieren als ob das ein Fakt wäre?

radical83
2016-05-19, 09:40:45
Mythos;11037478']Wie kommt man dazu so selbstsicher planlos ins blaue zu schießen und das so zu formulieren als ob das ein Fakt wäre?

Hier ist doch der Spekulationsthread, oder? Wäre es dir lieber wenn ich ein "ich denke..." oder "ich gehe davon aus..." vor meine Aussage eingefügt hätte?

Des Weiteren schätze ich auch die 1070 nicht so stark ein wie einige andere. Auf ihrem Werkstakt wird sie eine 980ti@stock nicht schlagen, erst mit hoher Übertaktung.

iuno
2016-05-19, 09:41:58
Naja, hier werden mitunter schon auch Fakten gepostet. Wo denn auch sonst?
Allerdings geht aus dem Beitrag schon hervor, dass da nichts handfestes dran ist.

Ob AMD ein Aequivalent zu SMP hat, darf bezweifelt werden. Und BF1 in VR? Naja...

radical83
2016-05-19, 10:04:02
Bei den rund 4K Beiträgen hier im Thread, wie viele enthalten davon tatsächlich einen gegebenen Fakt? 1% ich tippe eher auf deutlich drunter.

Was spricht deiner Ansicht gegen ein SMP ähnliches Verfahren auf den AMD Grafikkarten?
Meiner Meinung dafür spricht, dass AMD explizit angesprochen hat eine hohe Leistung in VR zu erzielen bzw. bezahlbar zu machen. Dies werden die aber nicht durch einen dicken Chip machen, sondern über die Software versuchen.

Das mein Beispiel mit Battlefield aus der Luft gegriffen ist sollte jedem klar sein. Aber auch diese Spielreihe könnte, abseits des neuen Settings, ein Alleinstellungsmerkmal gebrauchen um sich von den restlichen Mitbewerben abzuheben.

Unicous
2016-05-19, 10:13:28
Das ist scheiß egal. Wenn man spekuliert nutzt man üblicherweise den Konjunktiv und nicht den Indikativ um klar die eigene Meinung von Fakten zu unterscheiden. Vllt. lernen das ja einige hier ja doch noch.

iuno
2016-05-19, 10:17:11
Was spricht deiner Ansicht gegen ein SMP ähnliches Verfahren auf den AMD Grafikkarten?
Meiner Meinung dafür spricht, dass AMD explizit angesprochen hat eine hohe Leistung in VR zu erzielen bzw. bezahlbar zu machen. Dies werden die aber nicht durch einen dicken Chip machen, sondern über die Software versuchen.
Das ist im Prinzip genau das Gegenteil von dem, was sie gesagt haben.
Sie haben gesagt, sie wollen den Einstieg fuer VR guenstiger machen, also keine "hohe Leistung in VR erzielen", sondern gerade so genuegend Leistung.

Dagegen spricht imho, dass es [afaik] auf keiner der schoenen Polaris Slides um VR geht, sondern um Displays, Aufloesung, HDR, Effizienz, Multimediafeatures, primitive discard (wohl clipping) und 14 LPP.
Zudem hat AMD bisher dual GPU als Koenigsweg fuer VR angepriesen.
Und nicht zuletzt ist Polaris nun einmal fuer Notebooks und max. Midrange Desktop. Da hat sowieso keiner 3 Monitore und VR.

Und die Begruendung dafuer, dass man imho bisher schon was davon gesehen oder gehoert haette: jetzt wo AMD so auf OS macht, koennte ich mir schon vorstellen, dass sie das mal erwaehnt und gleich mal entsprechendes in LiquidVR gepusht haetten. Dann gaebe es im Gegensatz zu Nvidia puenktlich zum Launch auch mal Demos/Tests und man koennte hier ganz ausserordentlich punkten.

Dino-Fossil
2016-05-19, 10:20:21
und das wißt ihr schon, dass die 1070 das bessere produkt als der p10 ist? an nvidias umgang mit dem kunden ist derart viel auszusetzen, dass die 1070 schon sehr viel besser sein müßte...

Schade nur das nVidias Kunden das anders sehen, denn sonst würden sich nicht so viele für nVidia GPUs entscheiden.

Momentan ist es doch genau anders herum:
Von AMD Karten wird erwartet dass sie entweder bei gleichem Preis deutlich schneller sind, oder bei gleicher Leistung deutlich günstiger (siehe auch Leonidas' Artikel zur Fury Preislage).

MadPenguin
2016-05-19, 10:29:56
Schade nur das nVidias Kunden das anders sehen, denn sonst würden sich nicht so viele für nVidia GPUs entscheiden.

Momentan ist es doch genau anders herum:
Von AMD Karten wird erwartet dass sie entweder bei gleichem Preis deutlich schneller sind, oder bei gleicher Leistung deutlich günstiger (siehe auch Leonidas' Artikel zur Fury Preislage).

Das ist leider durch und durch so: User, Zeitschriften, Blogs, Forums. Bei einem Produkt, wo Gleichstand herrscht, greifen die meisten immer noch zu Nvidia. Wieso? Besseres Image oder eben immer präsente Werbung (OEM Sticker?!).

Auch wenn die neuen Marktanteile im GPU Markte AMD im Aufschwung sehen, muss AMD leider immer ein "besseres" Produkt liefern, um verkauft zu werden. Hofentlich ist es mit DX12 so, dass P10 einfach eine sehr gute Figur machen wird.

igg
2016-05-19, 10:31:20
Wieso? Besseres Image oder eben immer präsente Werbung (OEM Sticker?!).
Treiber

Schnoesel
2016-05-19, 10:38:35
Jap die vor allem:

"Anscheindend kommt Nvidia mit ihrer 364-Treiber-Reihe auf keinen grünen Zweig: Nachdem die Versionen 364.47 und 364.72 schon zu schlimmen Fehlern führten, häufen sich im offiziellen Nvidia-Forum sowie auf Reddit die Berichte, dass die neueste Aktualisierung wieder Abstürze, Probleme mit Windows und Bluescreens verursachen soll."

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Treiber-36451-Probleme-Abstuerze-1189428/

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Treiber-macht-wieder-Probleme-1191146/

etc pp.

Sunrise
2016-05-19, 10:43:04
NV tut sich mit den letzten Treibern wirklich keinen Gefallen.

Besseres Image oder eben immer präsente Werbung (OEM Sticker?!).
NV braucht aktuell weder ein bessers Image, noch müssen sie präsenter sein.

Sie bieten einfach überwiegend, vor allem seit Maxwell die bessere Leistung/Verbrauch/Speicher und AMD hat leider Fiji auch nicht unbedingt geholfen, aber Unmengen an R&D dadrin versenkt. Immer die beste Leistung bietet vor allem nur NV. Das alleine reicht schon vollkommen aus für die Masse. NV setzt den Einstieg (GTX970/GTX1070) dann preislich geschickt so tief an, dass sogar preisbewusstere Käufer dennoch zuschlagen. Dass AMD auch viel zu unaggressiv seit Jahren ist, kommt noch dazu.

Seit RTG kann sich dieses aber drehen, deshalb nicht gleich wieder schwarz malen, sondern Polaris und Vega abwarten.

Da es überwiegend preisbewusste Käufer gibt, setzt AMD genau da (wieder) an. Bei Preisen unter der 1070 dürfte sich Polaris sehr gut verkaufen. Sie müssen aber vor Vega dennoch deutlich enger kalkulieren als NV, die einfach die Preise bestimmen können (siehe wieder die 1080). Die 1070 zeigt ja, dass NV da deutlich tiefer gehen könnte. Nur ohne große Marge kann NV ihre R&D-Kosten wohl nicht halten/vergrößern, und da AMD da auch nichts dagegen setzt, ist es NV gerade Recht.

Dem ganzen aus dem Weg zu gehen und solide Leistung auf 390X-Niveau zu liefern, bei drastisch geringerem Verbrauch ist da schonmal keine schlechte Idee, denn damit muss Polaris nicht zwingend in einen Preiskampf mit NV gehen. Erst Vega wird dann gehörig einen draufsetzen und dann wird es richtig spannend.

Dorn
2016-05-19, 11:00:59
AMD soll auf jeden Fall mal auf die Tube drücken und liefern. Vega kommt genau ein halbes Jahr zu spät wenn man der Roadmap vertrauen darf. nvidia verkauft jetzt schön die schnellen Grafikkarten (1080&1070).

MorPheuZ
2016-05-19, 11:03:11
Wirtschaftlich gesehen ist es doch besser für AMD wenn nv die Preise hoch hält. Das schafft Platz für AMD auch die Preise zu erhöhen und auch die R&D Kosten zu decken.
Sie müssen die Karten nur an den Mann bringen.

Godmode
2016-05-19, 11:04:17
AMD soll auf jeden Fall mal auf die Tube drücken und liefern. Vega kommt genau ein halbes Jahr zu spät wenn man der Roadmap vertrauen darf. nvidia verkauft jetzt schön die schnellen Grafikkarten (1080&1070).

Ich würde auch jetzt gerne schon sehen was Polaris und Vega können, aber da müssen wir einfach noch etwas Geduld haben.

mboeller
2016-05-19, 11:05:22
AMD soll auf jeden Fall mal auf die Tube drücken und liefern. Vega kommt genau ein halbes Jahr zu spät wenn man der Roadmap vertrauen darf. nvidia verkauft jetzt schön die schnellen Grafikkarten (1080&1070).

Nö, HBM2 gibt es halt nicht früher in Serie.

radical83
2016-05-19, 11:07:58
Das ist im Prinzip genau das Gegenteil von dem, was sie gesagt haben.
Sie haben gesagt, sie wollen den Einstieg fuer VR guenstiger machen, also keine "hohe Leistung in VR erzielen", sondern gerade so genuegend Leistung.

Dem kann ich leider nicht ganz folgen. Falls AMD ein ähnliches Leistungsniveau erreicht wie bisher in VR, unabhängig davon ob günstiger oder nicht, wird es über kurz oder lang doch nicht reichen um gegen Nvidia zu konkurrieren. Spätesten wenn eine 1060 mit SMP kommt.
Dies könnte dann meiner Meinung nach eher ein günstiger Einstieg in die VR-Welt sein.


Dagegen spricht imho, dass es [afaik] auf keiner der schoenen Polaris Slides um VR geht, sondern um Displays, Aufloesung, HDR, Effizienz, Multimediafeatures, primitive discard (wohl clipping) und 14 LPP.
Zudem hat AMD bisher dual GPU als Koenigsweg fuer VR angepriesen.
Und nicht zuletzt ist Polaris nun einmal fuer Notebooks und max. Midrange Desktop. Da hat sowieso keiner 3 Monitore und VR.

Und die Begruendung dafuer, dass man imho bisher schon was davon gesehen oder gehoert haette: jetzt wo AMD so auf OS macht, koennte ich mir schon vorstellen, dass sie das mal erwaehnt und gleich mal entsprechendes in LiquidVR gepusht haetten. Dann gaebe es im Gegensatz zu Nvidia puenktlich zum Launch auch mal Demos/Tests und man koennte hier ganz ausserordentlich punkten.

Die Slides geben dir und deiner Argumentation recht. Dem Kann ich nicht widersprechen.
Jedoch, hatte Nvidia SMP vorher großartig angekündigt? Falls ja, dann ist es an mir vorbei gegangen. Afaik haben sie nur angekündigt die Performance in VR nahezu zu verdoppeln, ohne den Weg dorthin genauer zu beschreiben.

Die Dual-Fury als VR-Karte ist für mich ehrlich gesagt nichts mehr als ein Marketingstunt um die (versprochene) Karte überhaupt noch irgendwo positionieren zu können. Aber das ist nur meine Meinung.

iuno
2016-05-19, 11:11:01
Dem kann ich leider nicht ganz folgen. Falls AMD ein ähnliches Leistungsniveau erreicht wie bisher in VR, unabhängig davon ob günstiger oder nicht, wird es über kurz oder lang doch nicht reichen um gegen Nvidia zu konkurrieren. Spätesten wenn eine 1060 mit SMP kommt.
Dies könnte dann meiner Meinung nach eher ein günstiger Einstieg in die VR-Welt sein.
Und dem kann ich jetzt nicht folgen. Ist es ein Naturgesetz, dass AMD in VR schneller sein muss?
Wenn Nvidia mit SMP ein Wurf gelungen ist und sie es mit VRWorks durchgedrueckt bekommen ist es halt so.
Dass eine 1060 mit SMP zwangslaeufig P10 platt macht, ist ja nun auch nicht gegeben. Wenn sie bei der Geometrie 3 ms ggue. P10 einspart aber dafuer 3 ms laenger fuers lighting braucht, ist P10 ja immer noch genauso brauchbar. Und Preise gibt es da auch noch nicht.

Die Slides geben dir und deiner Argumentation recht. Dem Kann ich nicht widersprechen.
Jedoch, hatte Nvidia SMP vorher großartig angekündigt? Falls ja, dann ist es an mir vorbei gegangen. Afaik haben sie nur angekündigt die Performance in VR nahezu zu verdoppeln, ohne den Weg dorthin genauer zu beschreiben.
Ja, beim Editor's day wurde es schon genannt und auch erklaert. Davon abgesehen gab es ja vorher von Nvidia auch nichts, wohingegen AMD quasi seit Dezember am Teasen ist.

Zergra
2016-05-19, 11:16:36
AMD soll auf jeden Fall mal auf die Tube drücken und liefern. Vega kommt genau ein halbes Jahr zu spät wenn man der Roadmap vertrauen darf. nvidia verkauft jetzt schön die schnellen Grafikkarten (1080&1070).
Ach die Verkaufen schon ? Bis jetzt gibt's da noch überhaupt nichts zu kaufen.



Ich würde mir P10 für <300€ kaufen, darüber würde ich noch etwas warten. Eig. brauch ich auch nichts neues, aber naja nach ein paar Jahren möchte man auch mal was aktuelles haben.

samm
2016-05-19, 11:34:25
Ach die Verkaufen schon ? Bis jetzt gibt's da noch überhaupt nichts zu kaufen.Na klar, schöne Referenzdesigns an die "Founders" :biggrin:

iuno
2016-05-19, 11:38:28
Geht ihr schon auch davon aus, dass P11 vom Start weg auch direkt in den Desktop kommt oder denkt ihr die Stueckzahlen sind so knapp dass es den erstmal nur fuer Notebooks gibt?
Haette einen Interessenten, der wollte schon eine 750 Ti fuer 150 € kaufen. Habe dann fuer den Preis zu einer 950 geraten, mit dem Verweis dass ich den Monat noch abwarten und schauen wuerde...

Dorn
2016-05-19, 11:42:43
Nö, HBM2 gibt es halt nicht früher in Serie.
Dafür ist wohl AMD leider zu klein geworden, das noch ein GDDR5X Interface dazwischen geschoben wird, sei es in Polaris oder Vega.

Ach die Verkaufen schon ? Bis jetzt gibt's da noch überhaupt nichts zu kaufen.
1080 27. Mai; 1070 10. Juni ist quasi jetzt für mich :tongue:

radical83
2016-05-19, 11:44:55
Ist es ein Naturgesetz, dass AMD in VR schneller sein muss?


Natürlich nicht. Aber gerade AMD hat doch damit zu kämpfen das deren Hardware:
a) bei gleicher Leistung, günstiger sein muss...
b) bei gleichem Preis, mehr Leistung bieten muss..

um ihre Hardware an den Mann zu bringen.

Nur wie möchte AMD dies erreichen falls Nvidia's SMP bei den Entwicklern auf gute Resonanz stößt? Im Vergleich zu den bisherigen Gameworks Sachen, sehe ich in SMP sogar tatsächlich Vorteile sofern Nvidia seine Versprechen war macht.

Der Editors Day liegt doch auch erst gerade einmal 2 Wochen zurück.
AMD könnte vielleicht auch bis zum Release warten um dann möglicherweise eine Demo zu präsentieren, anstatt vereinzelter Balkendiagramme.

Gorkon
2016-05-19, 11:49:53
Geht ihr schon auch davon aus, dass P11 vom Start weg auch direkt in den Desktop kommt oder denkt ihr die Stueckzahlen sind so knapp dass es den erstmal nur fuer Notebooks gibt?
Haette einen Interessenten, der wollte schon eine 750 Ti fuer 150 € kaufen. Habe dann fuer den Preis zu einer 950 geraten, mit dem Verweis dass ich den Monat noch abwarten und schauen wuerde...
Also wenn P11 wirklich nur zwischen 120-150mm² liegt, müsste die Ausbeute ja grandios schlecht sein wenn es nur für Notebooks reichen würde.

tm0975
2016-05-19, 11:50:46
Na klar, schöne Referenzdesigns an die "Founders" :biggrin:

das ist schon ein hammer, dass sie sich das überhaupt trauen, mal eben einen satten aufschlag drauf zu packen und mit den empfohlenen preisen für die custom modelle so zu tun, als ob die neuen sachen günstig wären. aber dass das immer noch leute toll finden, ist schon ein wenig abenteuerlich.

Also wenn P11 wirklich nur zwischen 120-150mm² liegt, müsste die Ausbeute ja grandios schlecht sein wenn es nur für Notebooks reichen würde.
seit wann ist denn die ausbeute allein dafür verantwortlich. wir wissen nicht, wieviele wafer glofo liefern kann. die notebooks werden zweifelsohne prio haben. und wenn da apple und co auf einmal mehr ordern, wird amd diese zuerst beliefern und nicht die desktop-modelle priorisieren. marktanteil geht zuuallererst über die OEMS und das notebook-segment.

iuno
2016-05-19, 11:51:10
Natürlich nicht. Aber gerade AMD hat doch damit zu kämpfen das deren Hardware:
a) bei gleicher Leistung, günstiger sein muss...
b) bei gleichem Preis, mehr Leistung bieten muss..
Naja sie haben ja schon angedeutet, teils ueber den Preis zu gehen. Die Strategie zielt ja auch jetzt klar darauf, Marktanteile zu gewinnen, das geht sowieso nicht anders.

AMD könnte vielleicht auch bis zum Release warten um dann möglicherweise eine Demo zu präsentieren, anstatt vereinzelter Balkendiagramme.
Klar koennten sie das machen, ich halte es aber nicht fuer besonders wahrscheinlich. Warum habe ich ja jetzt schon dargelegt.

-/\-CruNcher-/\-
2016-05-19, 12:00:48
AMD muss nur ein ausbalanciertes Produkt abliefern mit Polaris und das gegen die 1070 ins rennen schicken schon sind sie am Lächeln und wenn man die Daten sieht könnte es diesmal tatsächlich klappen auch Nvidias reaktion deutet daraufhin immerhin war es Nvidia die das was AMD mit Polaris macht schon bei Maxwell mit Maxwell 1.0 abgezogen haben und damit konnten sie sich erstmal ne Menge user sichern ;)

Aber so eine Karte wie die GTX 750 wird nicht ausreichen, sie müssen mit einer höher ansetzen auch die x60 anzugreifen könnte sogar noch funktionieren ist aber risky da Nvidia eindeutig die x70 reihe seit Maxwell zu ihrem neuen Balance Produkt gehieft hat weg von der x60 auch wenn es eigentlich die x60 ist.

Wenn die AMD Marketinger das verstandend haben und sich nach Fury intern darauf konzentrieren stehen die Chancen verdammt gut ordentlich Marktanteile zu sichern ;)

radical83
2016-05-19, 12:04:45
AMD könnte auch bewusst "die Füße stillhalten" um nicht wieder so etwas wie mit Mantle zu erleben, wo es über Monate hinweg kaum etwas vorzeigbares gab und am Ende die (überhöhte) Erwartungshaltung nicht erfüllt werden konnte.

Menace
2016-05-19, 12:15:36
AMD könnte auch bewusst "die Füße stillhalten" um nicht wieder so etwas wie mit Mantle zu erleben, wo es über Monate hinweg kaum etwas vorzeigbares gab und am Ende die (überhöhte) Erwartungshaltung nicht erfüllt werden konnte.

Nein, da widerspreche ich. Mantle hat seinen Zweck schon (mehr als) erfüllt. Aber nvidia war da fix und hat seine entsprechenden DX11 Treiber ordentlich angepasst. Und es führte letztlich zu Vulkan (wobei ich den Eindruck habe, dass seit Mantle im Vulkan steckt, die Entwicklungsgeschwindigkeit wieder massiv abgenommen hat :confused: ).

Der Vorteil von Mantle wurde nur in wenig Medien auch richtig kommuniziert (pcgh war imho davon eine). Der Vorteil lag vor allem bei schwächerer single-CPU-Leistung.

Complicated
2016-05-19, 12:22:19
Vega kommt genau ein halbes Jahr zu spät wenn man der Roadmap vertrauen darf. nvidia verkauft jetzt schön die schnellen Grafikkarten (1080&1070).Auf welcher Roadmap war Vega denn vor Ende 2016/Anfang 2017 eingezeichnet?:confused:

Dino-Fossil
2016-05-19, 12:40:45
Ich denke, er meint eher das Vega gegenüber GP102 GP104 ein halbes Jahr zu spät kommt.

Allerdings wissen wir auch noch nicht wie stark Vega sein wird. Unter Umständen ein gutes Stück schneller als GP102 und damit ein potentiell interessanteres Upgrade für Leute, die bereits auf einer 980Ti/Fury sitzen.

radical83
2016-05-19, 12:42:42
Mantle hat seinen Zweck schon (mehr als) erfüllt.

Das kommt sicherlich auf die Sichtweise an.

Es ist AMD natürlich hoch anzurechnen, dass sie durch Mantle die API in den Fokus gerückt haben um aufzuzeigen, dass auch dort noch Potential für Optimierungen vorhanden sind.
Jedoch bis zum heutigen Tage gibt es nur davon wenig Resultate zusehen(wie du schon selbst mit deiner Aussage zu Vulkan bestätigst).

Mantle hat etwas in Gang gebracht, ob es jedoch was verändert/verbessert hat darüber kann man sich sicherlich streiten.

Sorry für das OT.

uweskw
2016-05-19, 13:00:38
Wenn AMD sich clever anstellt bringen sie Polaris für 299USD, sparsam und leise mit 390X Performance aber OC- Potential bis 980Ti Niveau.

greetz
US

robbitop
2016-05-19, 13:13:09
Ich denke, er meint eher das Vega gegenüber GP102 ein halbes Jahr zu spät kommt.

Allerdings wissen wir auch noch nicht wie stark Vega sein wird. Unter Umständen ein gutes Stück schneller als GP102 und damit ein potentiell interessanteres Upgrade für Leute, die bereits auf einer 980Ti/Fury sitzen.
Wenn es denn überhaupt einen GP102 gibt...
GP100 als Titan und spätere 1080Ti ist nicht unbedingt unwahrscheinlich, sobald HBM2 etwas gereift ist.

Ich könnte mir sogar noch eine Art GP200 Zwischenschieber (analog zu GM200) vorstellen. Eine ~600 mm² GPU in 16FF vor 10FF Produkten, welche jegliches "Compute Ballast" über Board wirft und mehr Recheneinheiten verbaut als GP100.

Nakai
2016-05-19, 13:16:56
Wenn es denn überhaupt einen GP102 gibt...
GP100 als Titan und spätere 1080Ti ist nicht unbedingt unwahrscheinlich, sobald HBM2 etwas gereift ist.

Ich könnte mir sogar noch eine Art GP200 Zwischenschieber (analog zu GM200) vorstellen. Eine ~600 mm² GPU in 16FF vor 10FF Produkten, welche jegliches "Compute Ballast" über Board wirft und mehr Recheneinheiten verbaut als GP100.

GP100 braucht auf jeden Fall einen Respin oder sogar eine neue Auflage.
Die TDP ist riesig und der Takt ist niedrig. Ergo reinher von der FP32-Leistung, kommt ein GP104-OC schon sehr nah an GP100 ran. Einzig die Bandbreite stört.

Ich glaube an einen GP102 ohne NVLink, mit einer ähnlichen Config, wie GP100, aber ohne den ganzen Ballast (evtl MixedPrecision, 64SP SMs, etc...).

Dino-Fossil
2016-05-19, 13:30:11
Wenn es denn überhaupt einen GP102 gibt...


Sorry, mein Fehler, ich meinte GP104...

robbitop
2016-05-19, 14:43:57
Lass den Prozess noch ein wenig reifen und einen Metal Spin passieren. Das brachte schon häufig genug einen nicht unerheblichen Fortschritt in Sachen Takt und TDP.
Gerade bei einem 610 mm² Chip ist Prozessreife kritisch.

MadPenguin
2016-05-19, 14:48:33
Treiber

Ich bin normalerweise nicht so direkt, aber so ein Blödsinn!! Treiber sind in den letzten Monaten einfach nur sehr gut.

-/\-CruNcher-/\-
2016-05-19, 15:52:45
Sagen wir sehr viel besser geworden darauf kann man sch durchaus einigen ;)