Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
Dass einzelne Fijis so günstig geworden sind könnte auch auf Lagerleerungen hindeuten - manche Hersteller haben eben mehr auf Lager als andere.
Sollte Polaris 10 wirklich auch Fiji ersetzen, ist der einfach echt hoch getaktet. Vielleicht gibts da ja auch 3 Varianten, zwei normale und eine sehr hoch getaktete mit hoher TDP.
Das habe ich mir auch schon gedacht. mglw. wird P10 in der groessten Karte ja derart hochgepruegelt, dass er schon wieder an die 300 W kommt :ugly:. Ansonsten ist die Pro Duo/W9300x2 auch kaum zu erklaeren, so kurz vor dem (angeblichen) Launch des - angeblich - direkten Nachfolgers.
Demnach haette P10 keinen Effizienz- sondern nur noch den Speichervorteil ggue. Fiji.
Das koennte aber auch eine Reaktion auf GP104 sein. Wir werden sehen, was davon stimmt ;)
Nightspider
2016-04-21, 09:43:28
Oder AMD schlägt echt 2 Fliegen mit einer Klappe
Bringt AMD Fiji mit HBM-2 durch einen Vertrag mit Hynics und selektiert die Chips inkl. 1,15 Ghz sollte man knapp mit GTX 1080 mithalten können, ebenso 8GB Speicher und eben nicht bandbreitenlimitiert.
Außer in stark auf CGN optimierten Spielen wird die GTX1080 wahrscheinlich Runden um Fiji drehen. Erst recht übertaktet. ^^
Da würd ich nicht unbedingt von ausgehen. MMn ist GP104 kaum schneller als GM200, nur eben mit deutlich niedrigerer TDP und deutlich günstigeren Produktionskosten.
Hübie
2016-04-21, 10:15:49
Viel mehr ALUs als GM200 dürfte GP104 auch gar nicht haben. Aber es ist momentan immer noch Fakt, dass die GM200 in einem Großteil der Spiele am Markt Fiji schlägt. Wer was anderes sagt hat eine verschobene Wahrnehmung.
Ob es letztlich an der API oder dem Treiber liegt sei dahin gestellt. Interessiert den Endanwender idR nicht. Und ein sauber performendes DX12-Game gibt es offenbar auch noch nicht.
Nightspider
2016-04-21, 10:30:44
So siehts aus. Es gibt noch diverse Games wo eine GTX980ti schon mal 30% oder mehr vor einer Fury X liegt mit OC, wie in Watch Dogs, GTA5 usw. also Games die ich auch nochmal zocken möchte.
Wenn eine GTX1080 auch nur 20% schneller ist als eine 980ti, mit OC vllt 30-40% dann kann die FuryX einpacken.
Das Bild wendet sich zwar langsam aber bis AMD fast immer dominiert (in der Optimierung durch die Spieleentwickler) gibts eh schon AMDs Vega und dann kann man immernoch wechseln.
"damit den Boden wischen" würd ich aber anders definieren.
mboeller
2016-04-21, 10:44:47
Hier die ursprüngliche Quelle ... nämlich AMD selbst ... so schwer ist das doch nicht, Videocardz :mad:
http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI0NjU4fENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635918349639602935
Danke!
Also kein Rebranding wie es uns die Gerüchteküche noch vor kurzem weiß machen wollte. Polaris 10/11 decken vom Lowend bis Highend alles ab.
Nein
Oder glaubst du, AMD setzt Polaris ab, sobald Vega da ist? Deckt doch auch von oben bis unten alles ab...
Complicated
2016-04-21, 12:06:51
Klingt wie ein Kuriosum, muss es aber nicht sein.
Denn auf Folie 5 steht nicht umsonst "Computing and Graphics Roadmap 2016"
Das kann auch heißen, dass GPU-Computing 2016 schon mit HBM2 kommt. Aber auf den Gamingmarkt geworfen wird das Zeug dann 2017.
So was ähnliches, wie NV mit GP100 fährt.
Nur eben nicht mit einer reinen Compute-Karte.
Ist denkbar. Also klingt fuer mich sehr schluessig.
Für mich ist das eher nicht schlüßig, da sich das Computing in der Überschrift ganz sicher auf die CPUs bezieht. Unter Graphics ist auch GPGPU-Computing.
Complicated
2016-04-21, 12:09:38
Nein
Oder glaubst du, AMD setzt Polaris ab, sobald Vega da ist? Deckt doch auch von oben bis unten alles ab...
Ja ich halte das auch für eine falsche Interpretation der Folie. Die ja eigentlich nur die Neuerungen der Produktgruppen darstellt.
victore99
2016-04-21, 13:19:24
Für mich ist das eher nicht schlüßig, da sich das Computing in der Überschrift ganz sicher auf die CPUs bezieht. Unter Graphics ist auch GPGPU-Computing.
Wenn man eine "AMD Graphics Roadmap" macht, dann ist das allgemein.
Und mit "Computing and Graphics" auf der zweiten Roadmap kann auch gemeint sein: Computing using Graphics.
Und ne andere Auslegung.. Mir fällt keine auf.
Bei Vega und Navi ist doch absichtlich alles offen gelassen worden, aber dass Polaris alles bisherige ersetzen soll ist schon sehr eindeutig dargestellt.
Sunrise
2016-04-21, 14:58:52
Dass Polaris so ziemlich alles ersetzen wird ist doch bereits durch Polaris 11 und 10 deutlich, mit den unterschiedlichen TDP-Ranges von ca. 50W bis hoch zu etwa 130W.
Also sowohl für Notebooks, Konsolen als auch für Desktops.
Was ist daran jetzt neu? Nur weil ihr da eine neue Folie seht?
Neu ist, dass die Furys offenbar ebenfalls ersetzt werden sollen. Wobei ich das verstehe, selbst wenn man 200W+ TDP für eine 3. P10-Variante braucht um diese Leistung zu erreichen muss man das aus Kostengründen eigentlich sogar machen.
Ja, genau.
Das ist doch kein Argument. Nur weil Bonaire und Hawaii mit GCN Gen.2 komplett unterschiedliche TDPs haben, hat man trotzdem nicht das ganze Lineup ersetzt. Oder Fiji und Tonga mit Gen 3.
Konsolen sind sowieso Custom, dazu noch APUs, das hat mit den dGPUs mal gar nichts zu tun. Weder den Grafikteil in der X1 noch der PS4 gab es vorher oder nachher irgendwo sonst.
Eine Bestätigung ist das aber wie gesagt immer noch nicht. P10 muss sich erstmal so hoch pushen lassen und dann wird das wohl auch nur mit GDDR5X was. Wir sprechen ja hier von Fury X Niveau, nicht nur dem der Nano oder Fury.
Mir wuerde es natuerlich gefallen, realistisch finde ich das aber nicht.
Hübie
2016-04-21, 15:47:31
Also ich sehe Polaris eher bei R9 390X oder Fury Nano. Spekuliert werden 2560 ALUs. Wenn du die gut auslastest kommst du auf Fury mit ~1 GHz.
Sunrise
2016-04-21, 15:56:11
Also ich sehe Polaris eher bei R9 390X oder Fury Nano. Spekuliert werden 2560 ALUs. Wenn du die gut auslastest kommst du auf Fury mit ~1 GHz.
Genau so sehe ich das mit Polaris 10 auch, Polaris 11 natürlich darunter.
Fury X-Niveau kann ich mir nicht vorstellen, aber da AMD hier ordentlich bei den Produktionskosten runter kann und $499 wohl eine gute Orientierung für eine große Polaris wäre (Fury nano Preisniveau), hat AMD am Ende deutlich mehr Marge und man kann Fiji endlich ablösen, denn das Ding ist alles andere nur nicht durchdacht.
600mm² Die, 4096bit Interface und HBM1 -> 250mm², 256bit Interface und GDDR5 - wenn das mal kein Schritt wäre, der AMD wieder ordentlich Marge bringt, was dann.
GDDR5X wäre sicher noch besser, nur wären die teurer und anfangs schlechter verfügbar und AMD will ja 8GB VRAM für einen guten Preis anbieten, bei dem viele kaufen werden. Sowas wäre also optimal.
Das sind zumindest meine Erwartungen von Polaris.
uweskw
2016-04-21, 16:18:25
Also ich sehe Polaris eher bei R9 390X oder Fury Nano. Spekuliert werden 2560 ALUs. Wenn du die gut auslastest kommst du auf Fury mit ~1 GHz.
Wer sagt denn dass Polaris sich genau so bescheiden Takten lässt wie die beiden?
Wenn AMD dazu gelern hat und Polaris bei angemessenem Verbrauch auf 1200-1300MHz geht, sähe das doch schon mal richtig gut aus.
greetz
US
Sunrise
2016-04-21, 16:34:19
Wer sagt denn dass Polaris sich genau so bescheiden Takten lässt wie die beiden?
Wenn AMD dazu gelern hat und Polaris bei angemessenem Verbrauch auf 1200-1300MHz geht, sähe das doch schon mal richtig gut aus.
greetz
US
Hübie und ich reden von Default-Taktraten out-of-the-box bei derzeit etwa vermuteten 1050-1150MHz.
Alles andere würde evtl. die Kühlung der Referenz strapazieren und die Karten teurer machen (müssen wir abwarten) und da gäbe es, sofern AMD da auf die TDP stark geachtet hat - sicher noch etwas Spielraum nach oben.
Alles andere würde evtl. die Kühlung der Referenz strapazieren und die Karten teurer machen
Also das ist doch nun wirklich voellig egal. Wenn das Teil wirklich eine Variante hat, die bis zur Fury X reichen soll (was ja imho ein Muss ist, wenn man von komplettem Ersatz spricht), bekommt die dann halt wieder Wasser spendiert.
Fraglich ist eher, ob P10 das wirklich mitmacht. Kann mir das auch schwerlich vorstellen und stelle es mir auch ehrlich gesagt grausam vor. Bei Hawaii hat man gesehen, was einem kleinen Chip mit hoher TDP passiert, hier waere das vermutlich ja noch extremer.
Hübie
2016-04-21, 17:04:12
Wer sagt denn dass Polaris sich genau so bescheiden Takten lässt wie die beiden?
Wenn AMD dazu gelern hat und Polaris bei angemessenem Verbrauch auf 1200-1300MHz geht, sähe das doch schon mal richtig gut aus.
greetz
US
Wer sagt das Gegenteil? Ist genau so eine berechtigte Frage wie deine. Nennen wir es Intuition. :)
AMD hat eine andere Philosophie und Strategie. Also warum dann kein anderen Designansatz als Jensen's Truppe?
[MK2]Mythos
2016-04-21, 17:32:21
Davon abgesehen wird Polaris eh durch die verhältnismäßig geringe Speicherbandbreite ausgebremst werden.
Sunrise
2016-04-21, 17:44:06
Also das ist doch nun wirklich voellig egal. Wenn das Teil wirklich eine Variante hat, die bis zur Fury X reichen soll (was ja imho ein Muss ist, wenn man von komplettem Ersatz spricht), bekommt die dann halt wieder Wasser spendiert.
Deshalb schreib ich ja, dass das eine kompakte, effiziente Kühlung mit Luft wohl strapazieen würde und so eine Wakü ist immer teurer als ein einfacher Luftkühler, der wohl meist nur einen niedrigen zweistelligen Betrag kostet. Auf das Wakü-Theater bei Fiji hat man sicher keine Lust mehr, was ich auch verstehen kann. Macht den Preis jetzt auch nicht besser, zusätzlich zur aufwändigen Chipkonstruktion mit HBM.
Ich denke das Designziel bei Polaris ist gänzlich auf kompakte Karten und niedrigere TDP ausgelegt, weil AMD auch gemerkt hat, dass die nano wirklich super ankam.
Was die Partner machen, wird Ihnen ja evtl. offen gelassen, was wieder etwas Spielraum lässt, aber ich meine explizit eben die Referenzkarten von AMD und alle Karten, die darauf basieren.
Ist doch spitze, wenn AMD das tatsächlich so macht, dann haben alle was davon, die in diesem Bereich (die meisten der Käufer) interessiert sind.
Mythos;11009668']Davon abgesehen wird Polaris eh durch die verhältnismäßig geringe Speicherbandbreite ausgebremst werden.
Vermutlich nicht, wenn der neue MC GDDR5X kann. Allerdings kommt 5X mit 12 Gbps auch erst spaeter, erstmal sind es nur 10, waere also dieselbe Bandbreite, die Hawaii hatte, mit dem effizienterem Umgang kaeme das vermutlich schon hin.
Dass es auch bei P10 drei Varianten geben koennte, wurde ja auch schon haeufiger spekuliert. PRO, XT auf Effizienz und XTX mit etwas Gewalt und GDDR5X. Ich bleibe jetzt mal bei "XTX", ist einfacher.
Ich denke das Designziel bei Polaris ist gänzlich auf kompakte Karten und niedrigere TDP ausgelegt, weil AMD auch gemerkt hat, dass die nano wirklich super ankam.
Was die Partner machen, wird Ihnen ja evtl. offen gelassen, was wieder etwas Spielraum lässt, aber ich meine explizit eben die Referenzkarten von AMD und alle Karten, die darauf basieren.
Dann sehe ich aber nicht, wie man an Fiji XT ran kommen soll.
Wenn AMD mit P10 Richtung Fury X gehen will, wird man das nicht allein den Partnern ueberlassen. Den Chip mit so viel Reserven immer gleich billig zu verkaufen, macht doch keinen Sinn. Vorher bringen sie den wirklich als "XTX" und verkaufen den auch teurer an die Partner. Dann muss es aber natuerlich auch ein Ref.Design geben, mit GDDR5X und evtl. Wakue.
Davon muessen sie ja nicht viele Modelle verkaufen, aber ohne Referenz macht keinen Sinn. Die Pro Duo kauft doch auch keiner und dafuer wurde auch eine neue Wakue aufgelegt.
Sunrise
2016-04-21, 20:27:50
...Dann sehe ich aber nicht, wie man an Fiji XT ran kommen soll.
Ich sehe gerade meinen Fehler, ich schrieb Fury X meinte aber die Fury, die ja schon einen ordentlich fetten Kühler bekommen hatte. Solange aber wenigstens die Referenz auf nano-Level spielt, und AMD dann von mir aus noch eine ausgereiztere Karte als X-Version rausbringt, passt es, aber ob man dazu unbedingt Wakü benötigt weiß ich nicht, ist halt ein ziemlich kleiner Die dieses Mal.
Spasstiger
2016-04-21, 21:55:37
Hier wird mal wieder viel zu viel in die Folie zur AMD-Roadmap interpretiert.
Ich lese hier nur raus, dass es 2016 zwei neue GPUs in unterschiedlichen Performancesegmenten geben wird. Dass Fiji ersetzt wird, kann ich nicht rauslesen.
Um mit Polaris 10 auf Fiji-XT-Niveau zu kommen, muss schon alles zusammenpassen (Recheneffizienz/Auslastung, Takt, GDDR5X).
Nakai
2016-04-21, 23:39:41
AMD schraubt diesmal stark am Frontend und Backend. Das waren beides Punkte in denen NV stark überlegen war/ist.
Ich kann trotzdem keinen P10 mit ~2560 SPs auf Fiji-Niveau sehen. Es sollen sowieso zwischen Fiji und Tonga alles mit P10 bedient werden und unterhalb von Tonga (bis aufs Lowend).
€:
Hier wird mal wieder viel zu viel in die Folie zur AMD-Roadmap interpretiert.
Ich lese hier nur raus, dass es 2016 zwei neue GPUs in unterschiedlichen Performancesegmenten geben wird. Dass Fiji ersetzt wird, kann ich nicht rauslesen.
Full Ack!
Evtl kommt ja Polaris noch in die R300-Serie hinein?
horn 12
2016-04-21, 23:42:38
@Nakai
Somit bleibt Fiji, sprich Fury und Fury X erhalten und erfährt noch ein Update bis Vega kommt.
Was kannst bitte dazu noch preisgeben, bzw. aussagen?
dildo4u
2016-04-21, 23:56:56
Laut dem Bericht bringt Polaris nur 2X Performance per Watt nicht 2.5 wie auf der alten Folie.
http://phx.corporate-ir.net/External.File?t=1&item=VHlwZT0yfFBhcmVudElEPTUyMjMwODZ8Q2hpbGRJRD02MzAyNTQ=
Kartenlehrling
2016-04-21, 23:57:33
Es ist ja keine ausführlich Roadmap,
und was ist Next Gen Memory ... ich dachte das wär HBM2?!!
Der_Korken
2016-04-22, 00:02:43
So unerreichbar ist Fury X Niveau eigentlich nicht. Man darf sich nicht zu sehr an den massiven 4096SPs hochziehen, sondern sollte lieber von Hawaii aus schauen. Die Fury X ist in realen Benches oft nur 30% schneller als eine 390 mit 2560SPs und 1000Mhz. Allein der Takt von 1150Mhz wären schon 15% Mehrleistung. Wenn sich die "IPC" der SPs um 13% erhöht, hätte man die 30% Mehrleistung gegenüber Hawaii Pro schon drin. Das dürfte ein kleinerer Sprung sein als von Kepler zu Maxwell.
Der einzige Knackpunkt würde wirklich die Speicherbandbreite sein, wenn AMD komplett auf GDDR5X verzichtet. Ich kann mir aber nicht vorstellen, dass AMD das bei der Planung nicht bedacht hat und GDDR5X komplett gestrichen hat, nur weil der Speicher vielleicht erst 1-2 Monate später verfügbar ist als der Chip. Man würde unnötigerweise den eigenen Chip unter Wert verkaufen, weil er vom langsamen Speicher eingebremst wird.
Edit:
Laut dem Bericht bringt Polaris nur 2X Performance per Watt nicht 2.5 wie auf der alten Folie.
Die Frage ist natürlich 2x im Vergleich zu was. Fiji ist durch den HBM-Speicher ne Ecke energieeffizienter als Hawaii, die Nano sogar deutlich. Zwischen der effizientesten und ineffizientesten "current generation" Karte liegen locker mal 50%.
Nakai
2016-04-22, 00:05:52
Laut dem Bericht bringt Polaris nur 2X Performance per Watt nicht 2.5 wie auf der alten Folie.
http://phx.corporate-ir.net/External.File?t=1&item=VHlwZT0yfFBhcmVudElEPTUyMjMwODZ8Q2hpbGRJRD02MzAyNTQ=
2,5x würde ich wirklich nur für spezielle SKUs ansehen. 2,0x sollten aber drin sein.
horn 12
2016-04-22, 00:10:04
Dafür auch der Fiji Mini-Refresh und darunter die sparsamen Karten mit eben enormer Effizienz und das Fiji Update mit HBM-2 Speicher für selben Preis wie Fury X derzeit.
AMD kann auf GDDR5X einen lassen, hat man doch Hynics im Boot!
Kartenlehrling
2016-04-22, 00:17:20
Es wird kein Fiji Refresh, Update, HBM2+ oder horn12/18 geben !!!
Wie gesagt geht das nur Fiji zu ersetzen, wenn man den Takt hoch genug bekommt (1,5GHz+). Wenn das geht, wird man Fiji definitiv so früh wie möglich ersetzen. Speicher wird schon passen, AMD hat massiv das I/O-Zeug und die Kompression auf Polaris überarbeitet. Speicher wär sicherlich kaum ein Problem.
Und ich sehe nicht, dass diese Folie Interpretationsspielraum lässt. Das sieht sogar eher so aus, als wenn man die komplette 300er-Generation von Bonaire bis Hawaii ausmustern möchte und die Furys ebenfalls. Das wäre mit 5-6 Chips aus den beiden Polaris-Varianten sicherlich auch drin. Bei Fiji gibts nur die Unbekannte, wieviel Takt möglich ist, sonst nichts.
Locuza
2016-04-22, 00:35:46
AMD demonstrated its "Polaris" 10 and 11 next-generation GPUs, with Polaris 11 targeting the notebook market and "Polaris" 10 aimed at the mainstream desktop and high-end gaming notebook segment.
http://www.computerbase.de/2016-04/quartalszahlen-amd-aktie-im-hoehenflug-nach-bekanntgabe-von-server-deal/
horn 12
2016-04-22, 00:39:05
Nun, AMD will eine eigene GTX 970 erschaffen mit vollem Speicher, Effizienz getrimmt und eben gutem P/L Verhältnis
Für 4K sieht Polaris KEIN Land und da wird Fiji eben aushelfen müssen bis Vega 10 spruchreif ist.
So wie Fiji in den meisten Spielen performt waeren 1,5 GHz imho nicht noetig, aber was in die Richtung 1,3+ sicher. Mit dem Takt skaliert die Performance deutlich besser als mehr CUs, vor allem bei Fiji wenn man das mit Hawaii vergleicht. Die 45% werden eigentlich in keinem Spiel gemacht. Zudem faengt man natuerlich auch den Fall ab, wo Fiji Speicher fehlt.
http://www.computerbase.de/2016-04/quartalszahlen-amd-aktie-im-hoehenflug-nach-bekanntgabe-von-server-deal/
Toll, wie sie das Zitat voellig ohne Zusammenhang und Quelle bringen. Wer hat das gesagt?
Wenn das eine offizielle Aussage war, ist es wohl klar. Mainstream loest keine Fury ab. P11 dagegen sollte imho auch im Desktop kommen.
Locuza
2016-04-22, 00:58:01
Steht doch da wer das gesagt hat:
Quelle: AMD
Huehuehue
Es steht in der Pressemeldung für das erste Quartal 2016:
http://gpu.news/amd-reports-2016-first-quarter-results/
Übrigens hier der ganze Absatz zitiert:
AMD demonstrated its “Polaris” 10 and 11 next-generation GPUs, with Polaris 11 targeting the notebook market and “Polaris” 10 aimed at the mainstream desktop and high-end gaming notebook segment. “Polaris” architecture-based GPUs are expected to deliver a 2x performance per watt improvement over current generation products and are designed for intensive workloads including 4K video playback and virtual reality (VR).
Nakai
2016-04-22, 01:02:34
http://www.computerbase.de/2016-04/quartalszahlen-amd-aktie-im-hoehenflug-nach-bekanntgabe-von-server-deal/
Das finale Lineup wird erst mit Vega10/11 komplementiert. Polaris10/11 sind eher die Capeverde und Pitcairn dieser Generation. Vega10/11 werden Hawaii und Tahiti (evtl auch andersherum). Ich denke wir sehen keinen absoluten Lowend-Chip in dieser Gen, ähnlich Oland. Das machen die APUs diesmal.
Wenn wir die finale Performance von P10 sehen, dann sehen wir, wie sich Vega10 mit 4096 SPs schlagen wird. Außerdem sehen wir die Skalierung von P11 auf P10. P10 ~ Hawaii und guter Skalierung auf V10 (Greenland). Derzeit ist Fiji ein Skalierungsopfer. Fiji done right!
Ich denke Fiji-Salvage wird sich mit GP104 anlegen. Einen direkten GP104 Gegner sehe ich nun nicht in AMDs Lineup.
€: Fiji liegt oft bei nur ~20% vor Hawaii. Das ist ein Witz. 40% wären typisch. Und selbst Hawaii ist auch kein Skalierungswunder.
horn 12
2016-04-22, 01:06:26
@Nakai
Und einen Fiji Refresh ebensowenig?
Sprich 8GB HBM(2) Speicher mit höherem Takt bis Vega kommt...
Ob dies der Wahrheit entsprechen muss?
http://hexus.net/tech/news/ram/91100-sk-hynix-schedules-4gb-hbm2-mass-production-q3-year/
Oder aber AMD einen anderen Weg gefunden hat Fiji noch ein wenig am Leben zu erhalten.
Die hohe Anzahl an 4096 Shader werden wohl von Game zu Game wichtiger werden.
Nakai
2016-04-22, 01:07:41
@Nakai
Und einen Fiji Refresh ebensowenig?
Sprich 8GB HBM(2) Speicher mit höherem Takt bis Vega kommt...
Wär zwar witzig zu sehen, aber Fiji ist ein Pipecleaner. Ich glaube nicht an eine zusätzliche Auflage.
reaperrr
2016-04-22, 01:29:34
@Nakai
Und einen Fiji Refresh ebensowenig?
Sprich 8GB HBM(2) Speicher mit höherem Takt bis Vega kommt...
Forget it.
Ein Problem mit HBM2 ist neben den Produktionsverzögerungen, dass die erhöhte Kapazität pro Schicht gegenüber HBM1 durch eine fast verdoppelte(!) Fläche erkauft wurde.
Man könnte also allein schon aus Platzgründen nicht einfach HBM2 statt HBM1 verbauen, sondern bräuchte auch noch einen neuen Interposer. Zu viel Aufwand für einen so mäßig ausbalancierten Chip wie Fiji.
Wie gesagt geht das nur Fiji zu ersetzen, wenn man den Takt hoch genug bekommt (1,5GHz+).
Warum?
Fury X wird vielleicht eng, aber Fury und Nano liegen je nach Spiel nur 10-15% vor der 390X. Und für die Leistung der 390X bräuchte man bei 40 CUs selbst ohne Architektur-Verbesserungen nur ~1125MHz, da Takt wichtiger ist als CUs.
Bei 40CUs, 64 ROPs @ 1150 MHz und ~10% durch Architekturverbesserungen wären wir schon auf Fury/Nano-Level, in der Mainstream-Auflösung 1080p vielleicht sogar knapp drüber.
X.Perry_Mental
2016-04-22, 09:47:51
Steht doch da wer das gesagt hat:
Huehuehue
Es steht in der Pressemeldung für das erste Quartal 2016:
http://gpu.news/amd-reports-2016-first-quarter-results/
Übrigens hier der ganze Absatz zitiert:
AMD demonstrated its “Polaris” 10 and 11 next-generation GPUs, with Polaris 11 targeting the notebook market and “Polaris” 10 aimed at the mainstream desktop and high-end gaming notebook segment. “Polaris” architecture-based GPUs are expected to deliver a 2x performance per watt improvement over current generation products and are designed for intensive workloads including 4K video playback and virtual reality (VR).
Bemerkenswert an dem Absatz finde ich vor allem den Passus "“Polaris” 10 aimed at the mainstream desktop and high-end gaming notebook segment."
Ich würde nach dieser Einordnung dann nicht mehr davon ausgehen, dass Polaris10 im Bereich zwischen 390X und Fiji liegen könnte.
Grüße: Perry
GM204/GTX 980 ist auch "high-end gaming notebook segment", und liegt in den meisten Spielen genau in diesem Bereich.
P11 -> Value
P10 -> Mainstream
V10 -> Performance
V11 -> Enthusiast
Das passt schon so, wenn AMD wirklich das ganze Lineup ersetzen und die Chips so strikt eingrenzen will (zumindest auf dem Desktop). Allerdings werden die Preise anfangs natuerlich hoeher sein, "Value" ist aktuell sowas wie Oland.
Kartenlehrling
2016-04-22, 10:23:18
Laut notebookcheck, war die mobil gtx980 nur 2% langsamer als eine Desktop stock gtx980.
Das Verhältnis hat AMD in den letzt 3 Jahre nie erreicht, selbst in den unteren Leistungklassen nicht.
Nakai
2016-04-22, 10:32:31
Bzgl der Perf/W-Steigerung von 2~2,5 sollte erstmal von Faktor 2 ausgegangen werden. Also Pitcairn x2, somit Hawaii-Performance @125W. Perf/W ist eine lächerliche Metrik mit viel Spielraum.
reaperrr
2016-04-22, 12:42:23
Bemerkenswert an dem Absatz finde ich vor allem den Passus "“Polaris” 10 aimed at the mainstream desktop and high-end gaming notebook segment."
Ich würde nach dieser Einordnung dann nicht mehr davon ausgehen, dass Polaris10 im Bereich zwischen 390X und Fiji liegen könnte.
Grüße: Perry
Die 390 und GTX 970 sind bereits Mainstream, was Verkaufszahlen angeht. Und P10 muss besser sein, um möglichst viele Leute zum Kauf zu bewegen.
Bzgl der Perf/W-Steigerung von 2~2,5 sollte erstmal von Faktor 2 ausgegangen werden. Also Pitcairn x2, somit Hawaii-Performance @125W. Perf/W ist eine lächerliche Metrik mit viel Spielraum.
Ich tippe auf Faktor 2 bei P10 (gegen Pitcairn) und Faktor 2,5 bei P11 (gegen Bonaire).
Die Nummer im Namen soll laut AMD ja einfach die Reihenfolge, in der die Chips designt wurden, darstellen. Könnte mir vorstellen, dass evtl. nur P11 das neue CU-PowerGating besitzt, weil es für P10 nicht rechtzeitig fertig war. Wäre auch eine mögliche Erklärung, warum Gerüchte von ~110-135W für P10 und nur <50W für P11 sprechen, obwohl P10 höchstens doppelt so groß ist.
Ich tippe auf Faktor 2 bei P10 und Faktor 2,5 bei P11.
Vergiss es doch... "current gen 28nm" besteht aus Oland, Pitcairn, Tahiti, Hawaii, Bonaire, Fiji, Tonga, Iceland, ... und haben alle voellig unterschiedliche Perf/W. Das Marketing wird sich da natuerlich eher nach unten ausrichten.
Unicous
2016-04-23, 15:29:45
zlatan aus dem AT-Forum hat ja in der Vergangenheit schon so ein paar Halbwahrheiten losgelassen (dürfte aber tatsächlich im Besitz oder zumindest Zugriff auf Hardware haben) daher sollte man das mit ein paar LKWs Salz betrachten, dennoch mal als Appetithappen:
There are some situation where Polaris is incredibly fast. Faster than anything in the market. The secret is probably that special culling mechanism in the hardware, which helps the GPU to effectively cull those false positive primitives that aren't visible in the screen. Today's hardwares can't do this.
Single wavefront perfomance is also incredibly good. 10-100 times faster than anything in the market. This is good for VR.
http://forums.anandtech.com/showpost.php?p=38180442&postcount=46
The full Polaris 11 is more or less coming to this segment. Based on the application, it might be faster than Fury.
http://forums.anandtech.com/showpost.php?p=38180450&postcount=48
reaperrr
2016-04-23, 15:39:13
Mit dem zweiten Absatz wird er wohl P10 gemeint haben. Klingt auf jeden Fall gut, wenn's stimmt.
Bevor irgendwer ausflippt: unten ist natuerlich P10 gemeint, nicht P11
Mir fehlt da gerade der Zusammenhang, weiss jemand woher (Veranstaltung) das Bild stammt? (ebenfalls aus dem Thread)
http://i1024.photobucket.com/albums/y303/martmail55/141218tj6oyjjy6ybybnjo_zpsxqmencmy.jpg
Lustig ist die Behauptung, das Bild wuerde dazu gehoeren:
http://i1024.photobucket.com/albums/y303/martmail55/141822pccgky8trtgsypcl_zpsye2ytxlc.jpg
Wobei letzteres natuerlich klar zu der Demo P11 vs GTX 950 gehoert, der Aufbau ist ja ganz anders und man sieht auch auf den Screens, dass dort gerade SWBF und nicht Hitman laeuft
horn 12
2016-04-23, 15:43:36
Wäre interessant und vielleicht doch HBM-1 als Speicher
Würde dem GDDR5-X dann alt aussehen lassen.
HBM sollte nun gut verfügbar und weitaus billiger sein als zum Fury X Relaease.
399 Euro wäre eine Kampfansage und die GTX 1070 sollte da nicht mithalten können.
Unicous
2016-04-23, 15:48:39
Mit dem zweiten Absatz wird er wohl P10 gemeint haben. Klingt auf jeden Fall gut, wenn's stimmt.
Bevor irgendwer ausflippt: unten ist natuerlich P10 gemeint, nicht P11
Ja sorry, habe ich vergessen. Später sagt er, dass es ein "Typo" war.
Oder war es ein "11 ist größer als 10 und daher der größere Chip"-Fehler. Man weiß es nicht.:wink: Auf jeden fall Thanx Obam... Raja für diese Nomenklatur.:rolleyes:
Wie gesagt, besonders die letzte Aussage ist natürlich mit Vorsicht zu genießen, aber wenn man bedenkt wie schlecht optimiert Fiji teilweise ist und sogar eine 390X (jetzt mal unabhängig von der VRAM-Größe) teilweise herankommt, ist das am Ende vllt. gar nicht so weit hergeholt.:freak:
@iuno
Ach, fuck. Das wollte ich auch posten. Ich weiß es nicht, aber momentan läuft die PAX East, vllt. werden da ja schon Testsysteme gezeigt.
Der Verteiler jedenfalls hat NEMA-Dosen (die u.a. in den USA genutzt werden). Wo gibt es die sonst noch?
Nakai
2016-04-23, 15:51:48
AMD kennt das eigene Namensschema nichtmal.
Wieso AMD? "zlatan" = AMD? :ulol:
Ja, das denke ich auch. Er spricht ja auch von ganz speziellen Faellen. Wenn es stimmt, dass da irgendeine Art revolutionaerer Culling Ansatz oder so zum Einsatz kommt und die Geometrieleistung dadurch deutlich aufgebohrt wird, kann das bei einer entsprechend heftigen Szene mit extrem vielen Polys schon mal vorkommen. Das heisst aber natuerlich nichts fuer den Durchschnitt. Bzgl. Fiji's Balancing hoert sich das aber schonmal nicht schlecht an, wobei man natuerlich trotzdem zurueckhaltend bleiben muss.
Interessant ist auch die Behauptung, dass es mit Polaris keine binaerkompatibilitaet gaebe. Fuer high level (DX11/OGL mit HLSL/GLSL) eh egal, fuer Vulkan/DX12 und deren Zwischensprachen (SPIR-V oder DX12 Bytecode) immer noch, fuer die PS4k waere das aber wohl eine Absage.
horn 12
2016-04-23, 15:59:40
Nun so schlecht gehen die Furies nun bei Weitem nicht ab
OK bei Full HD und Auflösung 2560x1280 /1600 ist die R9 390X oft nah drann, aber bei 4K gehen die Furies schon verdammt geil ab.
Unicous
2016-04-23, 16:01:23
Der Verteiler kommt btw. von Cheng Tian... einer taiwanesischen Firma. Könnte also überall her sein (In China nutzt man wohl auch den NEMA-Standard).:freak:
http://www.c-electric.com/
War ja klar, je naeher der Launch kommt, desto oefter duerfen wir wieder lesen, wie toll deine Fury oder wie "weise" dein Kauf war. Jeder hier weiss, dass die 64 CUs von Fiji maechtig bumms haben.
P10 ist keine "4k-Chip", das ist aber auch klar
Unicous
2016-04-23, 16:06:50
P10 ist keine "4k-Chip", das ist aber auch klar
Das sieht das AMD-Marketing unter Umständen aber ganz anders.:biggrin:
Kann schon sein :D
Ich denke aber eher, dass sie da im Marketing in Richtung VR gehen. Es war ja auch schon zu hoeren, sie wollen die Einstiegshuerde fuer VR guenstiger machen und 4k trifft es nun wirklich nicht.
Lustig ist die Behauptung, das Bild wuerde dazu gehoeren:
http://i1024.photobucket.com/albums/y303/martmail55/141822pccgky8trtgsypcl_zpsye2ytxlc.jpg
Wobei letzteres natuerlich klar zu der Demo P11 vs GTX 950 gehoert, der Aufbau ist ja ganz anders und man sieht auch auf den Screens, dass dort gerade SWBF und nicht Hitman laeuft
Hmm, muss hier zurueckrudern. Also der bekannte Aufbau von der CES ist das aber zumindest auch nicht:
http://media.gamersnexus.net/images/media/2016/ces/amd-ces-16-2.jpg
Unicous
2016-04-23, 16:14:44
Sind auch andere "Meßgeräte" und auch andere Konstellationen. Also was auch immer da verglichen wurde, es war eher nicht die 950.
https://i.ytimg.com/vi/H9ZIcztgcNY/maxresdefault.jpg
Ja, stimmt schon.
Moeglich waere noch der erste Aufbau beim RTG summit, oder eben eine neue Versanstaltung.
Dass das wirklich P10 vs P11 bei aehnlichem Aufbau (restliche Komponenten, Last) sind, glaube ich aber weniger. Nur um die 30 Watt Differenz waeren doch etwas wenig. Auch mit V-Sync, was sollten sie da fuer ein unrealistisches Szenario zeigen wollen?
[MK2]Mythos
2016-04-23, 16:20:57
Mag ja sein, dass es mir an Fantasie mangelt, aber 148 Watt für das Polaris P10 System?
Und vor dem Hintergrund, dass P10 angeblich doch schneller als Fury wird?
Stammen die Information zufällig vom 1. April?
Jetzt nicht durcheinander kommen ;)
Die 148 Watt gehoeren zu dem Demo-System auf der CES (4790, GTX 950)
Wozu die 113 vs 81 Watt kommen, wissen wir eben noch nicht so genau
Loeschzwerg
2016-04-23, 16:26:44
Hä?! Unter dem Messgerät mit 148W steht doch ebenfalls "AMD", also kein "4790, GTX 950" :confused:
Ja, auf beiden Steckerleisten steht "AMD". Vermutlich hatten sie Angst, dass die wertvolle Ware auf der CES verloren geht :ulol:
https://youtu.be/H9ZIcztgcNY?t=31
Loeschzwerg
2016-04-23, 16:33:32
KK, danke für die Aufklärung ^^
LordCama
2016-04-23, 16:48:22
Die Bilder scheinen aus dem Osten zu kommen.
https://mash-digi.com/2016/04/22/amd在台展示「polaris」-強調佈局vr不落後/
https://www.cool3c.com/article/105466
https://www.computerdiy.com.tw/amd-polaris-radeon-pro-duo-liquidvr-xconnect/
Die 81 Watt sind Polaris 11, die 126 Watt anscheinend die GTX950.
Polaris 11 kommt anscheinend mit ~30 Watt aus.
dildo4u
2016-04-23, 16:53:44
Diese Demos sind nutzlos da AMD die fps bei 60 lockt,bei der alten Demo wurden dann noch die Details reduziert um die GPU Last weiter zu senken.
Loeschzwerg
2016-04-23, 17:02:15
Die Bilder scheinen aus dem Osten zu kommen.
https://mash-digi.com/2016/04/22/amd在台展示「polaris」-強調佈局vr不落後/
https://www.cool3c.com/article/105466
https://www.computerdiy.com.tw/amd-polaris-radeon-pro-duo-liquidvr-xconnect/
Die 81 Watt sind Polaris 11, die 126 Watt anscheinend die GTX950.
Polaris 11 kommt anscheinend mit ~30 Watt aus.
Scheint eine Hausmesse von AMD in Taipei zu sein.
horn 12
2016-04-23, 17:06:07
Hoffe da kommt noch mehr!
Brillus
2016-04-23, 17:32:54
Wieso AMD? "zlatan" = AMD? :ulol:
Ja, das denke ich auch. Er spricht ja auch von ganz speziellen Faellen. Wenn es stimmt, dass da irgendeine Art revolutionaerer Culling Ansatz oder so zum Einsatz kommt und die Geometrieleistung dadurch deutlich aufgebohrt wird, kann das bei einer entsprechend heftigen Szene mit extrem vielen Polys schon mal vorkommen. Das heisst aber natuerlich nichts fuer den Durchschnitt. Bzgl. Fiji's Balancing hoert sich das aber schonmal nicht schlecht an, wobei man natuerlich trotzdem zurueckhaltend bleiben muss.
Interessant ist auch die Behauptung, dass es mit Polaris keine binaerkompatibilitaet gaebe. Fuer high level (DX11/OGL mit HLSL/GLSL) eh egal, fuer Vulkan/DX12 und deren Zwischensprachen (SPIR-V oder DX12 Bytecode) immer noch, fuer die PS4k waere das aber wohl eine Absage.
Bridgman (AMD-Mitarbeiter der zumindest partiel an den Linux Triebern arbeitet) hat im Phoronix Forum hat aber mal gesagt Polaris könnte aber mit Fury/Tonga machinencode umgehen, es wären nur paar neue Befehle hinzugekommen.
Nakai
2016-04-23, 17:37:58
zlatan aus dem AT-Forum hat ja in der Vergangenheit schon so ein paar Halbwahrheiten losgelassen (dürfte aber tatsächlich im Besitz oder zumindest Zugriff auf Hardware haben) daher sollte man das mit ein paar LKWs Salz betrachten, dennoch mal als Appetithappen:
There are some situation where Polaris is incredibly fast. Faster than anything in the market. The secret is probably that special culling mechanism in the hardware, which helps the GPU to effectively cull those false positive primitives that aren't visible in the screen. Today's hardwares can't do this.
Single wavefront perfomance is also incredibly good. 10-100 times faster than anything in the market. This is good for VR.
Ich sehe das zwar nicht so als neuartig an. Nv cullt auch schon besser als AMD. Ergo holt AMD endlich mal auf. Evtl hat man eine Secret Sauce in die Hardware diesbezüglich eingebaut. Ich glaube es aber erst, wenn ich es sehe.
Letzteres ist seltsam. Was meint er mit single Wavefront performance? Was ist eine single Wavefront? Meint er Wavefronts mit nur einem validen Work-Item? Falls ja, und stimmt das...dann wird Polaris seeeehr interessant. :freak:
Gipsel
2016-04-23, 18:00:25
Letzteres ist seltsam. Was meint er mit single Wavefront performance? Was ist eine single Wavefront? Meint er Wavefronts mit nur einem validen Work-Item? Falls ja, und stimmt das...dann wird Polaris seeeehr interessant. :freak:Nimm es doch so wie er es sagt: ein Call, die zu einer einzelnen Wavefront (oder sehr wenigen) führt. Bisher brauchen die AMD-GPUs viel "spool up", bis sie ihre Performance erreichen (Durchsatz ist gut, Latenz verbesserungsfähig). Eine Generalüberholung des Command Processors bzw. der Work Distribution könnte hier vermutlich Einiges verbessern.
Ja, offenbar in Taiwan :uponder:
Laut maschineller Uebersetzung wird aber auch hier die GTX 950 (ganz links) mit P11 (mitte) verglichen (am Wattmeter). Rechts laeuft Hitman auf P10 und dann ist da rechts noch ein Case, das nicht zugeklebt ist. Man sieht den beleuchteten Radeon Schriftzug, also vermutlich Fury X oder die Pro Duo. Jedoch waere es nice, wenn das Referenzdesign der neuen Karten auch etwas mehr hermacht ;)
Laut mash-digi.com will AMD auf der Computex auch BR bringen
Nakai
2016-04-23, 18:42:25
Nimm es doch so wie er es sagt: ein Call, die zu einer einzelnen Wavefront (oder sehr wenigen) führt. Bisher brauchen die AMD-GPUs viel "spool up", bis sie ihre Performance erreichen (Durchsatz ist gut, Latenz verbesserungsfähig). Eine Generalüberholung des Command Processors bzw. der Work Distribution könnte hier vermutlich Einiges verbessern.
Ja, stimmt, das wäre naheliegender. :freak:
€: Und nebenbei bemerkt, ist das auch einer der Hauptprobleme von GCN, imo. Man braucht viel backpressure, um die Architektur gut auszulasten. Mit Async Compute wird bereits mehr Last erzeugt. Wenn man nun bei kleineren Arbeiten noch eine schnellere Verarbeitungsleistung erreicht, dann wird das sehr nett.
Mir gefällt Polaris immer mehr.
z3ck3
2016-04-23, 23:17:59
Jedoch waere es nice, wenn das Referenzdesign der neuen Karten auch etwas mehr hermacht ;)
Das Kartendesign von AMD ist in der Tat stark verbesserungswürdig. Es wirkt immer wesentlich billiger und weniger qualitativ als das von nvidia. Das hat sicher auch Auswirkungen auf die VK Zahlen. IMO verlässt AMD sich da viel zu sehr auf die Partner besseres zu releasen. Die Nano war die einzige Ausnahme der letzten Jahre wo mir die Referenz optisch gefallen hat.
Ascorvit
2016-04-24, 00:19:39
wo mir die Referenz optisch gefallen hat.
Ja, das ist sehr wichtig.
Ich kauf auch nur Sprit der optisch gut ist. Haesslicher kommt mir nicht in den Tank. :rolleyes:
Unicous
2016-04-24, 00:29:45
Ein Glück, dass Nvidia mit ihrem hässlichen CNC-Rumgefräse da ein Statement setzt. Denn rein vom Optischen würde ich mir keinen 1080/70 Chrome-Transformer holen. :freak:
Nur weil AMDs Ref.-Designs die letzten Jahre einfach nur fürchterlich waren... und aussahen heißt das nicht im Umkehrschluss, dass Nvidias Designs die Krönung der Schöpfung sind.:rolleyes:
Grafikkarten haben so gut wie noch nie einen Schönheitswettbewerb gewonnen und wer danach geht hat meiner Meinung nach echt einen an der Waffel. Das wird IMO nur noch vom Gehäuse-Design getoppt.
Nightspider
2016-04-24, 01:18:10
Na hoffentlich stimmt die Info mit der neuen Culling-Technik aka Secret Sauce.
Könnte in Star Citizen einen ordentlichen Boost bringen bei dem hohen Polycount. :D
z3ck3
2016-04-24, 01:25:10
AMD wirkte einfach nur billig bei vielen ref Designs. Schon optisch sagte es einem "hier ist alles billig, erwarte erst garnicht das ich leise und zuverlässig funktioniert". Ich gebe meistens über 100 Euro für ein qualitatives case aus, da erwarte ich auch bei Grafikkarten über 300 Euro das sie qualitativ nicht wirken wie ein 5 Euro China Mixer aus dem 1Euro Shop. Und nein ich erwarte kein klimbim, leuchtende Logos oder voll Alu. Es sollte einfach nur nicht billig wirken. Die Nano hat gezeigt das es auch anders geht.
Unicous
2016-04-24, 01:43:57
Und nochmal. Wen interessiert wie das Plastik (oder auch Metall) einer Grafikkarte aussieht oder wie es gefärbt wurde? Außer du bist ein kleiner pickeliger Kiddie, der sein Case nur kauft um sich bei seinen pickeligen Freunden zu profilieren ist doch scheiß egal wie ein Komponente aussieht, die man, wenn nichts dazwischen kommt, zweimal im Leben zu Gesicht bekommt. Einmal beim Einbau, einmal beim Ausbau.
Solche banalen Gedankengänge hätte ich hier echt nicht erwartet.:eek: Besonders bei einer Komponente die eh schon ausschaut als hätte Ed Hardy oder Harald Glööckler das Design verbrochen a.k.a. potthässlich.
Hier wird die ganze Zeit um Zahlen nach dem Komma gefeilscht und am Ende geht es doch nur darum wie die Grafikkarte aussieht? The Fuck.:uhammer:
Wäre also supidupiextratoll wenn du wieder zum Thema zurückfinden würdest. :uup:
Hübie
2016-04-24, 02:18:48
Nur weil nicht alle deinem primitiven Gedankenmuster oder deiner Idealvorstellung von braunen Mainboards mit grauem Gehäuse folgen, musst du nicht gleich geistigen Dünnpiff verzapfen, der mit dem Thema weniger zu tun hat als ein verlauster Affe mit Chorgesang.
b2t:
Ob beide Systeme wirklich auch äquivalente Settings nutzen bezweifel ich ja nach wie vor. Dazu noch unterschiedliche Messgeräte. Erinnert mich ein wenig an "Overclockers dream" oder "Mantle makes Titan ridiculous". Bulldozer-Statements lass ich mal weg ...:udown:
http://abload.de/thumb/meh1lys90.png (http://abload.de/image.php?img=meh1lys90.png) http://abload.de/thumb/meh21csc4.png (http://abload.de/image.php?img=meh21csc4.png)
Culling kann auch ins negative führen. Also da würde ich mit Prognosen erst einmal abwarten. Interessant klingt es dennoch. AMD täte zumindest gut daran an jeder Schraube zu drehen die nicht viel Geld kostet und aufwändig per Software justiert werden muss. ;)
Unicous
2016-04-24, 02:51:10
Alles klar bei dir?:confused:
Habe ich dich zu irgendetwas eingeladen?
z3ck3
2016-04-24, 03:43:22
Das Produktdesign macht einen wichtigen Teil des wertes eines Produktes aus. Das geht soweit das selbst das schließen einer Autotür klangtechnisch "designed" wird. Sowas mag für dich keine Rolle spielen, aber auch nur weil du es selbst wenig merkst. Beispielsweise, solltest du jemand sein der auf Plain Hardware steht, also glaubst das Funktion und Qualität dann stimmen wenn das Produkt selbst schlicht und industriell aussieht, dann wirst du beispielsweise entsprechend gestaltete Hardware beforzugen, auch wenn die Features ggf. dagegen sprechen würden. Im Retail Markt der GPUs >200€ spielt Haptik und Optik eine Rolle. Egal ob man die Karte nur zwei mal real sieht, oder jeden Tag. Denn schon bei der Recherche zu der für die eigenen Bedürfnisse passensten Karte wird man von der Optik geprägt. Und wenn die vermittelt das an jeder Ecke gespart wurde, dann wirst du unterbewusst eher zu dem optisch höherwertigem Produkt greifen.
Letztendlich spielt alles eine Rolle. Sogar der Geruch. Dieser wirkt sich aber eher auf deine Zufriedenheit mit dem Produkt aus wenn du es das erste mal ind der Hand hast. Im schlimmsten Fall stinkt das Produkt wie ein Chemieunfall und du wirst es schon beim Einbau hassen und entsprechend frustriert ran gehen. ^^
AMD sollte dringend sein Produktdesign überarbeiten. Auch wenn das Design für dich keine Rolle spielt, kann das über einige Prozentpunkte bei den VK Zahlen bestimmen wie die Produkte bei Release aussehen und wirken.
OT Ende. ^^
Herr Doktor Klöbner
2016-04-24, 09:31:51
Was für eine Sinnbefreite Diskussion, wen interessieren die Referenzdesigns von AMD und Nvidia, diesen Radiallüfterquatsch braucht keine Mensch, kurz nach Marktstart gehen eh nur noch die custom design Karten, ich denke mal Saphire kriegt mit zwei Lüftern den Polaris 10 absolut silent, bei den vernünftig designten Pascal Karten wird es genauso sein.
Menace
2016-04-24, 09:34:11
@z3ck3: Nur weil einige reflektionsfreie Esoteriker auf solch leere Marketinggedöhns reinfallen sollte AMD dem Folgen und die Kunden auch verarschen? Ne, für Verarschung gibt es andere. :biggrin: Und leider sehe ich meine Nano auch nicht.
Autospoiler:
(der Klang der Türe, Spaltmaße, etc. ich lache mich schlapp, fahre seit 15 Jahre zwei Citroëns, einmal mit 450 000 km und 200 000 km Originalmotor bei Gesamtkosten inkl. Kauf von 8 000 € bisher)
Vielleicht sollte ich auch nvidia kaufen, da grün meine Lieblingsfarbe ist und mich Physiker schon immer mehr interessiert haben als Inseln. :rolleyes:
Screemer
2016-04-24, 10:07:06
Na hoffentlich liest das keiner, denn sonst sind bald alle Produktdesigner arbeitslos und wir müssen ihr ALG I bezahlen.
[MK2]Mythos
2016-04-24, 10:11:23
Die allermeisten Retailkäufer kaufen ihre Hardware im Netz und da sieht / riecht / schmeckt / hört man die eigentliche Karte eh erst sobald sie bei einem eingetroffen ist.
Zecke, deine Ausführungen zum Produktdesign in allen Ehren, aber hier liegste echt falsch. Ich wüsste davon abgesehen auch nicht, inwiefern AMD Karten billiger wirken als NVIDIA Karten. Hab beides hier. Zumal ja (wie schon beschrieben) nach kurzer Zeit die Kartenhersteller den Markt eh mit ihren eigenen Designs fluten.
Ich habe mich jedenfalls noch _nie_ bewusst oder unbewusst für eine Grafikkarte entschieden weil sie mir optisch besser gefiel als Karte XYZ.
Ganz einfach, weil ich sie beim Onlinekauf noch gar nicht sehen konnte. Ich guck auf die Balkenläge, den Verbrauch/Lärmpegel und auf den Preis, so wie 95% aller anderen Hardwarekäufe vermutlich auch.
Und nun back2topic bitte, Polaris klingt für mich immer besser. :D
ich denke mal Saphire kriegt mit zwei Lüftern den Polaris 10 absolut silent, bei den vernünftig designten Pascal Karten wird es genauso sein.
Und wenn alle AIBs, widererwarten nur Gülle produzieren und dann noch nicht mal der gewünschte Kühler von Drittanbieter XY passt, weil es ja kein Ref.Design gibt, was dann?!
z3ck3 hat schon Recht, wenn er ein qualitativ hochwertiges Ref.Design einfordert, auch wenn das am Ende teurer ist als das der AIBs.
Das darf dann auch gut / wertig aussehen.
dildo4u
2016-04-24, 10:21:47
Warum sollten die neuen Karten nicht leise sein gerade die AMD OEM's musste bisher 300 Watt+ Karten kühlen.Selbst wenn sie für die ersten Karten Null R&D Investieren und einfach die alten Kühler verwenden werden die Karten leise sein.
Ich will das Thema nicht überstrapazieren, aber ich bin damals u.a. bei der Titan X gelandet, weil ich ein Design gesucht hab, dass unter VR, also auch noch bei 180 fps + X ohne coil whine daher kommt. Das konnte mir keine 980Ti liefern. Und wenn ich da an die Pumpe der Fury X denke... z3ck3 hat da schon einen wichtigen Punkt, der auch meine Kaufentscheidung beeinflussen würde.
Herr Doktor Klöbner
2016-04-24, 10:33:47
Und wenn alle AIBs, widererwarten nur Gülle produzieren und dann noch nicht mal der gewünschte Kühler von Drittanbieter XY passt, weil es ja kein Ref.Design gibt, was dann?!
z3ck3 hat schon Recht, wenn er ein qualitativ hochwertiges Ref.Design einfordert, auch wenn das am Ende teurer ist als das der AIBs.
Das darf dann auch gut / wertig aussehen.
Mit den Triple-Fan Kühlern von Saphire und PCS kriegst du eine Herdplatte gekühlt, die Dual-Fan Kühler der 380/380X Karten kühlen leise 180 Watt weg, also ernsthaft, ein 130 Watt Polaris stelt noch nicht mal die Ingenieure von Asus vor unlösbare Probleme, um nur mal den größten Ramschproduzenten zu nennen.
Botcruscher
2016-04-24, 11:02:16
Dein Wort in Gottes Ohr. Ich sehe schon den Asuskühler mit 3 oder 4 Rohren, wo wieder nur die Hälfte Kontakt hat.
Bei dem Thema Wertigkeit muss ich z3ck3 absolut zustimmen. Wenn die Ref. Versionen nie große auf den Markt kommen sollte da auch noch extra Aufwand reingesteckt werden. Damit wird der erste Eindruck geprägt.
Unicous
2016-04-24, 11:18:27
Ich will das Thema nicht überstrapazieren, aber ich bin damals u.a. bei der Titan X gelandet, weil ich ein Design gesucht hab, dass unter VR, also auch noch bei 180 fps + X ohne coil whine daher kommt. Das konnte mir keine 980Ti liefern. Und wenn ich da an die Pumpe der Fury X denke... z3ck3 hat da schon einen wichtigen Punkt, der auch meine Kaufentscheidung beeinflussen würde.
Spulenfiepen≠Pumpenfiepen. Ob eine Karte Spulenfiepen hat oder nicht kann einfach nur pures Glück sein bzw. hängt von den verbauten Kondensatoren und Chokes ab. Keine Grafikkarte ist davor gefeit fiepfrei zu sein, der Hersteller kann maximal darauf achten gute Komponenten auszusuchen. Wer 980Ti und "Spulenfiepen"/"coil whine" eingibt bekommt auch entsprechend Ergebnisse, lustigerweise sogar mehr als bei der Fury X ( was natürlich nichts über die Quantität der Probleme aussagt).
Und wenn du Design sagst, dann meinst du hier konkret Komponenten und nicht das physische Aussehen. Und das ist ein ganz anderer Schuh. Natürlich sucht man als mündiges 3DCenter-Mitglied die Grafikkarte nach jeglichen Leistungscharistika aus. Einige kaufen zum Beispiel explizit Ref.-Designs weil sie hoffen, schneller einen custom aftermarket cooler draufzupappen. Aber (AIB) GPUs nicht zu kaufen, weil das Ref.-Design scheiße aussieht finde ich wirklich lächerlich.
fondness
2016-04-24, 20:05:54
We also want to share some information we learned from our sources about Polaris 11. AMD recently hosted a event in Taiwan to showcase their Polaris GPUs (Polaris 10 and Polaris 11) along with the Radeon Pro Duo card to journalists. We shared slides of the Radeon Pro Duo from that event yesterday. People were able to get some info out of AMD and it seems like the Polaris 10 can be an extremely competitive product.
The AMD Polaris 10 GPU has a maximum TDP of 175W but cards will actually consume much less than that. The GPU was initially built to support HBM memory but AMD chose to go the GDDR5/X route since it offers a better value currently. We will get to see HBM on AMD GPUs when Vega launches but until then, only Fury series will have HBM support. The Polaris 10 GPU is said to have 3DMark Firestrike Ultra performance around 4000 points which is about what a Radeon R9 Fury X and GeForce GTX 980 Ti score. By 4000 points, we don’t mean exactly 4000 but it’s actually quite a bit less but that’s the number we were told.
If AMD can manage to launch a card at around $329 US with better efficiency and performance close to 980 Ti with twice the VRAM of Fury X, they can have a great product in their hands which many users will be willing to upgrade to. AMD Polaris looks to be an incremental step for team red in the efficiency game, it will be great to see competitive products from AMD in the coming months which will be built for DirectX 12 and VR Gaming.
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Gipsel
2016-04-24, 20:10:25
So, das war jetzt genug vom Aussehen und Design der Kühler und Boards.
Zurück zum Thema!
Nakai
2016-04-24, 20:54:57
We also want to share some information we learned from our sources about Polaris 11. AMD recently hosted a event in Taiwan to showcase their Polaris GPUs (Polaris 10 and Polaris 11) along with the Radeon Pro Duo card to journalists. We shared slides of the Radeon Pro Duo from that event yesterday. People were able to get some info out of AMD and it seems like the Polaris 10 can be an extremely competitive product.
The AMD Polaris 10 GPU has a maximum TDP of 175W but cards will actually consume much less than that. The GPU was initially built to support HBM memory but AMD chose to go the GDDR5/X route since it offers a better value currently. We will get to see HBM on AMD GPUs when Vega launches but until then, only Fury series will have HBM support. The Polaris 10 GPU is said to have 3DMark Firestrike Ultra performance around 4000 points which is about what a Radeon R9 Fury X and GeForce GTX 980 Ti score. By 4000 points, we don’t mean exactly 4000 but it’s actually quite a bit less but that’s the number we were told.
If AMD can manage to launch a card at around $329 US with better efficiency and performance close to 980 Ti with twice the VRAM of Fury X, they can have a great product in their hands which many users will be willing to upgrade to. AMD Polaris looks to be an incremental step for team red in the efficiency game, it will be great to see competitive products from AMD in the coming months which will be built for DirectX 12 and VR Gaming.
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Nun ist die Frage, ob P10 nicht doch der GP104 Konkurrent ist. Ebenso, ob die 232mm² überhaupt auf P10 zutreffen und ob der Chip "nur" 2304/2560 SPs hat.
[MK2]Mythos
2016-04-24, 20:56:34
Und ob 175w Tdp für die gpu, oder die Karte gelten.
Screemer
2016-04-24, 21:00:32
Zumindest die shaderanzahl sollte doch mittlerweile recht sicher sein. Bei der Größe und dem shadercount finde ich das schon sehr ansprechend. Mich könnte ein Preis von um die 300€ zu nem Upgrade von der 290 bewegen, auch wenn der Schritt recht klein ist. Einen gp104 Ableger in dem preisbereich werden wir wohl erst mal nicht so schnell sehen.
Für AMD kann man allerdings nur hoffen, dass der gp104-gegner aus der vegareihe nicht all zu lange auf sich warten lässt. Bin schon sehr gespannt auf h2/2026.
fondness
2016-04-24, 21:02:05
Nun ist die Frage, ob P10 nicht doch der GP104 Konkurrent ist.
Galube ich nicht, GP104 sollte deutlich ünber der 980Ti liegen.
Ebenso, ob die 232mm² überhaupt auf P10 zutreffen und ob der Chip "nur" 2304/2560 SPs hat.
Die SPs sollten stimmen, die 232mm² sind aber völlig aus der Luft gegriffen und stimmen mit hoher Wahrscheinlichkeit nicht. SIe könnten vielleicht halbwegs hinkommen. Polaris wird aber zweifellos sehr konkurrenzfähig.
Complicated
2016-04-24, 21:09:59
Also das kann ich mir beim besten Willen nicht vorstellen:
The GPU was initially built to support HBM memory but AMD chose to go the GDDR5/X route since it offers a better value currently. mit den bisher spekulierten Daten. Wäre es ursprünglich ein HBM-Design gewesen, wäre die ebenfalls sehr unwahrscheinliche Zielsetzung von 329$ viel zu niedrig.
Edit: Wann sollte denn ein GPU Hersteller spätestens die Entscheidung treffen ob es ein Interposer-Design oder ein klassisches PCB wird? Ich meine wie lange vorher muss ich wissen wie viel der Speicher kostet? Ich kann mir nicht vorstellen, dass der Speicherpreis bei der Entscheidung so kurzfristig eine Rolle spielen kann.
fondness
2016-04-24, 21:10:38
Warum nicht? EIn HBM-Stack, fertig.
y33H@
2016-04-24, 21:12:31
WTF-Tech und Konsorten schreiben viel wenn der Tag lang ist ... andere beginnen schon mal lieber mit dem Benchmark-Parcours :P
R.I.P.
2016-04-24, 21:14:25
WTF-Tech und Konsorten schreiben viel wenn der Tag lang ist ... andere beginnen schon mal lieber mit dem Benchmark-Parcours :P
Haha! Klingt so als würdet ihr Polaris 10 bereits durch Benchmarks prügeln. DAS wäre ne Meldung schlechthin!!
Screemer
2016-04-24, 21:17:50
Zu geil. Wir wollen eure Ergebnisse sehen. Teaser mal ein bisschen an. Natürlich nur soweit es das nda zulässt ;)
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Interessant ist die Aussage, P10 sei urspruenglich mit HBM geplant gewesen. Da stellt sich halt die Frage zu welchem Zeitpunkt. Vielleicht hat man damals den Chip noch mit 4 GiB gesehen (1 Stack HBM2) oder aber AMD geht wie Nvidia bei GP100 den Weg, den Takt nicht komplett auszureizen.
Bei einer relativ spaeten umplanung wuerde ich aber auch erwarten, dass es fuer GDDR5X gereicht hat. Zudem hoert GDDR5 bei 8 Gbps auf und das ist gerade was man mit einem HBM2 Stack erreicht. So ein hoch getaktetes SI waere aber eher untypisch fuer AMD.
175 Watt max. ist schon auch eine andere Groessenordnung, als das, wovon man bisher ausging. Sollte an alldem was dran sein, wird das Teil wohl doch staerker mit GP104 konkurrieren (muessen). Zumindest mit der mittleren SKU (1070?) direkt
illidan
2016-04-24, 21:28:43
Galube ich nicht, GP104 sollte deutlich ünber der 980Ti liegen.
Du meinst über?
Kommt auch wieder auf den Takt an.
Die 680 war ~30% vor der 580 zum Launch. Diesmal hat man aber in 28nm einen reinen 600mm² Gaming-Chip, der mit den Customs den Takt des Prozesses auch gut ausgereizt hat.
Nakai
2016-04-24, 21:30:07
WTF-Tech und Konsorten schreiben viel wenn der Tag lang ist ... andere beginnen schon mal lieber mit dem Benchmark-Parcours :P
Poste einfach einen Smiley, wenn es schon möglich ist. ;)
M4xw0lf
2016-04-24, 21:30:39
Sauti trollt doch wieder hart. :unono:
Naja, was heisst trollen. Irgendwie darf er gar bald nichts mehr sagen, weil seine Saetze jedes mal ueberinterpretiert werden.
Unicous
2016-04-24, 21:40:00
Ihr wisst schon, dass am 26. die Pro Duo released wird?
Complicated
2016-04-24, 22:06:21
http://www.3dcenter.org/news/offizielle-spezifikationen-samt-amd-eigener-benchmarks-zur-radeon-pro-duo-aufgetaucht
Der_Korken
2016-04-25, 00:57:59
Wenn AMD wirklich HBM2 für Polaris eingeplant hatte, dann würde ich eher auf zwei Stacks tippen. Damit würde man auf 8 GB kommen und hätte, falls die vollen 2 Ghz noch nicht zur Verfügung stünden, auch mit 1,5 Ghz noch eine passable Anbindung (384GB/s).
Macht es kostentechnisch überhaupt viel aus, wenn ob man einen oder zwei Stacks verbaut? Oder anders gefragt: Was wäre an HBM eigentlich so extrem teuer: Die Speicherchips an sich, der Interposer an sich oder das "zusammenbauen" von Interposer und GPU/Speicher?
Brillus
2016-04-25, 01:35:41
Wenn AMD wirklich HBM2 für Polaris eingeplant hatte, dann würde ich eher auf zwei Stacks tippen. Damit würde man auf 8 GB kommen und hätte, falls die vollen 2 Ghz noch nicht zur Verfügung stünden, auch mit 1,5 Ghz noch eine passable Anbindung (384GB/s).
Macht es kostentechnisch überhaupt viel aus, wenn ob man einen oder zwei Stacks verbaut? Oder anders gefragt: Was wäre an HBM eigentlich so extrem teuer: Die Speicherchips an sich, der Interposer an sich oder das "zusammenbauen" von Interposer und GPU/Speicher?
Interposer sollte super billig sein.
Chips sind wohl teuer(er ich glaub auf eine Nvidia Folie standen die doppeltem Preis wie normales RAM und das auch wenn sie Massengefertig werden, also könnte man jetzt wohl noch gut mit Faktor 3-4 rechnen, wobei ich nciht weiß wieviel der Preis insgesamt ausmacht),
Wie gut das zusammenbauen schon klappt kein dir hier keiner sagen, das könnte super klappen oder auch jeden 2. CHips schrotten.
Korvaun
2016-04-25, 07:30:54
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Warum sollte AMD 329$ verlangen für ne neue Karte die so schnell wie ne FuryX dabei aber viel, viel sparsamer ist? 499$ wäre schon ein Wahnsinns-Einführungspreis. Ich sehe aktuell keinen Grund für eine Preiskampf...
y33H@
2016-04-25, 07:41:12
Knapp 4000 ptk in 3DMark Fire Strike Ultra wären allerdings stark, das ist etwa 980 Ti Level.
M4xw0lf
2016-04-25, 07:46:28
Knapp 4000 ptk in 3DMark Fire Strike Ultra wären allerdings stark, das ist etwa 980 Ti Level.
wtftech schwurbelt in der Meldung doch davon herum, dass es "nicht wirklich knapp 4000" sein sollen sondern eine Ecke weniger. Oder so.
3,8k sind es.
Vlt. hält man sich noch ein wenig OCbarkeit frei.
y33H@
2016-04-25, 07:58:45
Von diesem Taiwan-Event berichtet sonst keiner, Fotos habe ich bisher auch nicht gesehen.
Die kamen doch immer erst gegen Mittag.
y33H@
2016-04-25, 08:02:04
3,8k sind es. Sagt wer wo?
R.I.P.
2016-04-25, 08:31:18
Ihr wisst schon, dass am 26. die Pro Duo released wird?
Du bist immer der gleiche Spielverderber :D
Chips sind wohl teuer(er ich glaub auf eine Nvidia Folie standen die doppeltem Preis wie normales RAM und das auch wenn sie Massengefertig werden, also könnte man jetzt wohl noch gut mit Faktor 3-4 rechnen, wobei ich nciht weiß wieviel der Preis insgesamt ausmacht)
Hast du die Quelle dazu noch? Doppelt so teuer im Bezug auf was? Bandbreite? Kapazitaet? Galt das fuer ganze Stacks vs. einzelne GDDR5-Chips oder die vs. die?
Je nachdem was die Metrik ist braucht man auch gut mal doppelt so viele GDDR5 Chips (oder mehr). GDDR5-Chips kosten (wenn ueberhaupt) in diesen Abnahmemengen wenige Dollar. Eine Verdoppelung waere also kein Problem. Zumindest aus meiner Sicht, ich bin aber auch kein Controller :P
Warum sollte AMD 329$ verlangen für ne neue Karte die so schnell wie ne FuryX dabei aber viel, viel sparsamer ist? 499$ wäre schon ein Wahnsinns-Einführungspreis. Ich sehe aktuell keinen Grund für eine Preiskampf...
Das sehe ich aktuell auch nicht. Selbst wenn 14 LPP guenstiger waere als wir denken. Wenn die Infos wahr sind, konkurriert P10 einfach doch mit GP104 und dann ergibt dieser Preispunkt keinen Sinn.
Von diesem Taiwan-Event berichtet sonst keiner, Fotos habe ich bisher auch nicht gesehen.
Bilder gab es hier schon vorgestern, zumindest konnten wir die zunaechst nicht anders zuordnen. Fernoestliche Seiten haben dann zuerst von dem Event in Taiwan berichtet:
Die Bilder scheinen aus dem Osten zu kommen.
https://mash-digi.com/2016/04/22/amd在台展示「polaris」-強調佈局vr不落後/
https://www.cool3c.com/article/105466
https://www.computerdiy.com.tw/amd-polaris-radeon-pro-duo-liquidvr-xconnect/
Die 81 Watt sind Polaris 11, die 126 Watt anscheinend die GTX950.
Polaris 11 kommt anscheinend mit ~30 Watt aus.
(oder siehe Thread ab hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11011174#post11011174))
y33H@
2016-04-25, 08:41:02
Ich meinte explizit die 3DMark-Nummer, denn der Rest ist altbekannt.
dargo
2016-04-25, 09:17:24
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Hmm... 175W TDP für den Winzling @P10 im Vollausbau finde ich wieder etwas viel. Hätte ehrlich gesagt mit einigem weniger gerechnet.
Edit:
Was ist eigentlich der Grund warum AMD bei Polaris die Perf/W von 2,5x auf 2,0x geändert hat? Der Verzicht auf HBM2? Sprich... 2,5x Perf/W erst mit Vega?
hoher Takt, ganz einfach.
Thunder99
2016-04-25, 09:37:05
Super Effizienz bei der Pro und maximale Performance mit aber noch OC Spielraum bei der XT. Passt doch :)
@y33H@: Deine Aussagen passen hervorragend zum Speku Thread ;D (die Andeutungen)
Kanpp Fury X Leistung bei weniger Verbrauch ist doch schonmal gut. Wenn sie einen Durschnittsverbrauch von 150W hinlegen ist das schon eine Ansage und sie haben ihre Hausaufgaben gemacht. :)
M4xw0lf
2016-04-25, 09:39:40
Hmm... 175W TDP für den Winzling @P10 im Vollausbau finde ich wieder etwas viel. Hätte ehrlich gesagt mit einigem weniger gerechnet.
In früheren Zeiten war der tatsächliche Verbrauch mal standardmäßig deutlich geringer als die TDP.
deekey777
2016-04-25, 09:42:37
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
Ob wahr oder unwahr:
Gerade ein 20er Produkt hat bisher gefehlt: Leistung eines Pitcairn mit FL eines Bonaire. Die Tabelle ist aber echt lustig: Sie geben bei allen Chips die Anzahl der CUs und der Shader an, bei den TMUs und den ROPs der Zehner und der Elfer steht aber TBA. X-D
dargo
2016-04-25, 09:54:38
In früheren Zeiten war der tatsächliche Verbrauch mal standardmäßig deutlich geringer als die TDP.
Irgendwie sind die Angaben von wccftech total verwirrend. Zuerst redet man von max. 175W TDP für P10 und dann steht da unten in der Tabelle was von 110-150W TDP. :freak: Und wenn man sich die ~50W von P11 anschaut passt das mit den 175W für P10 hinten und vorne nicht. P10 sieht mir auf den ersten Blick ziemlich genau nach einem P11* 2 aus. Es sei denn die Taktraten bei P11 sind ziemlich tief, bei P10 ziemlich hoch angesetzt. Dann könnte es wieder passen. Naja... mal weiter abwarten.
horn 12
2016-04-25, 09:56:05
Also vielleicht doch HBM bei Polaris... ?
Will wohl die ganze Palette dabei abdecken und würde somit NV alt aussehen lassen.
Zudem sollte HBM nun doch relativ billig zu bekommen sein, Interposer udg. reibungslos von der Hand laufen und dem Neuen Prozess geschuldet die Herstellungskosten mindestens niedriger ausfallen.
Mit Vega würde man HBM-2 bringen und hätte die gesamte Palette durch.
mboeller
2016-04-25, 09:58:06
http://wccftech.com/amd-polaris-10-desktop-polaris-11-notebook-gpu/
P10 wäre mit US $329 aber sehr günstig. Das entspricht soweit ich gesehen habe in etwa dem Einführungspreis der HD7870.
http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/Radeon-HD-7870-876427/
http://www.anandtech.com/show/5625/amd-radeon-hd-7870-ghz-edition-radeon-hd-7850-review-rounding-out-southern-islands
die P10 wäre damit also nicht die neue Highend-GPU von AMD. Und da sich das Preis-Leistungsverhältnis seit "damals" stark verschlechtert hat sehe ich P10 eher als Mainstream an.
dargo
2016-04-25, 10:00:01
Also vielleicht doch HBM bei Polaris... ?
Nicht in dieser Preisklasse.
P10 wäre mit US $329 aber sehr günstig.
Naja... für die angeblichen ~232mm² ist das nicht unbedingt sehr günstig. Tonga XT hat 366mm² und wird aktuell ab 220€ angeboten. Nehmen wir noch die zusätzlichen 4GB Ram dazu sind es von mir aus ab 240-250€.
horn 12
2016-04-25, 10:09:12
Überraschungen sind immer gut!
X.Perry_Mental
2016-04-25, 10:18:32
Nicht in dieser Preisklasse.
Naja... für die angeblichen ~232mm² ist das nicht unbedingt sehr günstig. Tonga XT hat 366mm² und wird aktuell ab 220€ angeboten. Nehmen wir noch die zusätzlichen 4GB Ram dazu sind es von mir aus ab 240-250€.
Irgendwie passt das alles hinten und vorne nicht. Ich kann mir nicht vorstellen, dass bei 232mm² und grob 130W Spieleverbrauch eine Karte mit knapp 980TI-Leistung rauskommt - und dann noch Fury im Markt bleiben soll.
Nakai
2016-04-25, 10:30:29
Wer sagt denn das P10 gleich als full kommt?
Skysnake
2016-04-25, 10:31:42
Interposer sollte super billig sein.
Chips sind wohl teuer(er ich glaub auf eine Nvidia Folie standen die doppeltem Preis wie normales RAM und das auch wenn sie Massengefertig werden, also könnte man jetzt wohl noch gut mit Faktor 3-4 rechnen, wobei ich nciht weiß wieviel der Preis insgesamt ausmacht),
Wie gut das zusammenbauen schon klappt kein dir hier keiner sagen, das könnte super klappen oder auch jeden 2. CHips schrotten.
Doch die Info gibt es inzwischen.
>90%. Wenn ich es richtig im Kopf habe sogar >96% Der Ausschuss scheint also nicht mehr gross zu sein.
y33H@
2016-04-25, 11:18:57
There are some situation where Polaris is incredibly fast. Faster than anything in the market. The secret is probably that special culling mechanism in the hardware, which helps the GPU to effectively cull those false positive primitives that aren't visible in the screen. Today's hardwares can't do this.Culling (in Hardware) gibt's doch schon ewig, wie kriegen die es hin, da noch drastische Verbesserungen umzusetzen?
Doch die Info gibt es inzwischen.
>90%. Wenn ich es richtig im Kopf habe sogar >96% Der Ausschuss scheint also nicht mehr gross zu sein.
Warum schmeissen sie dann bei der Pro Duo ein zusaetzliches, scheinbar fertiges Package inkl. HBM mit rein? Als ob die das kaputte Zeug von Anfang an gesammelt haben!? ;)
Woher hast du die Zahl?
@y33h@: tja, das ist die Frage ;) Vielleicht ist es ja auch alles nur Gelaber. Jedenfalls scheint jetzt schon wieder jeder P10 auf 980 Ti Niveau fuer um die 300 $ zu erwarten :facepalm:
Locuza
2016-04-25, 11:36:32
Culling (in Hardware) gibt's doch schon ewig, wie kriegen die es hin, da noch drastische Verbesserungen umzusetzen?
Tessellation gibt es auch schon ewig. :P
Ein anderes Beispiel ist aus meiner Sicht die Speicherkompression.
Bandbreite ist seit eh und je ein Problem und der Gedanke ist sicherlich nicht neu, aber fast gleichzeitig haben wir bei allen drei IHVs eine deutliche Verbesserung an der Stelle erlebt mit Maxwell, GCN Gen 3 und Gen 9.
Botcruscher
2016-04-25, 11:43:38
Der Ausschuss scheint also nicht mehr gross zu sein.
AMD wird der Fiji duo sicher keinen funktionsfähigen Chip beilegen. Wenn es so billig wäre, würden wir weit mehr chips damit sehen.
Nakai
2016-04-25, 11:49:12
AMDs Culling ist doch dem von NV stark unterlegen, wenn man theoretische Tests anguckt.
Loeschzwerg
2016-04-25, 12:19:48
Doch die Info gibt es inzwischen.
>90%. Wenn ich es richtig im Kopf habe sogar >96% Der Ausschuss scheint also nicht mehr gross zu sein.
Ich spiel mal deine Gedächtnisstütze :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10987397#post10987397
@iuno: Die Zahl stammt aus einer Folie die bei den verlinkten Aufzeichnungen gezeigt wurde. Scheint mittlerweile sehr gut zu funktionieren. Genügend Ausschuss aus der Anfangszeit kann ja trotzdem vorhanden sein.
Danke, hatte ich damals gar nicht gesehen. Fuer weitere Interessenten, vermutlich ist diese Stelle gemeint: https://youtu.be/7Scm6boqNeo?t=1131
>98% werden da genannt (assembly). TSV machen in dem Fall ja Hynix/Samsung selber, wie da die Raten sind ist wieder was anderes. Samsung hat aber schon laenger Erfahrung mit TSV und ich denke nicht, dass das ein Problem ist, wenn Amkor auch dort >98% nennt.
Menace
2016-04-25, 13:33:44
Irgendwie passt das alles hinten und vorne nicht. Ich kann mir nicht vorstellen, dass bei 232mm² und grob 130W Spieleverbrauch eine Karte mit knapp 980TI-Leistung rauskommt - und dann noch Fury im Markt bleiben soll.
Diese Leistung wird bestimmt an einem Beispiel unter frame-Limiter-Bedingung erreicht. Schraubt doch nicht jetzt schon wieder die Erwartung ins Astronomische nur um danach fail schreien zu können.
Ailuros
2016-04-25, 13:51:51
Leistung ist NIE umsonst, ueberhaupt wenn es zum Stromvebrauch kommt.
Skysnake
2016-04-25, 14:28:21
Warum schmeissen sie dann bei der Pro Duo ein zusaetzliches, scheinbar fertiges Package inkl. HBM mit rein? Als ob die das kaputte Zeug von Anfang an gesammelt haben!? ;)
Woher hast du die Zahl?
Der Link wurde ja schon von Loeschzwerg gepostet.
Ich spiel mal deine Gedächtnisstütze :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10987397#post10987397
@iuno: Die Zahl stammt aus einer Folie die bei den verlinkten Aufzeichnungen gezeigt wurde. Scheint mittlerweile sehr gut zu funktionieren. Genügend Ausschuss aus der Anfangszeit kann ja trotzdem vorhanden sein.
Ist also hochoffiziell. ;)
Sunrise
2016-04-25, 15:01:03
Warum schmeissen sie dann bei der Pro Duo ein zusaetzliches, scheinbar fertiges Package inkl. HBM mit rein? Als ob die das kaputte Zeug von Anfang an gesammelt haben!? ;)
Woran willst du denn erkennen können, dass zwar der Interposer perfekt funktioniert, der Chip aber unbrauchbar ist? Der HBM ist bei der Einkaufsmenge zu vernachlässigen.
Sprich, wenn das Ding sowieso in den Müll wandert, kann AMD die natürlich auch verschenken, ein schönes Bild gibt das Ding ja allemal ab.
Ja, hat sich ja inzwischen aufgeloest ;)
wenn das Ding sowieso in den Müll wandert, kann AMD die natürlich auch verschenken, ein schönes Bild gibt das Ding ja allemal ab.
das ist schon klar. Man packt aber keinen kaputten Chip ueberhaupt erst auf den Interposer weil man den natuerlich schon vorher testet. Schon gar nicht packt man dann noch (funktionierenden) HBM dazu. Zu vernachlaessigen ist da gar nichts, wie kommst du darauf?
Sunrise
2016-04-25, 15:08:22
Ja, hat sich ja inzwischen aufgeloest ;)
das ist schon klar. Man packt aber keinen kaputten Chip ueberhaupt erst auf den Interposer weil man den natuerlich schon vorher testet.
Ich will dir nur klarmachen, dass wir nicht wissen, ob die Dinger für AMD in den jeweiligen Produkten überhaupt verwertbar sind. Es kann ein komplett funktionierendes Konstrukt sein, oder auch einfach nur Ausschuss, aber die sehr hohe Interposer-Ausbeute bleibt davon ja unberührt. Der Interposer ist nämlich der Teil, der an dem Ding die höchste Ausbeute hat.
Was gibt dir Grund oder nicht Grund zu denken, dass AMD eine voll funktionierendes Produkt verschenkt? Und wenn es so ist, dann ist es erst recht zu vernachlässigen. ;)
Gipsel
2016-04-25, 15:24:07
Culling (in Hardware) gibt's doch schon ewig, wie kriegen die es hin, da noch drastische Verbesserungen umzusetzen?AMD GPUs können offenbar nur mit der normalen Dreiecks-Setup-Rate cullen. Das einzige, was entlastet wird, ist also das Backend, der Durchsatz durch das Frontend wird nicht erhöht. Deswegen kann man bei theoretischen Tests (mit sehr schlankem Pixelprocessing) praktisch identische Dreiecksdurchsätze messen, unabhängig davon ob etwas gecullt werden kann oder nicht. Bei nV ist das deutlich anders. Die Stärke des Frontends bei nV (ist jetzt nur ein Aspekt, aber egal) kommt nicht unbedingt vom generell höherem Dreiecksdurchsatz (wenn die Dreiecke wirklich gezeichnet werden müssen, nehmen sich AMD/nV oft nicht so viel), sondern vermutlich auch vom deutlich effizienterem Culling, wobei mehr Dreiecke verworfen werden können, als die nominelle Setup-Rate hergibt (das bringt recht viel für Unmengen an unsichtbaren Mini-Dreiecken ;)).
edit:
http://abload.de/img/dreiecksdurchsatz_harzprop.png
AMDs Culling ist doch dem von NV stark unterlegen, wenn man theoretische Tests anguckt.This.
Ich will dir nur klarmachen, dass wir nicht wissen, ob die Dinger für AMD in den jeweiligen Produkten überhaupt verwertbar sind.
Dann verstehe ich den Beitrag nicht, denn das war ungefaehr das, was ich gemeint habe.
Was gibt dir Grund oder nicht Grund zu denken, dass AMD eine voll funktionierendes Produkt verschenkt? Und wenn es so ist, dann ist es erst recht zu vernachlässigen. ;)
Es macht einfach keinen Sinn, kaputtes Zeug zusammenzubauen, nur um es als Briefbeschwerer mit ins Paket zu legen. Wenn es beim Packaging kaputtgeht macht es Sinn, sonst nicht, weil es zusaetzliche Kosten verursacht, die keinen Mehrwert bringen.
Sunrise
2016-04-25, 15:37:37
Dann verstehe ich den Beitrag nicht, denn das war ungefaehr das, was ich gemeint habe.
Es macht einfach keinen Sinn, kaputtes Zeug zusammenzubauen, nur um es als Briefbeschwerer mit ins Paket zu legen. Wenn es beim Packaging kaputtgeht macht es Sinn, sonst nicht, weil es zusaetzliche Kosten verursacht, die keinen Mehrwert bringen.
Definiere mal kaputt. Bei mir heißt das "für AMD nicht in einem Produkt verwertbar, da außerhalb der technischen Daten jedweden Produkts, dass es von AMD mit Fiji gibt" und nicht, dass es "defekt", also gänzlich funktionslos ist.
Aber egal was wir denken, wir wissen es einfach nicht...
Ailuros
2016-04-25, 17:02:03
Es gibt IMHO noch einiges an "low hanging fruit" fuer jegliches culling fuer NV und noch mehr fuer AMD wenn es zu culling kommt und dieses ohne sich je vom eigentlichen immediate mode rendering Prinzip zu loesen.
Fuer mich wird es hoechste Zeit dass sich in AMD's Ecke endlich mal etwas diesbezueglich bewegt.
Brillus
2016-04-25, 20:19:10
Hast du die Quelle dazu noch? Doppelt so teuer im Bezug auf was? Bandbreite? Kapazitaet? Galt das fuer ganze Stacks vs. einzelne GDDR5-Chips oder die vs. die?
Je nachdem was die Metrik ist braucht man auch gut mal doppelt so viele GDDR5 Chips (oder mehr). GDDR5-Chips kosten (wenn ueberhaupt) in diesen Abnahmemengen wenige Dollar. Eine Verdoppelung waere also kein Problem. Zumindest aus meiner Sicht, ich bin aber auch kein Controller :P
Sry nein ist schon so ca. ein Jahr her und war hier irgendwo im Forum verlinkt.
Locuza
2016-04-26, 06:21:09
Oh I also had a chat with the AMD guys at PAX. Polaris will only use GDDR5 not even GDDR5x. Vega 10 will use HBM 2 and it's more Spring 2017.
Edit: Polaris was said to be faster than a 290, but much cheaper and use way less energy
http://www.neogaf.com/forum/showpost.php?p=201834331&postcount=11990
Also ich würde das auf jeden Fall noch mit einer prise Salz genießen.
Ailuros
2016-04-26, 07:43:39
Ich weiss ehrlich nicht woher der Mist herkommt dass alles unter Greenland/Vega je mit irgendwelcher Form von HBM geplant war. Mag sein dass die BS-rumor-mongerers jetzt versuchen sich aus ihrer eigenen Pampe zu buddeln, es aendert sich aber keinen nanometer daran etwas dass fuer diese Generation fuer BEIDE IHVs nie etwas ausserhalb vom jeweiligen high end etwas mit HBM geplant war.
Sonst diejenigen die immer noch glauben dass es der Fall sein kann dass es sehenswert mehr Leistung vs. Hawaii bei =/<120W maximalem Stromverbrauch geben wird, sollten vielleicht schon jetzt ihre private Schaufel zum ausbuddeln buchen.
Hübie
2016-04-26, 08:25:11
http://www.neogaf.com/forum/showpost.php?p=201834331&postcount=11990
Also ich würde das auf jeden Fall noch mit einer prise Salz genießen.
Wieso das? Klingt durchaus realistisch. Kleiner Die, große Performance und kein GDDR5X war ziemlich schnell klar. Aber im Grunde steht da nix neues.
Rancor
2016-04-26, 08:27:07
Polaris sieht richtig gut aus :up: Mal sehen wie sich Pascal schlägt. Vllt. wechsel ich mal wieder zu AMD.
Locuza
2016-04-26, 08:29:34
Wieso das? Klingt durchaus realistisch. Kleiner Die, große Performance und kein GDDR5X war ziemlich schnell klar. Aber im Grunde steht da nix neues.
Kein GDDR5X Hybridcontroller wäre schade.
Wenn Polaris zuerst nur mit GDDR5 erhältlich ist, okay, aber wenn es später dann auch nichts gibt, meh.
Aber sowieso mal sehen, wie sich Polaris und Pascal bei einer relativ niedrigen Speicherbandbreite schlagen.
mboeller
2016-04-26, 08:58:57
http://www.neogaf.com/forum/showpost.php?p=201834331&postcount=11990
Also ich würde das auf jeden Fall noch mit einer prise Salz genießen.
deckt sich IMHO auch gut mit dem von wccftech. Also ist der P10 der Nachfolger vom Pitcairn/Curacao ... nur halt verdoppelt bzgl. TMU/ALU count (sehr vereinfacht).
Nach den ganzen "Aufgüssen" und Winzig-Updates der letzten Jahre endlich mal eine starke Verbesserung beim Mainstream. Wurde auch Zeit... nur die Highend-Käufer werden natürlich enttäuscht sein und FAIL schreien... wetten!
Wieso das? Klingt durchaus realistisch. Kleiner Die, große Performance und kein GDDR5X war ziemlich schnell klar. Aber im Grunde steht da nix neues.
Das meinte er damit ja. Du hast wohl die letzten Seiten verpasst, die eben dem mit vermeintlich neuen Infos widersprechen.
Dural
2016-04-26, 09:23:51
Aber sowieso mal sehen, wie sich Polaris und Pascal bei einer relativ niedrigen Speicherbandbreite schlagen.
Die Chips werden dort landen wo sie mit der Bandbreite hingehören, so einfach ist das.
Und nur so als info, Pascal in form von GP104 hat so viel Bandbreite wie GM200 (ca.) das Leistungs-Ziel von GP104 wird um GM200 sein, eventuell plus ca. 10% Und ich kann dir versichern das die Bandbreite logischerweisse dafür ausreichen wird.
Über die Fantasie Werte von Polaris die derzeit rumgehen geh ich gar nicht drauf ein, lächerlich. Aber wir kennen es von AMD ja auch gar nicht besser, grosse klappe und nichts dahinter. Perf/Watt Verhältnis können sie offensichtlich schon jetzt nicht mehr einhalten obwohl im Januar noch gross versprochen. :rolleyes:
Ailuros
2016-04-26, 09:55:47
Die Chips werden dort landen wo sie mit der Bandbreite hingehören, so einfach ist das.
Und nur so als info, Pascal in form von GP104 hat so viel Bandbreite wie GM200 (ca.) das Leistungs-Ziel von GP104 wird um GM200 sein, eventuell plus ca. 10% Und ich kann dir versichern das die Bandbreite logischerweisse dafür ausreichen wird.
Nur eine GP104 SKU wird GDDR5X haben und dementsprechend Bandbreite im GM200 Bereich; die anderen 2 SKUs mit GP104 werden mit GDDR5 auskommen muessen.
Über die Fantasie Werte von Polaris die derzeit rumgehen geh ich gar nicht drauf ein, lächerlich. Aber wir kennen es von AMD ja auch gar nicht besser, grosse klappe und nichts dahinter. Perf/Watt Verhältnis können sie offensichtlich schon jetzt nicht mehr einhalten obwohl im Januar noch gross versprochen. :rolleyes:
Ich bezweifle dass AMD je als Ziel hatte mit der grossten Polaris SKU GM200 Leistung zu erreichen. Wer dieses erwartet hat oder solches aus AMD's Meldungen interpretiert hat ist selber schuld.
Sonst wird Polaris GDDR5 gegen GP104 GDDR5 konkurrieren.
Sonst wird Polaris GDDR5 gegen GP104 GDDR5 konkurrieren.
Somit werden die beiden kleinen GP104-150/200 ein vernünftiges P/L haben und der GP104-400 einen extrem hohen Aufschlag.
Nakai
2016-04-26, 10:11:56
So wie es aussieht wird GP104 eine ähnliche Anzahl an SPs wie GP104 besitzen.
NV wird mehr Takt liefern und eine höhere Bandbreite haben. Ich glaube aber kaum dass GP104 nennenswert über GM200 liegen wird. Das hängt aber vom Chiptakt ab, und NV konnte da Eiben guten Batzen drauflegen.
Ich würde es wie gk104 und Pitcairn sehen, mit einem nicht so starkem Vorsprung für GP104.
Ailuros
2016-04-26, 10:12:17
Somit werden die beiden kleinen GP104-150/200 ein vernünftiges P/L haben und der GP104-400 einen extrem hohen Aufschlag.
Zwar nur reines Bauchgefuehl aber es klingt momentan so als ob die GP104-200 ein ziemlicher "sweet spot" fuer Preis/Leistung/Verbrauch sein wird.
Über die Fantasie Werte von Polaris die derzeit rumgehen geh ich gar nicht drauf ein, lächerlich. Aber wir kennen es von AMD ja auch gar nicht besser, grosse klappe und nichts dahinter.
Ich bezweifle dass AMD je als Ziel hatte mit der grossten Polaris SKU GM200 Leistung zu erreichen. Wer [...] solches aus AMD's Meldungen interpretiert hat ist selber schuld.
Das witzige ist, dass von AMD ueberhaupt gar keine Aussagen in dieser Richtung kamen. Das sind die Aussagen von angeblichen insidern und der angebliche 3DMark wert "um die oder aehhhhh doch nicht ganz 4000 Punkte" :ucrazy: Wer so argumentiert, kann genauso auch Nvidia Laecherlichkeit vorwerfen, weil ein paar abgehobene Fans GP104 GM200+50% Leistung zusprechen :rolleyes:
Basierend auf den wenigen offiziellen Infos war ich sogar noch lange sehr skeptisch, ob P10 ueberhaupt auch nur annaehernd in die Regionen von GP104 kommt und habe ihn eher als GP106 Konkurrent gesehen.
Die Aussage von oben, P10 sei "much cheaper" als 290 muss man aber auch skeptisch sehen. Da fraegt sich auch, ob der eingependelte Preis oder der zur Einfuehrung gilt.
Dass die 480X(?) nicht mit GDDR5X bestueckt wird, sollte ja egal sein, sobald sich die Erwartungen wieder beruhigt haben. Mich wuerde dennoch interessieren, ob von AMD prinzipiell ein Hybrider MC entwickelt wurde, fuer einen Refresh oder spaetere Karten. Immerhin liesse sich mit 5X die Effizienz nochmal steigern, sofern der Speicher preislich jemals attraktiv wird.
Zwar nur reines Bauchgefuehl aber es klingt momentan so als ob die GP104-200 ein ziemlicher "sweet spot" fuer Preis/Leistung/Verbrauch sein wird.
Ergibt ja auch Sinn. So wie die 970 seinerzeit, nur hoffentlich vollends "gesund". Die war ja fuer Nvidia trotz Krueppelstatus ein riesen Erfolg. Das wird AMD aber eher nicht besonders weh tun, weil P10 offenbar doch deutlich kleiner ist.
Ailuros
2016-04-26, 10:46:54
Ab welchem Prozentual ist A die area "deutlich" kleiner als die area B?
N0Thing
2016-04-26, 10:59:03
http://www.neogaf.com/forum/showpost.php?p=201834331&postcount=11990
Also ich würde das auf jeden Fall noch mit einer prise Salz genießen.
Das klingt auf alle Fälle passender mit Blick auf die ursprünglichen Angaben von AMD und nachfolgenden Spekulationen, als ein P10 auf den Niveau von Fury X und 980Ti. :)
GDDR5X wäre als Option sicher wünschenswert, wenn man sich die Speicherbandbreite von 375GB/s bei der R9 390 anschaut. Aber bei Tonga reichen die 178GB/s in den meisten Fällen ja auch aus.
dargo
2016-04-26, 11:04:45
Nach den ganzen "Aufgüssen" und Winzig-Updates der letzten Jahre endlich mal eine starke Verbesserung beim Mainstream. Wurde auch Zeit... nur die Highend-Käufer werden natürlich enttäuscht sein und FAIL schreien... wetten!
Fail. ;)
Nee... mal ehrlich. Selbst wenn P10 im Vollausbau Fury X/980TI erreichen sollte wäre das für mich immer noch ziemlich langweilig. Und ich bin kein High-End Käufer mit Grenada Pro. Von dem niedrigerem Verbrauch werden meine Spiele auch nicht schneller gerendert.
dildo4u
2016-04-26, 11:16:28
Wenn Polaris Fury X erreicht sieht man erstmal wie überflüssig HBM für diese Karten ist,wenn AMD dazu nicht mal GDDR5X braucht.Das ganze scheint ne reine Machbarkeit's Studie gewesen zu sein,die der Kunde teuer bezahlen musste.Fury X sollte doch die selbe verbesserte Kompression wie Tonga haben,die Karte wäre mit 8GB GDDR5 deutlich sinnvoller gewesen.
Lurtz
2016-04-26, 11:18:55
Wenn Polaris Fury X erreicht sieht man erstmal wie überflüssig HBM für diese Karten ist,wenn AMD dazu nicht mal GDDR5X braucht.Das ganze scheint ne reine Machbarkeit's Studie gewesen zu sein,die der Kunde teuer bezahlen musste.Fury X sollte doch die selbe verbesserte Kompression wie Tonga haben,die Karte wäre mit 8GB GDDR5 deutlich sinnvoller gewesen.
War HBM nicht hauptsächlich dazu da, mit alter Fertigung den Stromverbrauch zu senken?
Ich weiss ehrlich nicht woher der Mist herkommt dass alles unter Greenland/Vega je mit irgendwelcher Form von HBM geplant war. Mag sein dass die BS-rumor-mongerers jetzt versuchen sich aus ihrer eigenen Pampe zu buddeln, es aendert sich aber keinen nanometer daran ...
Ist das nicht immer so? Wurde nicht monatelang über XDR(?) statt GDDR5 bei GCN(HD7970) spekuliert, später dann ewig ob Fiji nun mit 4GB oder 8GB kommt?
Ist doch immer der gleiche Käse. Fiebriges Wunschdenken und Clickbait-"Journalismus".
Hätte man in Fiji überhaupt ein 512Bit GDDR5 MC einbauen können? Der Chip hat doch schon 600mm².
Der_Korken
2016-04-26, 11:44:19
512bit GDDR5 wären wahrscheinlich schon recht eng geworden bei Fiji. Vor allem der Stromverbrauch wäre nochmal angestiegen. Allerdings hätte man auch locker von 64 auf 56CUs runtergehen können, wenn man sieht wie schlecht der Chip mit Rohleistung skaliert. Schwierig zu sagen, aber letztlich war Fiji dann doch wie hier beschrieben der "pipe cleaner" für HBM.
Wenn Polaris Fury X erreicht sieht man erstmal wie überflüssig HBM für diese Karten ist,wenn AMD dazu nicht mal GDDR5X braucht.Das ganze scheint ne reine Machbarkeit's Studie gewesen zu sein,die der Kunde teuer bezahlen musste.Fury X sollte doch die selbe verbesserte Kompression wie Tonga haben,die Karte wäre mit 8GB GDDR5 deutlich sinnvoller gewesen.
Man hat die HBM-Infratruktur aufgebaut um davon in der Vega und Navi-Generation profitieren zu können. Sicherlich wär Fiji auch mit GDDR5 möglich gewesen, jedoch ging es bei Fiji gar nicht primär um den Chip und seine Positionierung sondern eher darum, dass man sowohl die Chipgröße beherrscht (das ist bei AMD immerhin Premiere gewesen) und dass man HBM und Interposer in Massenproduktion kann. NV macht ja ähnliches mit GP100 und wird davon ebenfalls in der Volta-Generation profitieren.
Fiji ist ja gar nicht wirklich wichtig für AMD, die Positionierung ist für AMD nicht Kriegsentscheidend gewesen, wenn es schiefgegangen wäre. Man hat sich auf bewährte GCN-Technik mit bewährtem 28nm-Prozess zurückgegriffen um die Risiken von der Chip-Seite aus minimal zu halten. Jetzt weiss man, dass sowas beherrschbar ist mit eigener Technologie und kann (und wird) auch bei den Nachfolgegenerationen solche Projekte anstoßen.
Hübie
2016-04-26, 12:39:47
Nakai sagte doch schon mehrere Male, dass Fiji ein Testballon war und das sieht nicht nur er so. Fiji hat und hatte seine Daseinsberechtigung, da zweifel ich nicht dran. Nur war der Preis wirklich hoch angesetzt. Technisch sicher sinnvoll und man konnte so einiges an Erfahrung reinbringen.
So gesehen habt ihr beide Recht | Unrecht. :D
Wirtschaftlich war das sicherlich ein Nullsummenspiel mMn, also für AMD ein Erfolg, denn darum ging es denen nicht bei Fiji.
Ailuros
2016-04-26, 12:52:10
Nakai sagte doch schon mehrere Male, dass Fiji ein Testballon war und das sieht nicht nur er so. Fiji hat und hatte seine Daseinsberechtigung, da zweifel ich nicht dran. Nur war der Preis wirklich hoch angesetzt. Technisch sicher sinnvoll und man konnte so einiges an Erfahrung reinbringen.
So gesehen habt ihr beide Recht | Unrecht. :D
Nur hat daemlicherweise P100 ueber 5 TFLOPs DP, ergo ist es wohl um zich Male weniger ein jeglicher "testballon" als Fiji oder sonst was noch, sondern eher eine Notwendigkeit.
So gesehen geht es wohl weniger darum wer Recht hat, sondern eigentlich wie viele "Genies" wir wirklich on board haben :freak::freak:
Hübie
2016-04-26, 13:08:05
Na wenn man es so spezifisch sieht, dann kann man sich ja mal heraussuchen wieviel Radeon Pro Duo abgesetzt werden sollen. :D
Ich wette Jensen hat jetzt schon mehr von einem Chip verkauft den es noch nicht gibt, als diese Dual-Fiji-Geschichte es je schaffen wird. Das liegt auch nicht unbedingt an der Güte eines Produktes. ;) Tr0llolol SCNR
Die Duo ist wie ein 1000PS-Auto, ein Spielzeug bzw. Machbarkeitsstudie für Sammler und Bekloppte.
Botcruscher
2016-04-26, 13:22:18
Wirtschaftlich war das sicherlich ein Nullsummenspiel mMn, also für AMD ein Erfolg, denn darum ging es denen nicht bei Fiji.
Das ist imo die große Frage und da hab ich meine Zweifel.
Hübie
2016-04-26, 13:34:16
Die Duo ist wie ein 1000PS-Auto, ein Spielzeug bzw. Machbarkeitsstudie für Sammler und Bekloppte.
Na das dumme ist ja dass den damaligen Titan-Z-Hatern nun das Argument unter den Füßen weg gezogen wurde. :D Die war auch für Sammler und Bekloppte. Solche Leute muss es halt geben.
Edit: Jetzt bin ich aber wirklich neugierig, ob es irgendwo Verkaufszahlen zu Fiji gibt. Hat man die Mio geknackt? :| Bei 400.000 Stück dürfte man in etwa die Gewinnzone erreichen.
Agent117
2016-04-26, 13:34:44
Zwar nur reines Bauchgefuehl aber es klingt momentan so als ob die GP104-200 ein ziemlicher "sweet spot" fuer Preis/Leistung/Verbrauch sein wird.
Mal abwarten was GP104-150 überhaupt ist. Vlt doch eine Reaktion auf P10?
Kann mir nicht vorstellen, dass es in Nvidias Interesse liegt den GP104 sehr weit runterzuprügeln und die Marge zu drücken.
GP104-200 könnte aber aufgrund der 8Ghz GDR5 kaum sparsamer sein als -400 der ja den sparsameren GDR5X nutzen soll.
Wann soll GP104-400 mit GDR5X überhaupt kommen? Hat Nvidia so den Druck wegen Polaris dass man die 1070 jetzt unbedingt noch schnell mit 8Ghz GDR5 bringen muss statt später mit GDR5X?
Etwas seltsam ist das schon alles.
Dass die 480X(?) nicht mit GDDR5X bestueckt wird, sollte ja egal sein, sobald sich die Erwartungen wieder beruhigt haben. Mich wuerde dennoch interessieren, ob von AMD prinzipiell ein Hybrider MC entwickelt wurde, fuer einen Refresh oder spaetere Karten. Immerhin liesse sich mit 5X die Effizienz nochmal steigern, sofern der Speicher preislich jemals attraktiv wird.
AMD hat zumindest an GDR5X in irgendeiner Form gearbeitet. Es gab mal vor ca. 1 Jahr Linkedin Profile von ehemaligen AMD Mitarbeitern wo was von GDR5X stand. Warum soll GDR5X denn so viel teurer sein?
Die Chips sind doch bis auf den 16-fachen Prefetch und par mehr Pins fast gleich zu GDR5.
Nightspider
2016-04-26, 13:39:50
Ein Polaris 10 mit 290X Leistung würde jedenfalls sehr viele Käufer finden.
Eventuell wird ein Preis von 250 Euro anvisiert womit man imo sehr viele Karten verkaufen würde.
Ich kenne ein paar Leute die gefühlt 3 Jahren warten das sich in diesem 200 Euro Segment endlich mal wieder etwas bewegt und das wäre mit Polaris der Fall.
Genial wäre es natürlich wenn man das kleine Kärtchen dann noch gut übertakten könnte aber da glaube ich selbst nicht dran. Wohl max.+10% womit man dann aber auch schon auf 390X Niveau wäre.
Interessant wird natürlich wie die neue Architektur durchschlägt. Wenn das Culling wirklich extrem verbessert wurde wird es einzelne Benchmarks geben wo Polaris 10 auf Fiji Niveau liegen könnte, in Extremfällen vielleicht sogar darüber? Wer weiß. Ich bin jedenfalls sehr gespannt.
Wenn wir Pech haben liegt Polaris 10 aber nur in sehr geometrielastigen Spielen auf 290X Niveau. Also da wo das neue Culling schon seine Vorteile auspielt.
Na das dumme ist ja dass den damaligen Titan-Z-Hatern nun das Argument unter den Füßen weg gezogen wurde. :D Die war auch für Sammler und Bekloppte. Solche Leute muss es halt geben.
Mit dem Unterschied, dass es zur Titan Z eine Konkurrenz gab, die schneller war(R9 295X2).
Wenn NV nun eine 980X2 rausbringen würde, sähen die kolportierten 1500$ für die Duo noch alberner aus. Obwohl, NV will dann bestimmt 2000$. :freak:
dildo4u
2016-04-26, 14:00:42
Die 380X scheint genau zwischen Polaris 11 und 10 zu passen von daher wird 10 garantiert nicht für 250€ kommen.
dargo
2016-04-26, 14:09:40
Die 380X scheint genau zwischen Polaris 11 und 10 zu passen von daher wird 10 garantiert nicht für 250€ kommen.
Wer sagt denn, dass die Preise der 28nm Beschleuniger so bleiben?
Polaris 11 sollte nicht wesentlich schwächer werden als TongaXT, denn dann wäre man auf Pitcairn Niveau und hätte nicht besonders viel gewonnen.
Wenn Polaris 11 mit kolportierten 1280 Shadern nur Pitcairn mit neuen Features mit weniger Verbrauch ist, dann wäre das schon mager. Bis 25% mehr Leistung kann man schon erwarten aus mehr Takt und Achitekturverbesserungen. Sonst wärs nur ein popliger Shrink.
Hübie
2016-04-26, 14:19:16
Mit dem Unterschied, dass es zur Titan Z eine Konkurrenz gab, die schneller war(R9 295X2).
Wenn NV nun eine 980X2 rausbringen würde, sähen die kolportierten 1500$ für die Duo noch alberner aus. Obwohl, NV will dann bestimmt 2000$. :freak:
Gibt es doch schon in Form der Tesla M60 und die Quadro M5000 mit GM204 hat sogar 8 GB. So kann man Kunden also auch schnell "überreden" zu wechseln. Würde mich nicht wundern, wenn die plötzlich eng mit Spiele-Entwicklern zusammen arbeiten und plötzlich braucht man keine Tesselation-Power mehr sondern VRAM en mass. :freak:
Nightspider
2016-04-26, 14:19:17
Es ist eigentlich sowieso Wahnsinn wie teuer man uns noch die alte 28nm Technik verkauft. Sowas gabs ja auch noch nie.
Ich hoffe jedenfalls mit einem kleinen Preisrutsch mit 14nm/16FF.
Falls die GTX1080 für 650-700 Euro kommt kann alles andere im Preis nach unten rutschen und Nivida würde trotzdem noch mehr Gewinn damit machen als mit einer GTX980ti.
Auch wenn wir noch nicht wissen wie viel teurer der 16FF Prozess ist aber er wird pro Fläche ja nicht doppelt so teuer sein wie 28nm. GDDR5X würde ich jetzt auch höchstens 30% teurer schätzen als GDDR5 7gbps. Was meint ihr?
Die verschwinden doch sowieso direkt vom Markt. Sobald die beiden Polaris-Chips verfügbar sind werden alle Chips ab Bonaire einfach verschwinden, mit Ausnahme von Hawaii und Fiji, die ja für die Profibeschleuniger weiterhin gebraucht werden. Die Bereiche darunter sind eh fix abverkauft bei den geringen Preisen.
Zu den Preisen eines Produktes zählt nicht nur der Chip-Preis. Sollte P10 tatsächlich der 232mm²-Chip sein, dürfte der Chip schon deutlich billiger als der Hawaii-Chip sein. Die Karte ist nochmals deutlich billiger, da nur 256Bit Interface und maximal 175W und sehr klein soll das PCB ja ebenfalls ausfallen. Die Kosten der Kühllösungen sollten dank des enormen Bedarfs und hohen TDPs der 28nm-Generation generell gefallen sein für alle Hersteller und man braucht ja nur Lösungen auf PitcairnXT bzw.Tonga-Niveau für Silent. Sehr viel teurer als Pitcarin in 2012 wird das AMD nicht kommen. Wenn NV mit 300mm² kommt, was deutlich größer wär, ist das NV-Produkt natürlich teurer. Wobei ich bei der großen Variante auch von höheren TDPs ausgehe. Bei sehr viel Takt sind auch FinFETs nicht mehr so effizient. Letztendlich werden sich die Preise der kleineren Lösungen eher auf den alten Niveaus einpendeln. Bei den großen HBM-Lösungen wie den beiden Vega-Varianten und GP102 sieht das hingegen anders aus, da werden die Preise im Durchschnitt weiter steigen. Eine 600mm²-Variante mit 16GB HBM2 mit 300W TDP ist sicherlich sehr teuer in der Produktion und auf dem Markt wenn dann nur knapp unter 1000€ zu erwarten und ein Vega10 mit 2 HBM2 Stacks mit 8GB in 350mm² dürfte sich ebenfalls über Hawaii-Niveau bewegen ungefähr bei 500€ würd ich mal schätzen.
Bei NV wird man sicherlich 80, 120, 200, 300 und 500mm²+ bringen, AMD wird sich auf 120, 232, 350 und 500mm²+ beschränken im Gaming-Bereich mMn.
Hübie
2016-04-26, 14:26:03
Es ist eigentlich sowieso Wahnsinn wie teuer man uns noch die alte 28nm Technik verkauft. Sowas gabs ja auch noch nie.
Ich hoffe jedenfalls mit einem kleinen Preisrutsch mit 14nm/16FF.
Falls die GTX1080 für 650-700 Euro kommt kann alles andere im Preis nach unten rutschen und Nivida würde trotzdem noch mehr Gewinn damit machen als mit einer GTX980ti.
Auch wenn wir noch nicht wissen wie viel teurer der 16FF Prozess ist aber er wird pro Fläche ja nicht doppelt so teuer sein wie 28nm. GDDR5X würde ich jetzt auch höchstens 30% teurer schätzen als GDDR5 7gbps. Was meint ihr?
Wenn wir mal Volumen gleichsetzen und den Zeitfaktor weg lassen dürfte GDDR5X kaum mehr als 10% über GDDR5 liegen. Da wir aber die ersten beiden Faktoren haben ist deine Schätzung imo gar nicht so verkehrt. Das wirst du als AIB aber kaum bemerken. Nur als Kunde zahlt man den "Haben-Will-Faktor" nach den Gossen'schen Gesetzen.
Micron wird sich die ersten Chargen ordentlich vergolden lassen, bis andere Hersteller damit auf den Markt drängen.
Wenn du das preislich kaum merken würdest, gäbe es gar keine GP104 mit GDDR5 und schon gar nicht mit 8Gbps GDDR5, immerhin könnte man so wieder ein paar W sparen.
Hübie
2016-04-26, 15:35:58
Du merkst nicht ob es jetzt wegen GDDR5X oder der Performance teurer ist. Also das Maß wird nicht spürbar sein. Das war meine Aussage. Und gut das du dich oft genug irrst, wenn es um solche Dinge geht. :P
Selbst wenn es nur 10% sind, ist sowas fuer den Hersteller wichtig, bei der Menge (Millionen), die da verkauft wird, kommt einiges zusammen.
Trotzdem wird man natuerlich nicht ueberall 5X draufpappen, auch wenn nicht mehr spuerbar teurer waere. Fuer den Hersteller ist das doch ein gefundenes Fressen. So kann man schoen differenzieren und den hoeheren Preis der Top-SKU rechtfertigen.
5X "ueberall" einzusetzen, kommt imho nur infrage, wenn 5 auslaufen und teurer wuerde (was nicht der Fall ist) oder wenn aufrund von Konkurrenzdruck ein Refresh noetig wird, der noch etwas effizienter oder schneller wird.
dildo4u
2016-04-26, 16:01:40
Polaris 11 sollte nicht wesentlich schwächer werden als TongaXT, denn dann wäre man auf Pitcairn Niveau und hätte nicht besonders viel gewonnen.
Hä die 370 braucht 110 Watt wenn Polaris 11 50Watt braucht wäre sie sogar leicht besser als die versprochenen 2X Performance per Watt.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36345-nvidia-geforce-gtx-950-gegen-amd-radeon-r7-370.html
Hä die 370 braucht 110 Watt wenn Polaris 11 50Watt braucht wäre sie sogar leicht besser als die versprochenen 2X Performance per Watt.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36345-nvidia-geforce-gtx-950-gegen-amd-radeon-r7-370.html
Leicht besser ok, aber bei gleicher Anzahl Shader sollte auch mehr Leistung rauskommen, bzw die Shader sollte mehr Bumms haben.
Du merkst nicht ob es jetzt wegen GDDR5X oder der Performance teurer ist. Also das Maß wird nicht spürbar sein. Das war meine Aussage. Und gut das du dich oft genug irrst, wenn es um solche Dinge geht. :P
Hey wo gehobelt wird, da fallen Späne :D. Aber High-End-Speicher wird immer vergoldet. Auch 8Gbps GDDR5 wird nicht gerade billig sein. Anhand der sehr günstigen PCBs und doch recht sparsamen Chips kann man da aber offenbar in die Vollen gehen. Natürlich ist damit zu rechnen, dass GDDR5X irgendwann GDDR5 einfach beerben wird, auch preislich, weil das dann andere Hersteller ebenfalls anbieten und die Bandbreite ganz einfach gebraucht wird. Zudem wird man, wenn die Preise mal angeglichen sind, auch lieber GDDR5X einsetzen, weil das einfach sparsamer kommt als superhoch getaktete Speichercontroller.
Hübie
2016-04-26, 17:37:39
Hey wo gehobelt wird, da fallen Späne :D.
Der Spruch gefällt mir. :up:
Herr Doktor Klöbner
2016-04-26, 21:12:39
Ich bin mal gespannt in welchem Preissegment die Polaris 10 Karten aufschlagen werden.
Ich tippe mal Markteinführung zwischen 300-350 € , nach einem halben Jahr 250,- € für eine 8 Gigabyte Variante, letztlich ist das ja der direkte Nachfolger der R380/380X Serie.
Wenn die merklich schneller als Hawaii/Grenada ist, dann eher 399€. Wenn auf einem Niveau, dann könnte es hinkommen.
w0mbat
2016-04-26, 23:09:40
Ich will endlich meine HD7870 in Rente schicken!
Sollte Polaris10 wirklich schneller als Fiji sein sind 450€ drin. Ich würd mal tippen
550-600€ für GP104 max
450-500€ für P10 max
ca. 350€ für GP104 salvage
ca. 300€ für P10 salvage
250€ für GP104 OEM
Hübie
2016-04-26, 23:53:59
Auch wenn wir selten einer Meinung sind: So schätze ich das auch ein.
Nakai
2016-04-27, 00:10:40
Und ich sage:
Polaris10 XT ~350€
Polaris10 Pro ~250€
Brillus
2016-04-27, 00:40:16
Ich würde mal erwarten jetzt was auf 390x Nivau mit GDDR5 und dann später noch ein Nachzügler mit GDDR5X der Fury X erreicht. (Jeweils +/- 10%)
Wenn Polaris grundsätzlich kein GDDR5X unterstützen würde, wäre es sinnlos im Linux-Treiber die Möglichkeit zu hinterlegen abzufragen ob GDDR5 oder GDDR5X verwendet wird.
Ich denke mal am idealsten für AMD wäre ein Launch der GDDR5X Version im Oktober schön in der Mitte zwischen Polaris und Vega, aber nicht sicher ob das mit der Lieferbarkeit hinkommt.
Ich würde auch jeweils von so 300-350€ ausgehen für den aktuell höchsten Polaris 10.
AnnoDADDY
2016-04-27, 07:37:05
Wenn der wirklich 980ti Niveau erreicht sind 550€ aufwärts realistisch...
Wenn Polaris grundsätzlich kein GDDR5X unterstützen würde, wäre es sinnlos im Linux-Treiber die Möglichkeit zu hinterlegen abzufragen ob GDDR5 oder GDDR5X verwendet wird.
Woher hast du das? Ich hoffe nicht von mir. Ich weiss, ich habe dazu hier mal aus dem Gedaechtnis was fallen gelassen, habe aber auch deutlich gesagt dass ich mir nicht mehr sicher war man das nochmal untersuchen muss
Leicht besser ok, aber bei gleicher Anzahl Shader sollte auch mehr Leistung rauskommen, bzw die Shader sollte mehr Bumms haben.
Pitcairn laeuft aber auch mit knapp 1 GHz, P11 lief auf der fruehen Demo irgendwo zwischen 800 und 900 MHz. AMD hat ja auch kuerzliche nochmal betont, dass das Teil fuer den Notebookmarkt gedacht ist.
YfOrU
2016-04-27, 10:18:20
Polaris 11 ist mit Blick auf das TDP Budget wohl in erster Linie der mehr als überfällige Ersatz für Cape Verde. Mit dem uralten Design ist AMD vor allen gegenüber GM107 schon länger miserabel aufgestellt. Um 50W GPU TDP kann man AMDs Design Wins bei der Skylake NB Generation an einer Hand abzählen.
Schlussendlich auch verständlich denn Cape Verde ist selbst mit GDDR5 noch langsamer als GM107 mit DDR3. So ganz verstehe ich es aber bis heute nicht denn mit Bonaire hätte sich AMD zumindest ein Stück besser aufstellen können.
CapVerde bleibt, genau wie Oland, vorerst. Ab Bonaire wird ersetzt und das macht auch Sinn so.
YfOrU
2016-04-27, 10:35:38
Natürlich bleiben alte 28nm GPUs wie gehabt im Portfolio. Das ändert aber nichts am eigentlichen Segment denn das wird bei Mobile durch die Verlustleistung definiert. Deutlich mehr als 50W (GPU) ist bei Geräten wie dem MBP 15 / XPS 15 etc. kaum vernünftig unterzubringen. Also der Bereich von Cape Verde / GM107.
Eine R9 M470X (Bonaire) mit 75W TDP kann ich mir in einem 27 Zoll AiO wie dem iMac als Entry dGPU Lösung vorstellen. In einem kommenden 2016er Notebook eher nicht denn dafür gibt es wesentlich bessere/effizientere Lösungen.
Bonaire ist halt noch deutlich groesser als Cape Verde und kratzt "unten" an den 75 Watt, waehrend GM107 dort etwa aufhoert. Es wird sich einfach nicht lohnen, Bonaire statt CV noch niedriger zu takten und zu verbauen.
Wenn man das gesamte Lineup betrachtet, sehe ich P11 aber auch als Nachfolger von CV; P10 waere dann dementsprechender Nachfolger von Pitcairn.
YfOrU
2016-04-27, 11:06:30
Auf der anderen Seite ist Bonaire effizienter als Cape Verde und nur unwesentlich größer als GM107 (bei der 7770 zur 7790 waren es grob +8% Verlustleistung für +30% Performance). Ein etwas besseres Produkt im 50W Segment wäre meiner Ansicht nach schon möglich gewesen. Ob es bezüglich der Stückzahlen/Design Wins einen relevanten Unterschied gemacht hätte ist schwer zu sagen. Es bei der gegenüber Maxwell bereits grundsätzlich recht schlechten Ausgangsposition nicht zu machen ist halt etwas fragwürdig.
Meine Vermutung ist das es AMD mit dem vergleichsweise kleinen Cape Verde über den Preis probiert hat. Funktioniert hat das aber eher nicht.
Thunder99
2016-04-27, 11:14:16
Ich frage mich gerade eher ob AMD überhaupt GDDR5X abbekommt, nachdem die 1080 mit GDDR5X bestätigt wurde... . Es ist halt frühe Phase der Produktion und AMDs Karten sollen ja ein höheren Volumen haben (in dem Preissegment) als das TopDog Ding von den Grünen
Nakai
2016-04-27, 12:19:40
Womöglich bekommt erst Apple den richtigen P10 ab. Jedenfalls bringt AMD einen Chip für 200~250€/$. Ob es P10 ist oder P11 kann ich nicht sagen. Ich denke es ist P10-Pro.
Apple wird zumindest im MacBook keinen P10 verbauen, denke ich. Das ist einfach schon eine Nummer zu gross und verbraucht zu viel Strom. P11 ist da der logische Nachfolger von CV.
Im MacPro sehe ich P10 auch nicht, da kommt momentan Tahiti als FirePRO mit FP64 Leistung zum Einsatz.
Hoechstens in den iMac (5k) koennte P10 rein kommen - mach uns hier keine Panik, nicht dass das so laeuft wie mit Tonga XT ;D
Agent117
2016-04-27, 12:56:50
Wenn das mit Tonga überhaupt auch nur irgendetwas mit Apple zu tun hatte.
Was soll das denn für ein Exklusivdeal sein. Für einen 0815 Chip wie Tonga?
Wenn überhaupt dann gegen andere Notebookhersteller und nicht gegen Destopkäufer (hier gab es ja noch Hawaii), doch hier bekam Alienware ja auch zeitnah Full Tonga.
Bei Polaris 10 wäre das schon wahrscheinlicher da er eben zur jetzigen Zeit kein 0815 Chip ist, aber ich glaube überhaupt nicht daran dass wir den nur beschnitten sehen wegen Apple.
Das muss auch kein Exklusivdeal in diesem Sinne sein (weiss man ja bei Tonga auch bis heute nicht, ob das da ueberhaupt der Fall war, imho nicht), wenn die Stueckzahlen niedrig genug sind, laeuft es aber auf genau dasselbe hinaus.
Nakai
2016-04-27, 13:46:22
Apple wird zumindest im MacBook keinen P10 verbauen, denke ich. Das ist einfach schon eine Nummer zu gross und verbraucht zu viel Strom. P11 ist da der logische Nachfolger von CV.
Im MacPro sehe ich P10 auch nicht, da kommt momentan Tahiti als FirePRO mit FP64 Leistung zum Einsatz.
Hoechstens in den iMac (5k) koennte P10 rein kommen - mach uns hier keine Panik, nicht dass das so laeuft wie mit Tonga XT ;D
Ich mach euch keine Panik. AMD wird das machen, was am meisten Umsatz und Gewinn erwirtschaftet. Da kann man gerne auf den Retailmarkt schei*en.
Ich will auch den ganzen Hype bzgl der neuen Generation etwas bremsen. GP100 war das erste Produkt und war reinher von den Spezifikationen sehr "underwhelming". Nur die übergroße Diesize hat das Ding herausragend wirken lassen. Ich würde weder von NV noch von AMD riesige Sprunge erwarten. Die erwarteten Specs, vor allem die erwarteten Bandbreiten und Speichersysteme lassen nicht viel erwarten. Und die Packdichte von GP100? Die ist etwa doppelt so hoch, wie bei 28nm, ergo kann man mit ~300mm² auch nicht mehr als einen 600mm² Chip in 28nm erwarten.
Wenn P10 ~230mm² groß ist, wird man bei gleicher Ausgangslage leicht über Hawaii von den Transistoren ankommen. Wenn AMD hier und da Bottlenecks entfernt, wird man schon Hawaii-Performance bzw. etwas darüber landen können. Wenn man kein GDDR5X hat, dann wird der Chip eher verhungern und seine Leistung nicht entfallen könnten. Ein ASIC-Designer würde einen unausgeglichenen Chip nicht entwerfen, außer es ist nicht absolut Notwendig oder unausweichlich. Mit GDDR5 bis max 8 Gbps kommt man auf max 256GB/s, was für eine Hawaii- oder GM204-artige GPU reicht. Fiji? Oder GM200-Niveau? Evtl in theoretischen Tests, aber nicht mehr.
Bin mal gespannt gehe eher von Preisen im Berreich 299 und 399 aus je nachdem wie sie performen.
Aber 400€ wäre genau mein Preisberreich und nachdem man hier vermutlich derzeit nur die GP104-150 sieht dürfte AMD hier absolut das bessere Packet abliefern und im 300€ Berreich ohne Konkkurenz dastehen.
Botcruscher
2016-04-27, 14:00:04
Leistung und Preisgestaltung sind doch komplett offen. GP104-150 könnte je nach Abspeckung auch bei 300€ rauskommen und die 970 ablösen. Ohne aktuelle Konkurrenz dürfte einzig P11 dastehen.
Screemer
2016-04-27, 14:02:06
Und woher willst du wissen, dass p10 pro nicht in dem preisbereich ansetzt? Die Preisgestaltung ist doch noch komplett offen :ugly:
Botcruscher
2016-04-27, 14:15:50
Ich sehe da keinen Widerspruch. Mich stört nur ohne Konkurrenz.
Thunderburne
2016-04-27, 15:32:48
Mit so einem kleinen Chip hat AMD auf jeden Fall keine Zeit Experimente am Markt zu machen die müssen Schwarze Zahlen schreiben und dafür ist der kleine Chip wenn er in Richtung Fury performt genau richtig.
350 Euro halte ich für realistisch mit Optionen für nen Preiskampf da klein und relativ günstig gefertigt.
Auf ein Rumeiern bei 500 Euro und der kleinen diesize würde keiner hier oder wo anders kaufen.
Ich gehe Vorläufig mal davon aus das man sich mit der 1070 oder kleiner messen muss.
Was interessiert den Kaeufer die die size? Sollte das Teil ueber Fiji liegen (was durchaus immer noch stark bezweifelt werden darf) und Nvidia nicht gerade ungewohnt laecherliche Preise machen, gibt es keinen Grund, P10 billig zu verscherbeln.
Käsetoast
2016-04-27, 16:05:18
Uff - also 350 € fände ich schon verdammt happig. Wäre in meinen Augen auch wenig sinnvoll. AMD braucht halt endlich mal einen Nachfolger für ihr Mid-Range Segment und da kann man eigentlich keine 350 € Karte bringen nur weil man guckt zu welchen Preisen derzeit Karten ähnlicher Leistung verkauft werden. Wenn Polaris ähnlich groß ist wie Pitcairn sollten auch die Preise ähnlich sein. Ich meine ich hätte meine 7850 wenige Monate nach Release für 220 € gekauft - die 7870 müsste es da so für 270 € gegeben haben. In meinen Augen muss da ganz klar eine 2 ganz vorne stehen, sonst hat man keinen echten Pitcairn Nachfolger, denn Leistung interessiert hier halt keinen, sondern erst mal der Preis. Ein echter Pitcairn Nachfolger im Sinne der Die Size muss eben auch preislich vergleichbar sein, sonst ersetzt man einfach im höheren Segment was durch einen kleinen Chip...
http://arstechnica.co.uk/gadgets/2016/04/amd-focusing-on-vr-mid-range-polaris/
Wenn das mal nicht zu gewagt ist :rolleyes:
If you look at the total install base of a Radeon 290, or a GTX 970 or above [the minimum specs required for VR], it's around 7.5 million units. But the issue is that if a publisher wants to sell a $50 VR game, there's not a big enough market to justify that yet. We've got to prime the pumps, which means somebody has got to start writing cheques to big games publishers. Or we've got to increase the install TAM [total addressable market].
The reason Polaris is a big deal is because I believe we will be able to grow that TAM significantly. I don't think Nvidia is going to do anything to increase the TAM, because according to everything we've seen around Pascal, it's a high-end part. I don't know what the price is gonna be, but let's say it's as low as $600 and as high as $1000. That price range is not going to expand the TAM for VR. We're going on the record right now to say Polaris will expand the TAM. Full stop.
Wenn man die Aussage ernst nehmen kann, wird P10 guenstiger verkauft als 970/290 aktuell gehandelt werden (sonst ergibt das gesamte Zitat keinen Sinn). Ich denke, die Performance Richtung Fiji sollte man endgueltig abschreiben.
Kleine Zusatzinfo:
Im Artikel wird nicht nur erwaehnt, dass P10 mit der 980 Ti vergleichbar sei, sondern es wird auch noch der Eindruck erweckt, dass man die entsprechende Frage zum zitierten Absatz im Bezug auf die 980 Ti formuliert hat. Das Interview war aber auf der VR World Congress expo in Bristol, also am 12. April. Damals gab es diese angeblichen Infos zu den Benchmarkwerten noch nicht.
Botcruscher
2016-04-27, 16:23:46
Startpreis per Chipfläche wäre doch mal ein schönes Diagramm.
Cayman mit seinen 389mm² ist bei 370€ eingestiegen.
Thaiti mit 365mm² war gleich bei 550€ dabei.
Barts mit 255 war für 210€ oder so dabei.
w0mbat
2016-04-27, 16:28:09
Ich hoffe auf ca. 350€ für P10XT, das fände ich gut.
dargo
2016-04-27, 16:51:17
In erster Linie wird den Preis sowieso der Fertigungsprozess ansich bestimmen, sprich wie gut läuft eigentlich von Anfang an 14/16nm. Ich hoffe das wird nicht wieder so eine Katastrophe wie bei den ersten 28nm Beschleunigern.
Thunderburne
2016-04-27, 16:56:01
Bei einer Diesize von 232mm2 sollte das eigentlich recht gut funktionieren.
Wenn man bedenkt wieviel Spielraum noch nach oben ist würde ich als Endverbraucher keine 500 Euro auf den Tisch legen.
Da faktisch in ein Paar Monaten neue GPUs möglich sind sei es 350mm2 400mm2 oder gar um die 500mm2+.
Und zu mal sind solche Projekte ja mit Vega Angekündigt.
Was interessiert den Kaeufer die die size?
Das juckt nur die wenigsten (hier anwesenden), etwa auch die, die fuer einen "Mittelklassechip" wie Nvidias 4er (GM204/GP104) nicht bereit sind, diese "laecherlichen" Preise zu zahlen und auf das richtige High-End warten.
Wenn 980, 980 Ti/Titan X, 290/390(X) (und ganz vielleicht auch Fiji) abgeloest werden, stehen halt erstmal die aktuellen Mainstream Chips oben. Hohe Preise sind zur Einfuehrung normal, egal wie gross der Chip ist.
Zumal ein paar Monate auch untertrieben ist, bis Vega wird es wohl noch ein knappes Jahr dauern.
Unicous
2016-04-27, 17:08:39
Du antwortest dir selbst?:eek:
Nein, ich antworte Thunderburne und zitiere mich dabei selbst. Auf den fullquote direkt darunter habe ich verzichtet :P
Palpatin
2016-04-27, 17:14:58
Nach oben hin ist bei AMD die Preis-Grenze = PL von GP104-150 bzw GP104-200 je nachdem wo P10 in Sachen Performance landet.
Nach unten hin könnten sie natürlich versuchen mit niedrigen Preisen Marktanteile zurück zu erobern. Wir werden sehen.
Thunderburne
2016-04-27, 17:26:41
Der Unterschied ist und bleibt bei der Ganzen Geschichte das zum Beispiel GTX980 400mm2 gross ist.
Da kann man sich grob denken was noch mit 200 mm2 drin war drauf kommt.
Und soweit ist die 980 von der 980Ti nicht abgeschlagen.
Bei einem Die von 232mm2 der 2560 shader bietet und Spekulationen von um die 6000 shader bei Vega im Umlauf sind hätte man je nach dem wan Polaris XT kommt binnen weniger Monate nicht mal mehr Mittelklasse performance.:biggrin:
Yes und das für 500 Euro ich glaub da nicht drann .
Und schon garnicht mit 256bit und GDDR5 ohne X.
Man wird sicherlich versuchen soviel wie geht abzugreifen keine Frage aber bei mehr als 350 zum Start wird es sich vermutlich nicht belaufen.
Was soll den dann eine Vega GPU kosten 1000.
AMD tat sich schon schwer die Fury X für 700 an den Mann Frau zu bringen.
Nein, ich antworte Thunderburne und zitiere mich dabei selbst. Auf den fullquote direkt darunter habe ich verzichtet :P
Es sei denn iuno & Unicous sind ein und dieselbe Person, und diese hat vergessen, sich auszuloggen :D
dargo
2016-04-27, 17:41:15
Was soll den dann eine Vega GPU kosten 1000.
Nö... sobald Vega da ist kann man die Preise von P10 und P11 immer noch nach unten korrigieren. ;)
Es sei denn iuno & Unicous sind ein und dieselbe Person, und diese hat vergessen, sich auszuloggen :D
Nun, soweit ich das bei meinem Verstand beurteilen kann, trifft das nicht zu :P :D
Was soll den dann eine Vega GPU kosten 1000.
AMD tat sich schon schwer die Fury X für 700 an den Mann Frau zu bringen.
Warum nicht? Nvidia hat es auch geschafft, die Titan Serie bei diesem Preispunkt zu etablieren. Wenn der grosse Vega GP100-Herausforderer und HPC-Monster wird und trotzdem noch an Consumer verkauft wird, halte ich das durchaus fuer realistisch.
Die Fury ist/war ja auch kaum konkurrenzfaehig.
Und wie dargo sagt, dauert das noch lange, bis dahin sind Preisanpassungen gut moeglich.
Complicated
2016-04-27, 17:54:26
Nun, soweit ich das bei meinem Verstand beurteilen kann, trifft das nicht zu :P :D
Wenn es allerdings zutrifft, wäre deine Quelle fragwürdig :biggrin:;D
Sunrise
2016-04-27, 18:44:32
Allein die Diegröße sollte doch bereits alles aussagen, was es an Fragen gibt. P10 wird maximal (im absoluten Best Case) an die Fury nano rankommen mit ein paar Ausrutschern wg. diverser Features hier und da.
Hauptsächlich aber ist P10 ein viel energieeffizienterer Hawaii - auf den sich auch die 2X Performance per Watt beziehen werden - mit fraglicher DP-Leistung, weil es hier an Bandbreite fehlen wird ggü. Hawaii und der angestrebte Preisbereich bei AMD vor allem billig, möglichst überall eingebaut, also billiger als bisher bei min. identischer Leistung und vor allem mit sehr guter Energieeffizienz die in diesen Märkten benötigt wird (die TAM zu vergrößern).
Warum das immer und immer wieder besprochen wird verstehe ich nicht. Ich schreibe morgen etwas super Unglaubwürdiges auf und jeder schaltet das Hirn aus. Die Eckdaten haben sich doch seit Monaten nicht verändert.
Bei NV sagt 300mm^2 auch direkt aus, was hier möglich ist, wenn man 2X Perf/W anlegt, was genauso keine rote Zauberin erfordert. NV konnte schon GK104 anpassen wie sie lustig sind und jetzt auf einem noch energieeffizienteren Prozess soll sich genau was verändert haben? Richtig, es wird für NV eher leichter, GP104 in alle möglichen Segmente zu bringen und der Preis darf aufgrund der Leistung auch höher sein.
VooDoo7mx
2016-04-27, 18:49:51
Wer glaubt, dass Polaris 10XT eine Fury X oder 980Ti schlägt, dem ist nicht mehr zu helfen. Da würde ja auch eine Radeon Pro Duo absolut keinen Sinn machen und man könnte eine Dual Polaris 10 Board bringen.
Polaris 10 XT wird wohl so knapp über 390X rauskommen im besten Fall. Gegner wird warscheinlich GP104-150 sein. Wobei hier AMD im Vorteil ist, da der Chip deutlich kleiner und günstiger ist.
Ich schätze so ein Polaris 10XT Board auf ~300-350€. Was auch fair und geerechtfertigt ist.
Damit hätte AMD auf jeden Fall für den Rest des Jahres den Preis Leistungs Kracher und auch was die Energieeffizienz angeht oben mit dabei sein.
Polaris 10 11 finde ich sehr interessant für Notebooks. Das Teil wäre der absolute Knaller in Entry Lavel Gaming Notebooks wo nVidia für Monate nichts entgegen zu setzen hätte. Für ca 800€ würde ich sofort so ein Notebook kaufen.
Grabhopser
2016-04-27, 18:52:24
Allein die Diegröße sollte doch bereits alles aussagen, was es an Fragen gibt.
Der Witz ist doch, dass wir die Diegröße nicht kennen. Diese ominösen 232mm² sind weder bestätigt noch gibt es mehr als eine Quelle dafür.
Sunrise
2016-04-27, 18:53:21
@VooDoo7mx
Jup, genau das!
Sunrise
2016-04-27, 18:54:27
Der Witz ist doch, dass wir die Diegröße nicht kennen. Diese ominösen 232mm² sind weder bestätigt noch gibt es mehr als eine Quelle dafür.
Alles im Bereich 200-250mm^2 ist relativ sicher für Mainstream und wenn man Hawaii anpielt mit 2X Perf/Watt. Stellt euch doch nicht so an als hättet ihr noch nie eine GPU gesehen.
AMD wird weder physikalische Gegebenheiten noch die Zielsegmente für deren BOM ignorieren können, wenn sie bei Hawaii ankommen wollen.
Da Hawaii 8GB mit der 390X bekommen hat ist das das Ziel und man kann super mit Polaris werben weil Hawaii eine ziemliche Schluckschleuder ist (relativ zur Diesize und NV). Mehrere Fliegen mit einer Klappe zu schlagen war noch nie so einfach.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.