PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48 49 50 51

AnarchX
2016-08-06, 20:12:07
Möglicherweise eine 28CUs RX 465. Aber dafür muss wohl die Produktionskapazität von P10 weiter steigen. Bis dahin bleibt der Abstand als Anreiz die ~200€ 470 zu kaufen.

Hermelinmaster
2016-08-06, 20:43:28
Ich habe was gelesen von knapp schneller als 370. Also eher nein.
380x hat doch glaub ich 3x mehr Shader, deutet auch auf ein deutliches "nein" hin.

Schnoesel
2016-08-06, 21:11:32
AMD hat selbst von 20-30% Vorsprung zur R260x gesprochen auf ihren Folien insofern nicht verwunderlich und daher für mein Upgrade von Bonaire uninteressant. Blöd ist nur ich würde mich Leistungs- und Preistechnisch genau für die Lücke interessieren.

dildo4u
2016-08-07, 06:26:37
Gigabyte Radeon RX 460 WindForce 2X Benches


http://videocardz.com/63033/gigabyte-radeon-rx-460-windforce-2x-performance-leaked

MadManniMan
2016-08-07, 08:16:59
Puh, hoffen wir mal auf einen Fake, sonst ist das ein echter Downer ;(

AnarchX
2016-08-07, 08:30:36
Wo soll auch die Leistung bei nur 896SPs@1,2GHz herkommen. Dafür ist der Die aber auch nur um die 130mm² groß und mit einem reiferen 14nm Prozess hat man da vielleicht noch ~20% Potential (16CUs@1,3GHz).
Mit 4GiB RAM durchaus eine nette 99€ Graka.

dildo4u
2016-08-07, 08:30:37
Puh, hoffen wir mal auf einen Fake, sonst ist das ein echter Downer ;(

Das passt zu den Specs die 470 hat etwas mehr als die 2X der Rechenleistung der 460.3DMark Firestrike zeigt ca 2x und der Extreme Test braucht 1.5GB V-Ram,passt also komplett in den V-ram.

http://abload.de/img/1-1080.4207666699f9j4l.jpg

deekey777
2016-08-07, 09:23:36
Puh, hoffen wir mal auf einen Fake, sonst ist das ein echter Downer ;(
Wo soll auch die Leistung bei nur 896SPs@1,2GHz herkommen. Dafür ist der Die aber auch nur um die 130mm² groß und mit einem reiferen 14nm Prozess hat man da vielleicht noch ~20% Potential (16CUs@1,3GHz).
Mit 4GiB RAM durchaus eine nette 99€ Graka.
Das ist die Gehirnwäsche von AMD. Zuerst wird groß angekündigt, dass es zwei Polaris-Chips gibt, den P10 und den kleineren P11. Paar Monate später kommen die Infos zu den CUs der jeweiligen Chips, also bleibt im Kopf "P11 = 16 CUs", also muss die RX 460 16 CUs haben. Hat sie aber nicht, wie es sich in den letzten Tagen herausgestellt hat, sondern 14 - wie die R7 260X. Daher die berechtigte Verwunderung.

fondness
2016-08-07, 10:07:08
Richtig, die RX460 ist noch dazu ja nur teildeaktiviert. Eben primär eine Multimedia-Chip mit niedrigen Verbrauch ohne Stromanschluss für Fertig-PCs und Notebooks. Bei einer Lowend-Karten wegen der Leistung zu jammern ist doch ziemlich seltsam. Das ist ein Marktsegment, dass Nvidia aktuell schlicht nicht mit aktueller Technik bedienen kann, von daher kann sich das durchaus auszahlen für AMD.

MadManniMan
2016-08-07, 10:15:21
Hmjain.

Die 460 bringt offenbar Leistung in Höhe der 750 Ti - zum selben Verbrauch.

Ich bin wirklich nicht auf dem Laufenden, was das anbelangt, aber wie sieht es denn so mit den "Multimedia"-Features dieser Karten aktuell aus? Was hat Polaris Maxwell 1.0 voraus?

Pirx
2016-08-07, 10:18:52
Puh, hoffen wir mal auf einen Fake, sonst ist das ein echter Downer ;(
Was erwartest du denn bitte??:confused:

CD-LABS
2016-08-07, 10:46:06
Gigabyte Radeon RX 460 WindForce 2X Benches


http://videocardz.com/63033/gigabyte-radeon-rx-460-windforce-2x-performance-leaked
Noch sehr unscharfe Infos bisher...
...es wird eigentlich nur klar, dass sie Pitcairn XT (in welcher Form auch immer) performancetechnisch nicht erreicht und im Mittel effizienztechnisch über der 750 TI liegt, die ja diesbezüglliche immerhin eine der Spitzenkarten der 28nm-Gen darstellt. (https://www.3dcenter.org/abbildung/grafikkarten-fullhd-performancespieleverbrauch-index-februar-2016)
Für alles weitere brauchen wir den morgigen Tag und naja, eigentlich noch mehr: Eine Leo-Launchanalyse. :D

Mancko
2016-08-07, 10:50:04
Richtig, die RX460 ist noch dazu ja nur teildeaktiviert. Eben primär eine Multimedia-Chip mit niedrigen Verbrauch ohne Stromanschluss für Fertig-PCs und Notebooks. Bei einer Lowend-Karten wegen der Leistung zu jammern ist doch ziemlich seltsam. Das ist ein Marktsegment, dass Nvidia aktuell schlicht nicht mit aktueller Technik bedienen kann, von daher kann sich das durchaus auszahlen für AMD.

In dem Segment ist Maxwell nach wie vor sehr gut aufgehoben, insbesondere in Punkto Multimedia Fähigkeit. Zudem kommt hier demnächst Ersatz. Auch hier wird AMD nicht wie erhofft profitieren und es bleibt dabei. Nvidia profitiert noch ein halbes Jahr lang in 3 Segmenten (Performance, High End & Enthusiast) ungestört. Das tut AMD richtig schön weh. Roy Taylors Träume haben sich mal ebenso in Luft aufgelöst.

CD-LABS
2016-08-07, 11:12:13
In dem Segment ist Maxwell nach wie vor sehr gut aufgehoben, insbesondere in Punkto Multimedia Fähigkeit. Zudem kommt hier demnächst Ersatz. Auch hier wird AMD nicht wie erhofft profitieren und es bleibt dabei. Nvidia profitiert noch ein halbes Jahr lang in 3 Segmenten (Performance, High End & Enthusiast) ungestört. Das tut AMD richtig schön weh. Roy Taylors Träume haben sich mal ebenso in Luft aufgelöst.
Zu düstere Prognose. Wir haben doch schon an der 480 gesehen, dass es augenscheinlich dafür gereicht hat die 28nm-Gen zu überbieten, um exzellente Launch-Verkäufe einzufahren. Das sollte bei der 460 nicht anders aussehen.
Solange mittlerweile genügend 0,5 GiB-GDDR5-3500er-Chips bereitliegen, wird mit der Karte sicher ordentlich verdient.

Richtig spannend wird halt auch, wie sich die Polaris11er im Mittelwatt-Mobile-Segment präsentieren. Könnte endlich AMDs Rückkehr in den Mobile-Bereich darstellen, Nvidia liefert da eine völlig offene Flanke. Die 900M-Serie war ja alles andere als eine Glanzleistung...

Pirx
2016-08-07, 11:18:57
In dem Segment ist Maxwell nach wie vor sehr gut aufgehoben, insbesondere in Punkto Multimedia Fähigkeit. Zudem kommt hier demnächst Ersatz. Auch hier wird AMD nicht wie erhofft profitieren und es bleibt dabei. Nvidia profitiert noch ein halbes Jahr lang in 3 Segmenten (Performance, High End & Enthusiast) ungestört. Das tut AMD richtig schön weh. Roy Taylors Träume haben sich mal ebenso in Luft aufgelöst.
Ach tatsächlich? Maxwell ist nach den 14 nm-Launches jetzt überfüssig und damit tot.

reaperrr
2016-08-07, 11:20:04
In dem Segment ist Maxwell nach wie vor sehr gut aufgehoben, insbesondere in Punkto Multimedia Fähigkeit.
Die 750 Ti ist noch Maxwell 1.0 und hängt speziell GM206 und den Pascals bei beschleunigten Videoformaten schon ein gutes Stück hinterher, ebenso bei unterstützten HDMI- und DP-Versionen.

Da ist Polaris durchaus gut voraus.

Problem ist eher, dass die kleinen Pascals bei Multimedia wieder mindestens gleichziehen und beim Verbrauch klar gewinnen werden, GP107 wohl auch bei der Leistung (ein halbierter GP106 mit 128 bit SI hätte die Specs von GM107, aber etwas höhere IPC und sicher Taktraten von 1.5+ GHz, also locker 370-Leistung, eher mehr).

MadManniMan
2016-08-07, 11:33:17
Ach tatsächlich? Maxwell ist nach den 14 nm-Launches jetzt überfüssig und damit tot.

Warum? Bei selben Features und selber Effizienz?

dildo4u
2016-08-07, 11:33:21
Die 4GB Version hat vermutlich ordentlich Vorteile gegenüber den NV Karten die alle nur mit 2GB kommen,der Chip an sich ist wie P10 auf Maxwell Niveau was Performance/per Watt angeht.

Botcruscher
2016-08-07, 11:37:45
Ein der Leistungsklasse ist Geschwindigkeit doch schon fast egal. Der Preis ist viel wichtiger. Das Ding hat billig zu sein, Bild zu machen und die Checkliste mitzubringen. Ab in die Medion und Bürorechner.

dildo4u
2016-08-07, 11:38:52
Ein der Leistungsklasse ist Geschwindigkeit doch schon fast egal. Der Preis ist viel wichtiger. Das Ding hat billig zu sein, Bild zu machen und die Checkliste mitzubringen. Ab in die Medion und Bürorechner.
Die GPU ist deutlich potenter als die XBox One und PS4,ich würde nicht sagen das die Leistung nebensächlich ist.

maximus_hertus
2016-08-07, 12:17:04
Die 460 bringt offenbar Leistung in Höhe der 750 Ti - zum selben Verbrauch.

Ich bin wirklich nicht auf dem Laufenden, was das anbelangt, aber wie sieht es denn so mit den "Multimedia"-Features dieser Karten aktuell aus? Was hat Polaris Maxwell 1.0 voraus?

Hö? Die 260X ist doch schon leicht schneller als die 750 Ti? Die 460 legt ja dann nochmal 20-30% drauf, also so ziemlich auf Niveau der GTX 950. Klar, das ist immer noch keine "Sensation", aber man muss AMD nicht (noch) schlechter schreiben als sie sind ;)

Ansonsten gibt es HDMI 2.0b, DP 1.3/1.4 bei den Anschlüssen.

dildo4u
2016-08-07, 12:37:37
Sie ist nicht so schnell wie die 950 siehe hier:


http://www.neogaf.com/forum/showthread.php?t=1259133

Botcruscher
2016-08-07, 12:40:56
Die GPU ist deutlich potenter als die XBox One und PS4,ich würde nicht sagen das die Leistung nebensächlich ist.
Wen interessiert die Gurkentruppe aus der Konsolenschmuddelecke?! Hier geht es um den sub 100 bis 150€ Markt. Wer Leistung will kauft sich eine 4GB 470. In den USA flattert die für umgerechnet 190€ mit Steuer rum.

Narolf
2016-08-07, 13:50:24
Ich bin wirklich nicht auf dem Laufenden, was das anbelangt, aber wie sieht es denn so mit den "Multimedia"-Features dieser Karten aktuell aus? Was hat Polaris Maxwell 1.0 voraus?
Imo die wichtigsten Features in Sachen Multimedia, also nichts, dass direkt mit 3D zu tun hat (falls andere Ergänzungen haben, bitte sagen, eine vollständigere Liste ist für jedermann von Vorteil):

HDMI 2.0b, HDCP 2.2, sowie DP 1.4 - Sollte für die nächsten 5 Jahre Displaytechnisch für alles reichen, was man so an einen Rechner anschließen können wollte.
HEVC(h.265) Hardwaresupport - Bin mir nicht ganz sicher, ob es "nur" Decoding ist, oder ob auch Hardwareencoding unterstützt wird, aber selbst in ersterem Falle ist das Feature für die Zukunft nicht ganz unwichtig. HEVC, vor allem bei 4k mit höherer Bitrate, braucht ziemlich viel Prozessorpower beim decoden, das kann durchaus alte Rechner oder neuere mit eher schwachen CPUs vor Probleme stellen. Genutzt wird HEVC schon heute von Netflix und Amazon für 4k-Streams und auch das neue DVB-T2 hier in Deutschland setzt auf HEVC. Das wird sicherlich in Zukunft eher mehr werden.

reaperrr
2016-08-07, 14:03:29
Die GPU ist deutlich potenter als die XBox One und PS4,ich würde nicht sagen das die Leistung nebensächlich ist.
Die PS4 hat 18 CUs und mehr Bandbreite, groß wird der Unterschied da nicht sein.

-/\-CruNcher-/\-
2016-08-07, 14:33:14
Imo die wichtigsten Features in Sachen Multimedia, also nichts, dass direkt mit 3D zu tun hat (falls andere Ergänzungen haben, bitte sagen, eine vollständigere Liste ist für jedermann von Vorteil):

HDMI 2.0b, HDCP 2.2, sowie DP 1.4 - Sollte für die nächsten 5 Jahre Displaytechnisch für alles reichen, was man so an einen Rechner anschließen können wollte.
HEVC(h.265) Hardwaresupport - Bin mir nicht ganz sicher, ob es "nur" Decoding ist, oder ob auch Hardwareencoding unterstützt wird, aber selbst in ersterem Falle ist das Feature für die Zukunft nicht ganz unwichtig. HEVC, vor allem bei 4k mit höherer Bitrate, braucht ziemlich viel Prozessorpower beim decoden, das kann durchaus alte Rechner oder neuere mit eher schwachen CPUs vor Probleme stellen. Genutzt wird HEVC schon heute von Netflix und Amazon für 4k-Streams und auch das neue DVB-T2 hier in Deutschland setzt auf HEVC. Das wird sicherlich in Zukunft eher mehr werden.


Leider aber abwarten ;)

Zudem kommt VP9 Profile0 support für Google Platformen, wobei hier noch nichts funktionierendes seitens AMD präsentiert wurde und auf ein Treiber Update das dann mal kommt hingewiesen wird wass leider wieder stark auf eine Accellerierte Lösung via ihrem OpenCL Stack und Shadern hindeutet.

dargo
2016-08-07, 14:37:42
Gigabyte Radeon RX 460 WindForce 2X Benches


http://videocardz.com/63033/gigabyte-radeon-rx-460-windforce-2x-performance-leaked
In Doom ist die RX470 4x so schnell wie die RX460? :uconf2:

Screemer
2016-08-07, 14:45:07
Imo die wichtigsten Features in Sachen Multimedia, also nichts, dass direkt mit 3D zu tun hat (falls andere Ergänzungen haben, bitte sagen, eine vollständigere Liste ist für jedermann von Vorteil):

HDMI 2.0b, HDCP 2.2, sowie DP 1.4 - Sollte für die nächsten 5 Jahre Displaytechnisch für alles reichen, was man so an einen Rechner anschließen können wollte.
HEVC(h.265) Hardwaresupport - Bin mir nicht ganz sicher, ob es "nur" Decoding ist, oder ob auch Hardwareencoding unterstützt wird, aber selbst in ersterem Falle ist das Feature für die Zukunft nicht ganz unwichtig. HEVC, vor allem bei 4k mit höherer Bitrate, braucht ziemlich viel Prozessorpower beim decoden, das kann durchaus alte Rechner oder neuere mit eher schwachen CPUs vor Probleme stellen. Genutzt wird HEVC schon heute von Netflix und Amazon für 4k-Streams und auch das neue DVB-T2 hier in Deutschland setzt auf HEVC. Das wird sicherlich in Zukunft eher mehr werden.

Hevc encode 4k@60hz wird vom neuen uvc unterstützt. Läuft Allerdings treiberbedingt noch nicht, wenn ich mich richtig erinnere:

On the decode side RTG has confirmed that Polaris will include an even more capable video decoder than Fiji; along with existing format support for 8-bit HEVC Main profile content, Polaris’s decoder will support 10-bit HEVC Main10 profile content. This goes hand-in-hand with the earlier visual technologies announcement, as 10-bit encoding will be necessary to prevent banding and other artifacts with the wider color spaces being used for HDR. Meanwhile RTG’s UVD video encode block has also been updated, and HEVC encoding at up to 4K@60fps will now be supported

dildo4u
2016-08-07, 14:53:07
In Doom ist die RX470 4x so schnell wie die RX460? :uconf2:
2GB vs 4GB.

Thunder99
2016-08-07, 14:54:23
In Doom ist die RX470 4x so schnell wie die RX460? :uconf2:
Halt der geringer Speicher bremst die Karte aus :freak:

maximus_hertus
2016-08-07, 17:06:21
Laut den "Testern" ist die RX 480 der GTX 970 "hoffnungslos" unterlegen (Leakbenches kurz vor dem 29.6.). Dazu ist das die 2 GiB-Variante. Für wenige Euro Aufpreis gibt es ja direkt die 4 GiB-Variante. Wer will ernsthaft mit 2 GiB Karten in 2016 zocken (bei Neukauf)?
Morgen sollten wir ja schlauer sein, bis dahin schaffen wir es schon.

victore99
2016-08-07, 17:24:31
Laut den "Testern" ist die RX 480 der GTX 970 "hoffnungslos" unterlegen (Leakbenches kurz vor dem 29.6.). Dazu ist das die 2 GiB-Variante. Für wenige Euro Aufpreis gibt es ja direkt die 4 GiB-Variante. Wer will ernsthaft mit 2 GiB Karten in 2016 zocken (bei Neukauf)?
Morgen sollten wir ja schlauer sein, bis dahin schaffen wir es schon.
Lel, Karten verwechselt?

Mancko
2016-08-07, 17:47:03
Richtig spannend wird halt auch, wie sich die Polaris11er im Mittelwatt-Mobile-Segment präsentieren. Könnte endlich AMDs Rückkehr in den Mobile-Bereich darstellen, Nvidia liefert da eine völlig offene Flanke. Die 900M-Serie war ja alles andere als eine Glanzleistung...

Die Flanke ist alles andere als offen, denn Nvidia hat hier bereits das entsprechende Produkt in Planung. AMD wird da nur wenig zeitlichen Vorteil haben. Das wirkt sich kaum aus. Im August kommen jetzt aber erstmal die anderen mobilen Ableger von Nvidia (1080, 1070 und 1060). Dort wird AMD keinen Stich sehen. Für die 1070 und 1080 haben sie nichts und gegen die 1060 verlieren sie in der Effizienz. Die 470 ist ja im Endeffekt auch nur ein Salvage P10. Salvage GP106 GPUs kann man auch liefern. Bleibt also P11 und der wird es mit GP107 viel eher zu tun bekommen als GP104 mit der Konkurrenz von AMD. Heißt also, dass man dort wo richtig Geld verdient wird im Desktop wie auch Notebook weitere schmerzliche Monate nichts haben wird. Die gesunkenen R&D Ausgaben wirken sich halt schon seit mehr als 12 Monaten gut aus bei AMD, denn das ist im Endeffekt die Hauptursache. Aber StefanV hat ja in der Vergangenheit wie einige andere AMD Fans auch erklärt wie clever AMD hier outsourced und vieles gar nicht mehr selber machen muss. Alles positiv was das AMD Management da veranstaltet. Naja wers glauben will kanns ja gern glauben. Die Realität ist halt einfach eine andere.....

Da ich selber in der IT arbeite und Outsoursing und Sparprogramme gewohnt bin, ist meine Skepsis diesbezüglich schon immer hoch gewesen und das habe ich auch bereits mehrfach gesagt. Nur in den allerseltensten Fällen kommt dabei was gutes bei rum. Und so wird Nvidia vermutlich auch mit Pascal weiter den Großteil des zu vergebenen Umsatzes bei dedizidierten GPUs abgreifen und die R&D Scheere langfristig vergrößern.

maximus_hertus
2016-08-07, 17:47:09
Lel, Karten verwechselt?

Nein, bei diesem polnischen Leak war die GTX 970 bei einem Großteil der Benches teils deutlich VOR der RX 480. Die Realität sah dann aber etwas anders aus.

Ich will jetzt nicht sagen, dass sie "falsch" benchen etc., sondern dass man möglichst viele unterschiedliche Benchmarks haben sollte, bevor man ein Urteil zu einer Karte fällen sollte.

-/\-CruNcher-/\-
2016-08-07, 18:28:39
Die Flanke ist alles andere als offen, denn Nvidia hat hier bereits das entsprechende Produkt in Planung. AMD wird da nur wenig zeitlichen Vorteil haben. Das wirkt sich kaum aus. Im August kommen jetzt aber erstmal die anderen mobilen Ableger von Nvidia (1080, 1070 und 1060). Dort wird AMD keinen Stich sehen. Für die 1070 und 1080 haben sie nichts und gegen die 1060 verlieren sie in der Effizienz. Die 470 ist ja im Endeffekt auch nur ein Salvage P10. Salvage GP106 GPUs kann man auch liefern. Bleibt also P11 und der wird es mit GP107 viel eher zu tun bekommen als GP104 mit der Konkurrenz von AMD. Heißt also, dass man dort wo richtig Geld verdient wird im Desktop wie auch Notebook weitere schmerzliche Monate nichts haben wird. Die gesunkenen R&D Ausgaben wirken sich halt schon seit mehr als 12 Monaten gut aus bei AMD, denn das ist im Endeffekt die Hauptursache. Aber StefanV hat ja in der Vergangenheit wie einige andere AMD Fans auch erklärt wie clever AMD hier outsourced und vieles gar nicht mehr selber machen muss. Alles positiv was das AMD Management da veranstaltet. Naja wers glauben will kanns ja gern glauben. Die Realität ist halt einfach eine andere.....

Da ich selber in der IT arbeite und Outsoursing und Sparprogramme gewohnt bin, ist meine Skepsis diesbezüglich schon immer hoch gewesen und das habe ich auch bereits mehrfach gesagt. Nur in den allerseltensten Fällen kommt dabei was gutes bei rum. Und so wird Nvidia vermutlich auch mit Pascal weiter den Großteil des zu vergebenen Umsatzes bei dedizidierten GPUs abgreifen und die R&D Scheere langfristig vergrößern.

Die Chinesen machen bis jetzt doch eine recht ordentliche Arbeit :D

Mit den Notebooks wäre ich mir überhaupt mal nicht sicher vor allem nicht mit einer Kompletten AMD Platform :D

Nur richtig sorgen macht da der UVD und VCE wenn man ihn wirklich aus der GPU einsetzen will und nicht wie Intel aus der CPU bei den Notebooks.

Da sollte man die letztendlichen Ziele und Wirtschaftlichkeit für den Endkonsumenten nochmal überdenken auch wenn die Leistung auf den ersten blick aussreichend wirkt für die meisten otto normal tasks.

Aber abwarten ein Notebook kommt einer Konsole näher als ein PC ;)

Aber ein richtiges volles HSA Notebook wohl dann erst mit Zen als Platform, ein interessantes Preview wird es aber dennoch :)

Das größte Problem momentan ist eher GF hoffentlich haben sie für den Mobile Start zumindest etwas bessere results parat und genug gedebuged mit den jetzigen Ergebnisen.

YfOrU
2016-08-07, 19:18:34
Die Flanke ist alles andere als offen, denn Nvidia hat hier bereits das entsprechende Produkt in Planung. AMD wird da nur wenig zeitlichen Vorteil haben. Das wirkt sich kaum aus.

Im Gegensatz zu GPUs für Desktop Replacement welche meist auf MXM Boards sitzen ist die notwendige Vorlaufzeit deutlich größer und der alljährliche Refresh Zyklus (Intel, Kaby Lake, Q3/Q4) gibt den Puls für die Masse der Gerätedesigns vor.

AMD ist mit P11 bezüglich Time to Market auf der sicheren Seite und ordentliche Stückzahlen sollten mit der langen Vorlaufzeit auch gegeben sein. In der Vergangenheit hat AMD den Zyklus öfters nicht optimal getroffen und das war dann jeweils nicht mehr aufzuholen.

CD-LABS
2016-08-07, 21:46:03
Die Flanke ist alles andere als offen, denn Nvidia hat hier bereits das entsprechende Produkt in Planung. AMD wird da nur wenig zeitlichen Vorteil haben. Das wirkt sich kaum aus. Im August kommen jetzt aber erstmal die anderen mobilen Ableger von Nvidia (1080, 1070 und 1060). Dort wird AMD keinen Stich sehen. Für die 1070 und 1080 haben sie nichts und gegen die 1060 verlieren sie in der Effizienz. Die 470 ist ja im Endeffekt auch nur ein Salvage P10. Salvage GP106 GPUs kann man auch liefern. Bleibt also P11 und der wird es mit GP107 viel eher zu tun bekommen als GP104 mit der Konkurrenz von AMD. Heißt also, dass man dort wo richtig Geld verdient wird im Desktop wie auch Notebook weitere schmerzliche Monate nichts haben wird. Die gesunkenen R&D Ausgaben wirken sich halt schon seit mehr als 12 Monaten gut aus bei AMD, denn das ist im Endeffekt die Hauptursache. Aber StefanV hat ja in der Vergangenheit wie einige andere AMD Fans auch erklärt wie clever AMD hier outsourced und vieles gar nicht mehr selber machen muss. Alles positiv was das AMD Management da veranstaltet. Naja wers glauben will kanns ja gern glauben. Die Realität ist halt einfach eine andere.....
(...)
Ich gehe nahezu völlig mit, außer bei zwei Punkten:
Ich glaube nicht an ein baldiges Erscheinen des GP107 und ich glaube nicht, dass der HighEndNotebookGPU-Markt entscheidend genug ist. (und das sage ich als jemand, der sich ein P507 mit einer 1080 holen möchte...)
An AMDs Stelle würde ich dort auch gar keine Karte launchen und genau danach sieht es momentan auch aus.

Was für AMD entscheidend ist, ist ein schneller Launch, gute Reviews und viele Design-Wins mit einem schlanken, wiedererkennbaren Portfolio. Im Notfall wird dafür die Verfügbarkeit der RX 460 leiden müssen, aber was solls...
...denn da hast du natürlich schon auch wieder recht: Lange offen bleiben wird die Flanke nicht!

YfOrU
2016-08-08, 11:26:32
Mit einer mobilen P10 SKU ist allein schon aufgrund von Apples iMac praktisch in jedem Fall zu rechnen.

OC_Burner
2016-08-08, 13:28:24
Mal schauen was sich aus dem GPU-Die unter anderem Licht und ein paar extra Schleifvorgängen noch herausholen läßt.

Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)

dildo4u
2016-08-08, 13:36:03
460 4GB lieferbar für 130€.

https://geizhals.de/sapphire-radeon-rx-460-11257-00-20g-a1483312.html?hloc=at&hloc=de

Nakai
2016-08-08, 14:15:54
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)

Vielen herzlichen Dank!

Das ist also P10 mit 232mm².
Eine CU ist etwa 3 mm² groß. Eine CU von Pitcairn/Capeverde etc. war etwa 4,5mm² groß. Kurz, 33% kleiner oder 50% größer. Packdichte Faktor 2? Niemals.

Die CUs sind immer in 3er Gruppen angeordnet. 40 CUs kann man nicht erkennen, was von AMD Ingenieuren "angedeutet" wurde.

Naja...

MechWOLLIer
2016-08-08, 14:16:30
Sie ist nicht so schnell wie die 950 siehe hier:
http://www.neogaf.com/forum/showthread.php?t=1259133
Die Frage sollte lauten: Nicht so schnell wie WELCHE GTX 950?

y33H@
2016-08-08, 14:20:11
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.Geile Arbeit =)

N0Thing
2016-08-08, 16:21:02
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)

Tolle Bilder! :up:

Mancko
2016-08-08, 17:06:51
Mit den Notebooks wäre ich mir überhaupt mal nicht sicher vor allem nicht mit einer Kompletten AMD Platform :D


Auch in Notebooks geben Intel CPUs den Ton an. Mit denen wird nachvollziehbarer Weise nur selten eine AMD Grafikkarte kombiniert. Ist ja nicht so, dass AMD erst CPUs und GPUs seit heute liefert.

Mancko
2016-08-08, 17:14:41
Ich gehe nahezu völlig mit, außer bei zwei Punkten:
Ich glaube nicht an ein baldiges Erscheinen des GP107 und ich glaube nicht, dass der HighEndNotebookGPU-Markt entscheidend genug ist. (und das sage ich als jemand, der sich ein P507 mit einer 1080 holen möchte...)
An AMDs Stelle würde ich dort auch gar keine Karte launchen und genau danach sieht es momentan auch aus.


Der einzige Bereich der bei Notebooks für die Lieferanten dedizidierter GPUs so richtig satt gewachsen ist, sind die Gaming Teile. Die dort geforderte Leistung ist GTX1060 / RX480 bzw. leicht darunter also RX470 Klasse und natürlich aufwärts.


Was für AMD entscheidend ist, ist ein schneller Launch, gute Reviews und viele Design-Wins mit einem schlanken, wiedererkennbaren Portfolio. Im Notfall wird dafür die Verfügbarkeit der RX 460 leiden müssen, aber was solls...
...denn da hast du natürlich schon auch wieder recht: Lange offen bleiben wird die Flanke nicht!

Die Reviews sind ja eher "meeh..." Im Vergleich zu Maxwell nicht wirklich berauschend. Da kann Nvidia ja sogar noch ne ganze Weile 28nm Maxwell liefern. Einfach bisserl den Preis senken. Der 28nm Prozess ist sau billig für diese GPU Größe und da R&D schon lange verdient.

Ich verstehe momentan 2 Dinge überhaupt nicht:

1) Wieso ist die RX460 teildeaktiviert. In der Chipgröße sollte es eigentlich keine Ausbeuteprobleme geben

2) Wieso ist die Effizienz im Vergleich zur RX480 und vor allem zu Maxwell nicht extrem viel besser? Gerade gegenüber Maxwell hätte AMD hier m.E. deutlich drunter bleiben müssen. Das sie das in der höheren Leistungsklasse nicht geschafft haben war schon suboptimal. In der kleineren Leistungsklasse hätte ich aber erwartet, dass sie drunter bleiben können, weil sie ja auch weniger Performance als bei der RX480 liefern müssen. Natürlich skaliert das nach unten hin auch immer weniger, weil bestimmte Verbraucher konstant da bleiben.

Trotzdem bin ich der Meinung, dass irgendwas bei Polaris faul ist. Entweder ist es ein Design Problem bzw. Nachteil zur Konkurrenz oder der GF Prozess ist deutlich schlechter als TSMC oder es ist eine Kombination von beidem. GP107 wird die RX460 m.E. schlachten was das Thema Leistungsaufnahme in Relation zur Performance angeht, es sei denn Nvidia verkackt den. Bei Polaris 10 ist schon klar, dass der gegen GP106 und selbst GP104 keinen Stich im Notebook Segment sehen wird was das angeht. Eigentlich wollte AMD ja gemäß eigener Aussage hier besonders zulegen. Da passen aber die Werte dann nicht.

Woerns
2016-08-08, 17:28:26
@Mancko
Beide Punkte wundern mich auch.
Denkbar, wenn auch nicht belegbar, wäre, dass AMD derzeit hauptsächlich für den Notebookmarkt produziert und selektiert, wobei zur Erklärung eine große Streuung vorhanden sein müsste. Dann wandern die guten (energieeffizienten) in die Notebooks und die schlechten in die Desktops, wo man zusätzlich eine Teildeaktivierung durchgeführt hat, um aus den unterschiedlich schlechten EIN Produkt zu machen.
Alles pure Spekulation. Und wirklich dran glauben mag ich auch erst, nachdem ich die entsprechenden Notebooks gesehen habe.
MfG

Loeschzwerg
2016-08-08, 17:51:28
Ich verstehe momentan 2 Dinge überhaupt nicht:

1) Wieso ist die RX460 teildeaktiviert. In der Chipgröße sollte es eigentlich keine Ausbeuteprobleme geben

2) Wieso ist die Effizienz im Vergleich zur RX480 und vor allem zu Maxwell nicht extrem viel besser? Gerade gegenüber Maxwell hätte AMD hier m.E. deutlich drunter bleiben müssen. Das sie das in der höheren Leistungsklasse nicht geschafft haben war schon suboptimal. In der kleineren Leistungsklasse hätte ich aber erwartet, dass sie drunter bleiben können, weil sie ja auch weniger Performance als bei der RX480 liefern müssen. Natürlich skaliert das nach unten hin auch immer weniger, weil bestimmte Verbraucher konstant da bleiben.


Die RX460 liegt schlichtweg auch wieder nicht im Sweetspot, da wären 1024 Einheiten bei ~1GHz vermutlich besser gewesen.

Schaffe89
2016-08-08, 18:48:34
Ich denke ehrlichgesagt nicht dass es abhängig vom Sweet Spot ist, ich glaub mittlerweile einfach dass der Prozess dermaßen schlecht läuft, dass sich einfach keine effizienten Karten realisieren lassen.
Ich habe mich mal ein paar Stunden mit Wattman und einer rx480 Referenz bei einem Freund ausgetobt und die Karte auch mit Powertargetsenkungen, weniger Spannung nicht wirklich auf eine gute Effizienz gebracht, das scheint eher ein generelles Problem zu sein.

mczak
2016-08-08, 18:52:52
Die RX460 liegt schlichtweg auch wieder nicht im Sweetspot, da wären 1024 Einheiten bei ~1GHz vermutlich besser gewesen.
Das ist dann vermutlich das was man in Notebooks sehen wird.
Wäre aber schon nett gewesen wenn man im Desktop nicht nur den "Abfall" kriegen würde.

HOT
2016-08-08, 19:06:05
Ich denke ehrlichgesagt nicht dass es abhängig vom Sweet Spot ist, ich glaub mittlerweile einfach dass der Prozess dermaßen schlecht läuft, dass sich einfach keine effizienten Karten realisieren lassen.
Ich habe mich mal ein paar Stunden mit Wattman und einer rx480 Referenz bei einem Freund ausgetobt und die Karte auch mit Powertargetsenkungen, weniger Spannung nicht wirklich auf eine gute Effizienz gebracht, das scheint eher ein generelles Problem zu sein.
Das ist aber nicht vom Prozess abhängig, das war bei 28nm eigentlich auch schon so. Ich denke, dass der Gedanke über den SweetSpot auch schwer überschätzt wird. Das ist nämlich nicht nur abhängig vom Chip, sondern von allem Möglichen, beispielsweise Temperatur, Wandlereffizienz incl. Wandlertemperatur, Speichertakte usw. Die RX480 ist ausgerechnet jetzt so designt, dass der hoch getaktete Speichercontroller eine Rolle spielen wird (also dämpfend auf der Suche nach einem SweetSpot wirkt) und dass die Wandler so "groß" gewählt wurden, dass sie möglichst kühl bleiben, was ebenfalls dämpfend wirkt, wenn man die RX480 Referenz beispielsweise mit Hawaii vergleicht, welche ja auch ziemlich teperaturanfälllig ist im Verbrauchsverhalten. Je effizienter die Karte ist, desto linearer verhält sich der Verbrauch, da gibt einfach keinen definierbaren SweetSpot mehr. GCN braucht einfach mehr als Maxwell und Pascal, das hat aber auch wiederum mehrere Ursachen: GCN ist auf höhere Packdichten optimiert, was hohe Taktraten verhindert, auf Leistung getrimmte GCN-Karten haben keine wirksamen Powerfeatures, bisherige GCN-Karten haben keinen effektives feingranulares Turbo/Energiemanagement. Ich denke, dass an diesem letzten Punkt Vega eine große Rolle spielen wird, die ersten beiden "Probleme" werden auch bei Vega bestehen bleiben. MMn wird auch nur Greenland das Powergating von P11 und Fiji erben, nicht jedoch Vega10 und 11 (genau wie nur Greenland native SSD-Unterstüzung von Fiji erben wird).
Sicherlich ist der Prozess nicht optimal, das kann man wohl kaum erwarten, immerhin ist P10 das erste kommerzielle 14LPP-Produkt von GloFo. Jedoch wird das eher geringere Auswirkungen haben. Es wird sicherlich später möglich sein, P10 auch effizienter bei höheren Taktraten zu betreiben, aber am Verbrauch wird sich da wohl kaum was grundlegend ändern, das ist einfach unsinnig. P10 verbraucht das, was er verbraucht und würde das auch in 16nm verbrauchen.

AnarchX
2016-08-08, 19:07:20
Irgendwo scheint P11 selbst mit 16CUs ziemlich deplatziert zu sein. Mit einem GM107 mit ~40% mehr Takt wird man wohl sehr schwer haben, es sein den 14nm ist wirklich so schlecht. Und auf AMD bezogen, klafft eine riesige Lücke zwischen dem 124mm² P11 und dem 232mm² P10. Da fragt sich, ob man da noch etwas dazwischen schieben wird: 24CUs + 192-Bit/Single-Stack-HBM2 wäre wohl eine nette Lösung bei ~170mm².

Schaffe89
2016-08-08, 19:48:05
GCN braucht einfach mehr als Maxwell und Pascal, das hat aber auch wiederum mehrere Ursachen: GCN ist auf höhere Packdichten optimiert, was hohe Taktraten verhindert, auf Leistung getrimmte GCN-Karten haben keine wirksamen Powerfeatures, bisherige GCN-Karten haben keinen effektives feingranulares Turbo/Energiemanagement.

Allen Erklärungsveruchen zum Trotz, hat AMD zu Beginn mit 2,5x so hoher Effizienz geworben und auch Leistungsaufnahmevergleiche gezeigt, zudem hatte man für rx470, rx480 und rx460 eigentlich TDP Angaben die man nicht hätte reißen sollen.
Da es nun anders als AMD das vorherkommunuziert hatte zu deutlich höheren Verbräuchen gekommen ist, muss zwischen Januar 2016 und heute irgendetwas gravierendes passiert sein und da fällt mir halt nur die Fertigung ein.

Dass AMD einfach nur gelogen hat, will ich jetzt mal nicht glauben. Selbst ein paar Wochen vor Release hat Raja noch mit "less than 150 Watt" geworben.
Irgendwas muss da bei allen Karten ziemlich schief laufen unabhängig woran das jetzt liegen mag.

Hoffnung hab ich deswegen zumindest auf etwas bessere Refreshes, auf Dauer kann AMD so sicherlich nicht gegen das Pascal Portfolio anstinken.

HOT
2016-08-08, 19:58:50
Da der Chip im November Tapeout hatte, wussten die auch schon vorher was der maximal verbrauchen wird. Das war einfach unfassbar dämliches Marketing. Und du verkennst immernoch die Leistung des Chips unter reinen DX12/Vulkan-Bedingungen. Denk mal ein Jahr weiter, dann gibts keine leistungsrelevanten Spiele mehr ohne low-Level-API. DX11 wird im AAA-Bereich zwar weiterhin unterstützt, aber unfassbar schnell einfach irrelevant, weil es dann einfach bei neuen Titeln nicht mehr gebencht wird. Ich finds immer geil, wie alle Pascal als Heilbringer darstellen, nur weil der im Moment alle DX11-Benchmarks gewinnt. Aber denk das doch mal bitte weiter. Insbesondere wenn echte AsyncCompute mit immer größeren Compute-Anteilen möglicherweise auch noch in Half-Precision zum Tragen kommt und nicht nur ContextSwitching. Damit wird in Zukunft immer komplexere Grafik möglich sein. Wir stehen grad mal ganz am Anfang dieser Entwicklung. Und da hat Pascal einfach nicht die Zugewinne, die GCN haben wird. Das wird sich egalisieren.
Es ist das übliche Dilemma: AMDs Zukunftswette vs. NVs im-Moment-Design.

AMD muss natürlich seinen Stromverbrauch irgendwie in den Griff bekommen, das wird aber mit Vega10 auch kein Wunder werden. Der Chip wird mit seinen 64CUs sicherlich um die 400mm² auf die Waage bringen und mit seinen 64CUs ähnliche maximale Verbrauchswerte von Hawaii erreichen, diesmal aber wenigstens hoffentlich mit einem vernünftigen Powermanagement. MMn ist das auch AMDs Top-Produkt werden. Vega11 könnte durchaus auch ein 24CUs-Chip mit einem HBM-Stack werden.

Loeschzwerg
2016-08-08, 20:20:21
Also wenn man sich anschaut was für starke Unterschiede es bei bei den RX480 gibt, dann ist da definitiv etwas bei der Fertigung faul und ist dadurch gezwungen hohe Spannungen für den benötigten Takt zu fahren. Weniger wäre hier mehr gewesen und die OCer hätten sich ebenfalls gefreut.
Selbiges denke ich mir beim P11, weshalb ich da lieber mehr aktive Units als Takt gesehen hätte.

Dino-Fossil
2016-08-08, 21:16:43
Ich könnte mir vorstellen, dass aktuell die besten P11-Chips für mobile Varianten (oder Apple?) gehortet werden und die 460 eher die Ausschussware bekommt.

uweskw
2016-08-08, 22:16:58
Also wenn man sich anschaut was für starke Unterschiede es bei bei den RX480 gibt, dann ist da definitiv etwas bei der Fertigung faul und ist dadurch gezwungen hohe Spannungen für den benötigten Takt zu fahren. ........


Aber dennoch wird hier von den vermeindlichen Profis ständig die Architektur verantwortlich gemacht, also AMD selbst. Passt von der Logik null zusammen.
Sicher hat auch die höhere Packdichte auch einen Einfluss, aber das wusste AMD schon vorher. Was sie nicht wussten war wieviel Spannung notwendig ist um bei den geplanten Taktraten noch eine halbwegs brauchbare Chipausbeute zu gewährleisten.
Hoffentlich sehen wir bald Polaris von Samsung. Die haben ihre Prozesse anscheinend im Griff.

greetz
US

y33H@
2016-08-08, 23:24:59
Generell scheint (!) der 14LPP etwas mehr Energie für die gleiche Performance zu benötigen als 16FF+, was auch die beiden Varianten von Apples A9 zumindest nahelegen (ja, 14LPE).

deekey777
2016-08-08, 23:28:06
Generell scheint (!) der 14LPP etwas mehr Energie für die gleiche Performance zu benötigen als 16FF+, was auch die beiden Varianten von Apples A9 zumindest nahelegen (ja, 14LPE).
Ich freue mich schon auf die Diskussion wegen des Verweises auf dn A9.

N0Thing
2016-08-08, 23:41:49
Wer weiß schon, wie es wirklich ist. Andererseits wäre es für AMD ja noch schlimmer, wenn es bei der aktuellen Leistungsaufnahme keinen Nachteil durch die Fertigung bei GF geben würde.

Thunder99
2016-08-09, 10:35:55
Der A9 ist bis jetzt halt der einzige Chip wo man einen Vergleich hat. Besser als nichts. Und ohne Hintergrundwissen was am 14LPE zu LPP verändert wurde muss man annehmen das es parallelen geben kann

Raff
2016-08-09, 10:47:35
Die RX460 liegt schlichtweg auch wieder nicht im Sweetspot, da wären 1024 Einheiten bei ~1GHz vermutlich besser gewesen.

Ich habe hier eine Asus RX 460 Strix mit einer Art "Spar-BIOS" – also einem Referenz-BIOS, das 1.200 MHz Boost zulässt. Die Leistungsaufnahme peakt auf 70W und der Takt liegt dabei um 1.100 MHz. ~60 °C GPU-Temperatur und trotzdem sehr leise. Das sieht ziemlich süßgepunktet aus. :)

MfG,
Raff

YfOrU
2016-08-09, 12:42:38
Wieso ist die RX460 teildeaktiviert. In der Chipgröße sollte es eigentlich keine Ausbeuteprobleme geben

P11 ist explizit für Mobile entwickelt worden und da sind mehr Einheiten bei geringerer Frequenz und Spannung effizienter. Hinzu kommt das Powergating pro CU bei einem nur in Teilen aktiven Chip zwangsläufig weniger bringt.

Unter dem Betrachtungswinkel macht es meiner Ansicht nach absolut Sinn jegliche Chips welche die Spezifikationen für Mobile nicht erfüllen erstmal auf den Desktop zu bringen. Abzüglich zwei CUs sollte sich nahezu alles das halbwegs funktioniert verwerten lassen. Im Gegensatz zu Mobile sind ein paar Watt mehr grundsätzlich zu vernachlässigen und P11 ist halt auch ein richtiges Massenprodukt. Wird sicher ziemlich lange am Markt sein und ein komplett aktiver Desktop Refresh ist deshalb auch alles andere als unwahrscheinlich.

Bei AMD versucht man das absolute Maximum herauszuholen. Bei Mobile ist die Marge höher, Ausschuss ist teuer und die Kapazitäten (14nm, GF) sind nicht unbegrenzt.

iuno
2016-08-09, 12:47:23
P11 ist explizit für Mobile entwickelt worden und da sind mehr Einheiten bei geringerer Frequenz und Spannung effizienter. Hinzu kommt das Powergating pro CU bei einem nur in Teilen aktiven Chip zwangsläufig weniger bringt.
Gemessen am Maximalverbrauch schon, aber nicht absolut.
Dass die 460 im idle noch mehr braucht als die 1060 ist fuer mich eine kleine Ueberraschung, da haette ich mir mehr erwartet. Takt sehr niedrig, weniger Speicher, nur noch 1 CU aktiv - oder kommt das Feature erst wieder mal nach?

Linmoum
2016-08-09, 13:05:36
Gemessen am Maximalverbrauch schon, aber nicht absolut.
Dass die 460 im idle noch mehr braucht als die 1060 ist fuer mich eine kleine Ueberraschung, da haette ich mir mehr erwartet. Takt sehr niedrig, weniger Speicher, nur noch 1 CU aktiv - oder kommt das Feature erst wieder mal nach?
Soon™
Wie uns AMD mitteilte, gibt es mittlerweile auch eine Lösung für die hohe Leistungsaufnahme im Idle und im Niedriglastbereich, die jedoch noch keinen Einzug in die letzten Treiber gefunden hat, mit dem wir die Leistungsaufnahme gemessen haben.
http://www.tomshardware.de/amd-radeon-rx-460-grafikkarte,testberichte-242167-6.html

YfOrU
2016-08-09, 13:05:43
Bezüglich des Verbrauchs im Leerlauf sehe ich über den gesamten Durchschnitt an Reviews zur GTX 1060 keinen eklatanten Unterschied. Je nach Test und Hersteller der Karte variiert der um wenige Watt.

iuno
2016-08-09, 13:16:39
Soon™

http://www.tomshardware.de/amd-radeon-rx-460-grafikkarte,testberichte-242167-6.html
Dasselbe wurde zu P10 gesagt und der kann kein powergating fuer jede CU, daher hat es damit imho auch nicht wirklich zu tun, sondern mit einem anderen Problem, dass sie im idle noch haben (mit Videoplayback steht die Karte afaics relativ gesehen zudem auch besser da).
Sowas sollte man halt auch mal zum Launch gebacken bekommen, denn die initialen Reviews sind halt mit Abstand die wichtigsten.

Bezüglich des Verbrauchs im Leerlauf sehe ich über den gesamten Durchschnitt an Reviews zur GTX 1060 keinen eklatanten Unterschied. Je nach Test und Hersteller der Karte variiert der um wenige Watt.
"wenige Watt" sind bei <10W halt schon einiges.

Woerns
2016-08-09, 13:47:09
Wenn P11 ausdrücklich für Mobile entwickelt wurde, wo sind dann die Notebooks?
Legt sich Apple erst einmal eine so große Halde an, dass man sonst nichts von Mobile-P11-Notebooks sieht? Oder wer kommt sonst als Abnehmer in Frage?
MfG

Unicous
2016-08-09, 14:00:14
Neue Notebooks werden zur Back-to-School/Holiday Season vorgestellt, also dürfte es bald soweit sein. Nvidia z.B. soll wohl zur Gamescom ihre Mobile Pascals vorstellen, das ist in einer Woche.:wink:

iuno
2016-08-09, 14:00:59
Als ob jeder Notebookhersteller direkt zum release von neuen GPUs neue Modelle auflegt. Das passiert vielleicht beim Topmodell, aber sonst nicht, ausser alles ist 1:1 Kompatibel mit dem Vorgaenger. AMD wurde zuletzt aber quasi ueberhaupt nicht mehr verbaut.
Mehr Notebook Updates sieht man dann vielleicht zusammen mit Kaby Lake

YfOrU
2016-08-09, 14:05:07
"wenige Watt" sind bei <10W halt schon einiges.

Schon klar. Deshalb habe ich geschrieben abhängig von Karte und Review. Beispiele:
https://www.computerbase.de/2016-08/radeon-rx-460-test/6/
http://www.bit-tech.net/hardware/graphics/2016/08/08/gigabyte-radeon-rx-460-windforce-2x-oc-2gb/11

Das eine 460 hier durchaus noch ein Stück besser dastehen müsste unterschreibe ich gerne ;)

Wenn P11 ausdrücklich für Mobile entwickelt wurde, wo sind dann die Notebooks?
Legt sich Apple erst einmal eine so große Halde an, dass man sonst nichts von Mobile-P11-Notebooks sieht? Oder wer kommt sonst als Abnehmer in Frage?

Das Notebook Segment ist abseits der großen dGPUs im MXM Format welche in den üblichen Barebones von Clevo, MSI etc. verbaut werden zyklisch.

Der große Schwung an neuen Gerätedesigns und Refreshs kommt jedes Jahr zusammen mit der Einführung von Intels jeweils neuester (mobiler) CPU Generation. Am Markt verfügbar im Regelfall um Q3/Q4. Ist ein absolut kritisches Zeitfenster welches AMD in der Vergangenheit auch schon mal verpasst hat. Wer im Vorfeld nicht liefern kann holt das im Regelfall in den nächsten 12 Monaten nicht mehr auf.

Unicous
2016-08-09, 14:15:16
Als ob jeder Notebookhersteller direkt zum release von neuen GPUs neue Modelle auflegt. Das passiert vielleicht beim Topmodell, aber sonst nicht, ausser alles ist 1:1 Kompatibel mit dem Vorgaenger. AMD wurde zuletzt aber quasi ueberhaupt nicht mehr verbaut.
Mehr Notebook Updates sieht man dann vielleicht zusammen mit Kaby Lake

Verstehe nicht worauf du hinaus willst. Die OEMs werden sicherlich schon ihre Ladungen von Nvidia bekommen haben... ob das auch für AMD gilt wird sich zeigen.

Kaby Lake kommt erst Anfang? 2017, viel zu spät für back to school und holiday season.

YfOrU
2016-08-09, 14:20:54
Würde mich überraschen denn von GP107 ist nicht wirklich etwas zu hören. P11 haben die OEMs mit Sicherheit (Designphase, Validierung) schon recht lange zur Verfügung. Da P11 ziemlich klein ist spricht eigentlich wenig gegen hohe Stückzahlen und ausreichend Zeit sollte auch dagewesen sein.

Kaby Lake:http://www.anandtech.com/show/10503/intel-begins-shipment-of-seventh-generation-core-kaby-lake
Roadmap: https://benchlife.info/intel-study-skylake-x-kaby-lake-x-and-basin-falls-for-skylake-w-06022016/

Neue Geräte mit den heute in Notebooks üblichen 15W SKUs sollte es dieses Jahr wie gehabt geben.

Unicous
2016-08-09, 14:52:23
https://i0.wp.com/benchlife.info/wp-content/uploads/2015/10/kaby-lake.jpg?ssl=1
https://benchlife.info/intel-kaby-lake-scedule-show-10nm-cannonlake-will-push-back-to-2018-10162015/
(Woche 33 fängt nächsten Montag an)


Nvidia wird laut Digitimes die 1080(M),1070(M) und die 1060(M) vorstellen, die Vorgängermodelle wurden nicht mit U/Y zusammen verbaut, ich gehe nicht davon aus, dass sich das ändern wird. Ich gebe aber zu, dass ich Desktop mit mit Mobile gleichgesetzt habe und ja, Intel verschifft wohl einige Mobile-Chips. Darüber hinaus soll Kaby Lake zur CES vorgestellt werden.

mczak
2016-08-09, 14:52:30
Das eine 460 hier durchaus noch ein Stück besser dastehen müsste unterschreibe ich gerne ;)

Naja, die GTX 1060 geht noch deutlich weiter runter - Takt 139Mhz, Spannung knapp über 0.6V (ich vermute mal die RX 460 liegt bei der Spannung im idle ähnlich wie die RX 470/480, denn Messwerte habe ich noch keine gesehen, das wären dann knapp über 0.8V). Ausserdem hat die GTX 1060 einen idle-Speichertakt von bloss 100Mhz, und noch wichtiger die senkt da auch die Spannung beim Speicher (auf 1.35V statt 1.5V), etwas das ich bisher noch bei keiner einzigen radeon-Karte gesehen habe (kann aber sein dass das bei P11 auch geht ich habe wie gesagt einfach keine Messungen gesehen bisher).

Loeschzwerg
2016-08-09, 17:35:50
Ich habe hier eine Asus RX 460 Strix mit einer Art "Spar-BIOS" – also einem Referenz-BIOS, das 1.200 MHz Boost zulässt. Die Leistungsaufnahme peakt auf 70W und der Takt liegt dabei um 1.100 MHz. ~60 °C GPU-Temperatur und trotzdem sehr leise. Das sieht ziemlich süßgepunktet aus. :)

MfG,
Raff

KK :) Ich hätte ja generell nix gegen das kleine Ref-Design gehabt.

uweskw
2016-08-09, 19:12:02
.........."wenige Watt" sind bei <10W halt schon einiges.



Jetzt lasst die Kirche doch mal im Dorf! :mad:

Außer irgendwelchen blinden Prinzipienreitern interessiert es doch keine Sau ob eine Desktop-Karte im Leerlauf 5 oder 9 Watt braucht. Das geht beim Stromzähler im Toleranznirvana unter.

"Boah-Ey Alda! Die Kaggkadde säuft ja dobbld so viel...":freak:

greetz
US

Dino-Fossil
2016-08-09, 19:52:46
Ja, da wirds dann langsam wirklich bissl albern. Mobile könnte ich eher nachvollziehen...

Wobei ich ja auf den Idle-Bugfix gespannt bin, ob der wohl die 460 auch betrifft?

CD-LABS
2016-08-09, 23:08:36
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)
Danke für diese traumhaft schönen Bilder---besser als vieles PR-Material! :up:

raumfahrer
2016-08-09, 23:15:59
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)

Tolle Sache!

Hat sich jemand mit Ahnung das schonmal angeschaut und kann eine grobe Aufteilung des Chips machen? Ich erinnere mich, dass das vor ein paar Jahren mal bei einem Chip gemacht wurde. Wie groß ist das Speicherinterface, die CUs, etc. und wie viel vom Chip nehmen sie ein.

Wenn sich entsprechende Zahlen zur 28nm Generation bei TSMC finden lassen könnte man endlich etwas fundierter über die Fertigungsauswirkungen diskutieren.

CD-LABS
2016-08-09, 23:16:51
Als ob jeder Notebookhersteller direkt zum release von neuen GPUs neue Modelle auflegt. Das passiert vielleicht beim Topmodell, aber sonst nicht, ausser alles ist 1:1 Kompatibel mit dem Vorgaenger. AMD wurde zuletzt aber quasi ueberhaupt nicht mehr verbaut.
Mehr Notebook Updates sieht man dann vielleicht zusammen mit Kaby Lake
Wir befinden uns kurz vor einem Zeitpunkt, an dem ein Haufen neuer Geräte vorgestellt wird. Zur Gamescom wird es das HighEnd-Lineup aus Skylake-H& GP104 sowie Skylake-H&GP106 geben, da passen kurz vor und nachher auch noch Kabylake-U&Polaris11-Geräte rein...

Unicous
2016-08-10, 02:51:21
Weiß nicht, ob es überhaupt etwas Interessantes zu entdecken gibt, aber AMD hat ein whitepaper zu Polaris veröffentlicht.

http://radeon.com/polaris-architecture-whitepaper/?sf32898291=1


bzw.

http://radeon.wpengine.netdna-cdn.com/wp-content/uploads/2016/08/Polaris-Architecture-Whitepaper-Final-08042016.pdf

Hübie
2016-08-10, 02:57:32
Danke:up:
Schon etwas interessantes gefunden:
In “Hawaii,” and other GPUs based on the Graphics Core Next ISA, the hardware was
designed to support a fixed number of compute queues (up to 8 per ACE). Starting with 3
rd
and 4th-gen GCN, however, the HWS makes it possible to virtualize these compute queues.
This means that any number of queues can be supported, and the HWS will assign these
queues to the available ACEs as slots became available.
[...]
The HWS units are dual-threaded microprocessors capable of handling two scheduling
threads, and their behavior can be tuned with microcode updates by AMD.

Wie das gelöst wird steht da zwar nicht, bin aber auch noch nicht sehr weit.

Unicous
2016-08-10, 03:08:45
Das ist aber nichts Neues sondern wurde mit Tonga eingeführt?:confused:

Hübie
2016-08-10, 03:14:15
Da war aber doch noch gar nicht bekannt dass diese über den microcode gepatch werden können oder? :|

mczak
2016-08-10, 06:16:47
Tolle Sache!

Hat sich jemand mit Ahnung das schonmal angeschaut und kann eine grobe Aufteilung des Chips machen? Ich erinnere mich, dass das vor ein paar Jahren mal bei einem Chip gemacht wurde. Wie groß ist das Speicherinterface, die CUs, etc. und wie viel vom Chip nehmen sie ein.

Bin zu faul zum Zeichnen, aber die CUs sind ja kaum zu verfehlen. Das Speicherinterface sieht man auch sehr klar (3 32bit Blöcke oben am Rand, 3 unten, 2 an der Seite links). PCIE müsste wohl das Zeugs unten rechts in der Ecke sein (2 Blöcke horizontal nebeneinander, darüber vertikal angeordnet nochmals 2 Blöcke). Man kann sogar die 16 Lanes ausmachen (je 4x Lane Block hat's noch zusätzliche Logik). So ein 4x PCIE Block scheint dann knapp über 2 mm^2 gross zu sein - da hat also AMD bei Polaris 11 4mm^2 gespart, sind dann immerhin 3% der Chipfläche...
Bei den restlichen Blöcken habe ich aber keine Ahnung - zu vermuten ist dass ROPs zwischen den CUs und dem SI liegen (da das immer Quad-Rops sind müssten es 8 sein ich kann aber bloss 6 finden also liege ich vielleicht daneben...).

Interessanterweise ist aber das von AMD veröffentlichte Symbolbild schon relativ nahe an der Wahrheit - da hat man von nvidia schon ganz anderes gesehen (so Bilder wo der ganze Chip aus schön vielen einzelnen gut sichtbaren CUDA cores besteht und sonst nichts ;-)).

Foobar2001
2016-08-10, 07:44:25
Da war aber doch noch gar nicht bekannt dass diese über den microcode gepatch werden können oder? :|
Der Command-Processor hatte wahrscheinlich schon bei R300 Microcode ;)

Hübie
2016-08-10, 08:30:33
@mczak: Also was NV whitepaper nennt, würde ich als Infobroschüre bezeichnen. :D
@foobar2001: Das war für mich Zauberei und völlig neu. Schon interessant, da bei Fiji auf magische Weise zwei ACEs zu HWS wurden. Und so eine ACE braucht doch eine gewisse Registergröße um jede von Queue anzunehmen statt wie vorher bis zu 8.

Edit: Wie funktioniert so etwas denn eigentlich? Machen die einen "Rundflug" bis Resources frei werden? Ich verstehe dass jetzt so, dass der Chip stetig annimmt und ggf. looped bzw. Code in Register auslagert (parkt) bis eben eine ACE meldet "bin frei".

Achill
2016-08-10, 09:17:11
Wenn P11 ausdrücklich für Mobile entwickelt wurde, wo sind dann die Notebooks?
Legt sich Apple erst einmal eine so große Halde an, dass man sonst nichts von Mobile-P11-Notebooks sieht? Oder wer kommt sonst als Abnehmer in Frage?
MfG

Es gibt denke ich nicht umsonst Gerüchte um ein neues MacBook Pro - würde mich nicht wundern wenn da P11 optional mit drin sein kann.

iuno
2016-08-10, 11:29:23
Schon etwas interessantes gefunden

Das ist aber nichts Neues sondern wurde mit Tonga eingeführt?:confused:
Genau, davon hatten wir es hier ja schon oefter und Robert Hallock hat auch vor kurzem in einem Interview nochmal bestaetigt, dass die Funktionalitaet schon da war aber erst "spaeter" mit GCN Gen.3 eingefuehrt wurde.

Da war aber doch noch gar nicht bekannt dass diese über den microcode gepatch werden können oder? :|
Nicht zum Release von Tonga, sondern eher Fiji, aber es war bekannt.

Der Command-Processor hatte wahrscheinlich schon bei R300 Microcode ;)
Also fuer den Linux Kernel stehen Firmwares bereit bis nach R100 zurueck (https://git.kernel.org/cgit/linux/kernel/git/firmware/linux-firmware.git/tree/radeon/R100_cp.bin), damals allerdings wirklich nur fuer den CP (2 kiB). Inzwischen (https://git.kernel.org/cgit/linux/kernel/git/firmware/linux-firmware.git/tree/amdgpu) ist man fuer alle firmwares fuer eine GPU (ce, mc, me, mec, mec2, pfp, rlc, sdma, sdma1, smc, smc_sk, uvd, vce) so bei ~1,4 MiB

Man kann sogar die 16 Lanes ausmachen (je 4x Lane Block hat's noch zusätzliche Logik). So ein 4x PCIE Block scheint dann knapp über 2 mm^2 gross zu sein - da hat also AMD bei Polaris 11 4mm^2 gespart, sind dann immerhin 3% der Chipfläche...
Sicher, dass sie das gemacht haben?
Ich dachte, da das solche Standard-Bloecke sind haetten sie vielleicht nur 8 Lanes nach aussen gefuehrt und auf dem Board untergebracht, um etwas zu sparen, aber nicht zwangslaeufig auch das Interface auf dem Chip selbst verkleinert.
Wie gesagt so getan. Wie erwartet ließ sich dann doch noch etwas aus dem Chip herausholen.

https://c5.staticflickr.com/9/8709/28777482876_4ec41e3e24_c.jpg (https://flic.kr/p/KQY84S)

https://c6.staticflickr.com/9/8404/28821397645_83a6888a55_c.jpg (https://flic.kr/p/KURcp4)
Das hatte ich ja ganz verpasst, danke fuer die Bilder!
Duerfen wir denn darin rummalen? ;p

Bei den restlichen Blöcken habe ich aber keine Ahnung - zu vermuten ist dass ROPs zwischen den CUs und dem SI liegen (da das immer Quad-Rops sind müssten es 8 sein ich kann aber bloss 6 finden also liege ich vielleicht daneben...).

Interessanterweise ist aber das von AMD veröffentlichte Symbolbild schon relativ nahe an der Wahrheit
Ja, manches passt sehr genau, anderes wiederum nicht, etwa dort wo du das PCIe Interface ausgemacht hast. Auch scheinen eher 3er Gruppen von CUs zusammenzugehoeren wie hier (https://pics.computerbase.de/7/3/0/7/2/3-1080.2111938934.png) gezeigt, und nicht 2er wie in dem veroeffentlichten "Dieshot". Man sieht innerhalb der CUs vor dem letzten SIMD Block drei unterschiedliche Bloecke periodisch ueber drei CUs vorkommen. Wenn ich sie durchnummeriere, waere die Reihenfolge 1 2 3 2 | 1 2 3 2 | 1 2 3 2, wobei der | jeweils 3 CUs markiert.
ROPs passen fuer mich, je 4 Bloecke pro Quadrant, wobei die ganz rechts etwas anders angeordnet sind.
Mich wuerde vor allem noch das Zeug in der Mitte interessieren. Was gehoert da zusammen, wie gross sind ME, MECs, GP und Rasterizer?

HOT
2016-08-10, 12:08:53
Das macht eigentlich nur Sinn, wenn man es auch auf dem Chip verkleinert. Und es ist ja auch naheliegend, ich frag mich eher, warum da nicht schon früher einer darauf gekommen ist. Es hat ja auch genau keinen Nachteil - der Chip schrumpft und das PCB wird simpler. Bei sowas wie Caicos hätte auch 4x gereicht.

Hübie
2016-08-10, 13:53:09
@iuno: Mir war es jedenfalls neu. :D Bei CPUs, hat man ja einen Bereich für Patches, der dann vom BIOS / UEFI mit dem Patch-Code überschrieben wird, aber dass man GPUs auf Treiberebene mit Firmware manipulieren kann ist mir halt neu.
Ein normales BIOS-Update für eine Graka ist ja nix besonderes, aber hier reden wir ja von Updates die mal eben mit einem Treiber implementiert werden können. Was steht denn da so z.B. drin? :confused:

Gipsel
2016-08-10, 14:48:43
Das hatte ich ja ganz verpasst, danke fuer die Bilder!
Später kamen noch bessere Bilder, für die OC_Burner offenbar bis runter auf den Baselayer (oder zumindest nah dran, M1 oder so) poliert hat, so daß auch Struktur in den Logikblöcken sichtbar wird (vorher war da eher ein solider Metallayer sichtbar). Ich verlinke mal ein Re-Upload mit leicht erhöhter Kompression (anklicken für volle Auflösung) von OC_Burners flickr-Stream (Originale sind 22MB oder so groß :eek:, diese Version nur noch knapp 10MB):

https://abload.de/img/polaris10-retouched_sxxo7z.jpg ('https://abload.de/img/polaris10-retouched_rq5zsl.jpg')

Gedreht und entzerrt (Klick für volle Auflösung):
https://abload.de/img/polaris10_die_smallbnua8.jpg ('https://abload.de/img/polaris10_die_full37uu8.jpg')
Ist nicht ganz perfekt entzerrt (auf die Schnelle auf Notebook mit Touchpad gemacht, mit einer Maus hat man doch mehr Präsizion), aber für einen Eindruck schon ganz gut.

-/\-CruNcher-/\-
2016-08-10, 15:19:11
AMD spricht überall immer von TGP

Thermal GPU Power ?

11 Testing conducted by AMD performance labs as of May 18, 2016 on the Radeon RX 480 and Radeon R9 290
on a test system comprising Intel Core i7-5960X, 16GB DDR4-2666, Gigabyte X99-UD4, Windows 10 x64
(build 10586), Radeon Software Crimson Edition 16.5.2using Ashes of Singularity, GTA V, Project Cars,
Witcher, and Assassin’s Creed Syndicate, All games tested at 1440p. Radeon RX 480 graphics (150W TGP/36
CU) vs. Radeon R9 290 graphics (275W TGP/40 CU) scores as follows: Ashes of the Singularity (44.19 FPS vs
46 FPS); GTA V (66.23 FPS vs. 66.44 FPS); Project Cars (48.99 FPS vs. 45.99 FPS); Witcher 3 (50.78 FPS vs.
50.13 FPS); Assassin’s Creed Syndicate (50.51 FPS vs. 45.78 FPS). Average FPS of above game scores: 52.14
(Radeon RX 480) vs. 50.06 (Radeon R9 290). Discrete AMD Radeon™ GPUs and AMD FirePro™ GPUs based on
the Graphics Core Next architecture consist of multiple discrete execution engines known as a Compute
Unit (“CU”). Each CU contains 64 shaders (“Stream Processors”) working together (GD-78). CU efficiency
formula = average FPS/# of CUs. Test results are not average and may vary. RX-4
12 Testing conducted by AMD Performance Labs as of May 10, 2016 on the AMD Radeon™ RX 470 (110w) and
AMD Radeon™ R9 270X (180w), on a test system comprising i7 5960X @ 3.0 GHz 16GB memory, AMD
Radeon Software driver 16.20 and Windows 10. Using 3DMark Fire Strike preset 1080p the scores were 9090
and 5787 respectively. Using Ashes of the Singularity 1080P High, the scores were 46 fps and 28.1 fps
respectively. Using Hitman 1080p High, the scores were 60 fps and 27.6 fps respectively. Using Overwatch
1080p Max settings, the scores were 121 fps and 76 fps respectively. Using Performance/Board power, the
resulting average across the 4 different titles was a perf per watt of 2.8X vs the Radeon R9 270X. Test results
are not average and may vary. RX-6


Mal gespannt wann AMD und Nvidia mit so einem clou wie SDP um die Ecke kommen ;)

TDP = Thermal Design Power (good oldshool)
TBP = Total Board Power
TGP = Thermal ? Power
SDP = Scenario Dependent Power

Was kann man den noch erfinden *g*

Naja ich hätte da noch

TVP
TVGCP

Wobei Intel dort mit SDP schon eine ordentliche Referenz gesetzt hat ;D

mironicus
2016-08-10, 15:22:47
Vielleicht "Typical Gaming Power"?

Mortalvision
2016-08-10, 16:04:56
Ich hätte noch eines:

CCCP = Clock Cycle Computing Power
USA = Unified Standard Architecture
NATO = Nominal Absolute Tesselation Operations

:D

-/\-CruNcher-/\-
2016-08-10, 16:10:22
Das RX-6 ist verdammt komisch da gelandet

Das RX-4 könnte man noch als RX-4(7)80

identifizieren aber was ist RX-6 ?

Komisches Cut and Paste was hier durchgeführt wurde und merkwürdige spuren hinterlasen hat :D

10 Based on AMD internal data generated in AMD performance labs as of May 2016, measurements of
capacitance, voltage frequency, leakage and power data show up to 1.7x performance/watt on 14nm vs
28nm FINFET technology. Final performance/watt results on AMD products using 14nm FinFET technology
may vary and will depend on various factors including but not limited to clock speed, voltage, and various
AMD proprietary technologies. RX-17

iuno
2016-08-10, 16:12:41
@iuno: Mir war es jedenfalls neu. :D Bei CPUs, hat man ja einen Bereich für Patches, der dann vom BIOS / UEFI mit dem Patch-Code überschrieben wird, aber dass man GPUs auf Treiberebene mit Firmware manipulieren kann ist mir halt neu.
Ein normales BIOS-Update für eine Graka ist ja nix besonderes, aber hier reden wir ja von Updates die mal eben mit einem Treiber implementiert werden können. Was steht denn da so z.B. drin? :confused:
Wo jetzt genau? Im Microcode?
Das kann ich nicht sagen, denn es handelt sich ja um Maschinencode fuer die entsprechenden Bloecke. Den gibt es auch unter Verwendung der freien Treiber nur als binaries, was den FSF Fans bitter aufstoesst. Ohne den Microcode sind die Karten heute unbrauchbar.
Man koennte sie auch ins BIOS packen und von dort laden, aber dann entfaellt natuerlich die Moeglichkeit einfacher Updates. Der Treiber laedt die Firmwares stattdessen jedes mal von der Festplatte, insofern sind diese Updates eigentlich sehr einfach zu realisieren, also genau das Gegenteil von dem was du geschrieben hast.

UVD/VCE haben so schon oefters Updates bekommen, sonst sind das eher Bugfixes (wie bei CPU Microcode auch), da bekommt man dann eh nichts von mit. Vermutlich bekommt die UVD auch diesmal ueber diesen Weg wieder ein Update, irgendwas ist ja erst fuer spaeter angekuendigt (afaik VP9). Zumindest ist das zu hoffen, anstelle einer erneuten hybriden Loesung.
Ein weiteres Beispiel sind ja die high priority queues, die genau ueber diesen Weg durch ein Update der MEC Firmware kamen.
Neu ist eigentlich nur, dass AMD sagt, sie haben flexible HWS Bloecke und wenn Devs einen Weg finden, diese effizienter zu nutzen, koenne man das leicht Updaten. Da bin ich mal gespannt, ob da was in dieser Richtung passiert. Da beide MECs auch getrennt angesprochen werden koennen, sind auch unterschiedliche Firmwares fuer beide denkbar. Vielleicht sogar anwendungsabhaengig... :uponder:

Später kamen noch bessere Bilder, für die OC_Burner offenbar bis runter auf den Baselayer (oder zumindest nah dran, M1 oder so) poliert hat, so daß auch Struktur in den Logikblöcken sichtbar wird (vorher war da eher ein solider Metallayer sichtbar). Ich verlinke mal ein Re-Upload mit leicht erhöhter Kompression (anklicken für volle Auflösung) von OC_Burners flickr-Stream (Originale sind 22MB oder so groß :eek:, diese Version nur noch knapp 10MB)
:eek: :up:

-/\-CruNcher-/\-
2016-08-10, 16:36:35
@iuno: Mir war es jedenfalls neu. :D Bei CPUs, hat man ja einen Bereich für Patches, der dann vom BIOS / UEFI mit dem Patch-Code überschrieben wird, aber dass man GPUs auf Treiberebene mit Firmware manipulieren kann ist mir halt neu.
Ein normales BIOS-Update für eine Graka ist ja nix besonderes, aber hier reden wir ja von Updates die mal eben mit einem Treiber implementiert werden können. Was steht denn da so z.B. drin? :confused:

Da ist nix neu auch Nvidia hat Programierbare teilbereiche der VPX bei Nvidia z.b wird auch durch eine Firmware gestützt die erst durch den Treiber eingeladen wird ;)

In early Windows treibern war dieser Binary Blob auch noch sichtbar bevor Nvidia ihn verschlüsselt in den .dlls platzierte ;)
Anders wär es damals auch nicht möglich gewesen die Decoding Fehler innerhalb VPX fixen zu können ohne einen komplett neuen ASIC Part ;)

Linux legt vor allem bei AMD mehr offen, da sie doch einigermasen offener als Nvidia agieren natürlich können sie die Sicherheit genausowenig erlauben zu kompromitieren, deswegen auch nur das wirklich nötigste der rest bleibt Top Secret "Classified" da wird niemand niemals was dran ändern und das ist für uns alle auch wirklich besser so ;)




@iuno

Fixen ist eine sache neue features eine andere dafür brauch man dann was sehr flexibles daran arbeitet Intel momentan für die Zukunft ;)

Deswegen bin ich doch noch etwas sehr skeptisch was Full Hardware Decoding angeht ich rechne eher wieder mit einem OpenCL Hybriden der aber Async Compute sehr intensiv nutzen wird.

Hübie
2016-08-10, 16:54:59
@iuno: Ich meinte ja auch nicht kompliziert und einfach sondern sicher und unsicher. Mit einer Manipulation von Microcode im Treiber und bösem im Schilde kann man so doch einfacher etwas ausführen lassen, als vom BIOS oder?

@Cruncher: Ja aber hw-scheduler programmierbar zu machen ist für mich Neuland und iuno sagte ja bereits: Pro Anwendung kann man da sicher noch was herauskitzeln.

iuno
2016-08-10, 16:58:00
Naja, dafuer muesste man das alles erst mal reverse enginnered bekommen. und dann koennte man die firmware immer noch signieren ;)
Da gibt es weitaus einfachere Wege, zu schauen was im framebuffer liegt oder zu schauen/beeinflussen, was gerechnet wird. Aber das koennte man schon im Hinterkopf behalten, ob AMD das macht? KA :ulol:

Foobar2001
2016-08-10, 18:10:13
@iuno: Mir war es jedenfalls neu. :D Bei CPUs, hat man ja einen Bereich für Patches, der dann vom BIOS / UEFI mit dem Patch-Code überschrieben wird, aber dass man GPUs auf Treiberebene mit Firmware manipulieren kann ist mir halt neu.
Ein normales BIOS-Update für eine Graka ist ja nix besonderes, aber hier reden wir ja von Updates die mal eben mit einem Treiber implementiert werden können. Was steht denn da so z.B. drin? :confused:
Primaer liest der Command Prozessor halt den Command-Buffer-Stream und schreibt in die Register der GPU damit sie das richtige macht. Das Program dafuer ist der Microcode. Schaltungen aendern kann man damit natuerlich nicht.

mczak
2016-08-10, 18:49:04
Primaer liest der Command Prozessor halt den Command-Buffer-Stream und schreibt in die Register der GPU damit sie das richtige macht. Das Program dafuer ist der Microcode.
Der CP (zumindest bei den alten Chips) ist im Uebrigen wirklich ein ziemlich simpler Prozessor. Daten lesen aus z.B. einem Vertexbuffer und die in ein Register schreiben ist tatsächlich die Hauptaufgabe. Das ganze natürlich auch mit Loops.
Man kann interessanterweise wenn man unbedingt will den CP im Prinzip bei diesen alten GPUs auch umgehen - denn die GPU-Register sind alle noch per MMIO erreichbar (IIRC bis und mit r200). Aus Performancegründen ist das aber nicht wirklich brauchbar. (Es gab aber im X.Org Treibercode tatsächlich einen nicht-cp Pfad für die alten radeons der genau das tut - genau solche Dinge sind aber mit ein Grund wieso der X Server root-Rechte brauchte.)

deekey777
2016-08-10, 20:22:15
http://www.heise.de/newsticker/meldung/Apple-bereitet-angeblich-neues-MacBook-Pro-mit-Touch-Leiste-vor-3291761.html

Das nächste MacBook-Pro-Generation wird dem Bericht zufolge etwas kompakter sowie dünner und erhält ein leicht größeres Trackpad. Im Unterschied zum 12" MacBook und MacBook Air werde Apple aber nicht auf ein keilförmiges Gehäuse setzen, das nach vorne hin schlanker wird. In einer Ausführung komme AMDs Polaris-Grafikchip zum Einsatz.

Vollausgebauter P11? Wobei: Das aktuelle Modell hat nur eine R9 M370X mit 640 SPs, da wären die 896 SPs der RX 460 ein Fortschritt.

Foobar2001
2016-08-10, 22:05:54
Der CP (zumindest bei den alten Chips) ist im Uebrigen wirklich ein ziemlich simpler Prozessor. Daten lesen aus z.B. einem Vertexbuffer und die in ein Register schreiben ist tatsächlich die Hauptaufgabe. Das ganze natürlich auch mit Loops.
Man kann interessanterweise wenn man unbedingt will den CP im Prinzip bei diesen alten GPUs auch umgehen - denn die GPU-Register sind alle noch per MMIO erreichbar (IIRC bis und mit r200). Aus Performancegründen ist das aber nicht wirklich brauchbar. (Es gab aber im X.Org Treibercode tatsächlich einen nicht-cp Pfad für die alten radeons der genau das tut - genau solche Dinge sind aber mit ein Grund wieso der X Server root-Rechte brauchte.)
Der CP liest nichts aus Vertex Buffern. Vertex Buffer werden von den CUs gelesen. Das ist bei GCN nichts anderes als ein normaler Load. Du meinst Command Buffer?

OC_Burner
2016-08-11, 00:46:27
Das hatte ich ja ganz verpasst, danke fuer die Bilder!
Duerfen wir denn darin rummalen? ;p

Klar darf man das. Sind unter Creative Commons Namensnennung ins Netz gestellt worden.

Gedreht und entzerrt (Klick für volle Auflösung):
https://abload.de/img/polaris10_die_smallbnua8.jpg ('https://abload.de/img/polaris10_die_full37uu8.jpg')
Ist nicht ganz perfekt entzerrt (auf die Schnelle auf Notebook mit Touchpad gemacht, mit einer Maus hat man doch mehr Präsizion), aber für einen Eindruck schon ganz gut.

Sieht gut aus! Frontal vor der Kamera abzulichten läßt nicht immer solche schönen Lichtspielereien zu.

iuno
2016-08-11, 02:12:02
Ich bin mir ehrlich gesagt nicht sicher, ob es zeitnah ueberhaupt ein P11 Produkt mit 16 CUs gibt... die 460 nennt doch Polaris 11/Baffin "XT" oder?!
Ansonsten koennte es natuerlich auch gut sein, dass es mit Apple analog zu Tonga laeuft...

mczak
2016-08-11, 03:17:50
Der CP liest nichts aus Vertex Buffern. Vertex Buffer werden von den CUs gelesen. Das ist bei GCN nichts anderes als ein normaler Load. Du meinst Command Buffer?
Das war auf die uralt-radeons bezogen (habe ich ja geschrieben, bis und mit r200 Chip). Da gab's keine Shader-Einheiten die selbständig Vertex-Daten von irgendwoher lesen konnten :-).

Edit: für den eigentlichen Vertex-Fetch war in der Tat nicht der CP zuständig. Zumindest aber für den Fetch der Daten aus dem Indexbuffer bei den diversen Draw-CP-Kommandos.
Ein typisches CP-Kommando war auch z.B. 3D_LOAD_VBPNTR. Damit wird konfiguriert wie die Vertex-Attribute aussehen (wie viele, Typ (rgba8, float4,...), Adressen der Vertex Arrays. Könnte man eben wie gesagt auch via PIO-Mode machen.
Aber was die CP-Kommandos da tun ist natürlich theoretisch frei per microcode programmierbar (die CP-Kommandos waren glaube ich schlicht Einsprungadressen in den microcode).

Loeschzwerg
2016-08-11, 07:00:40
Ich bin mir ehrlich gesagt nicht sicher, ob es zeitnah ueberhaupt ein P11 Produkt mit 16 CUs gibt... die 460 nennt doch Polaris 11/Baffin "XT" oder?!
Ansonsten koennte es natuerlich auch gut sein, dass es mit Apple analog zu Tonga laeuft...

Der WX4100 wird Baffin XT haben, also kann RX 460 nur Baffin Pro sein ^^ Bei z.B. Geizhals steht es schlichtweg falsch in der Datenbank.

YfOrU
2016-08-11, 08:18:57
Vollausgebauter P11? Wobei: Das aktuelle Modell hat nur eine R9 M370X mit 640 SPs, da wären die 896 SPs der RX 460 ein Fortschritt.

Von P11 im Vollausbau ist bei der RX 480M auszugehen und damit sollte selbst mit reduzierter TDP Faktor zwei gegenüber der R9 M370X erreichbar sein. Ist ja immer noch der alte Cape Verde (GCN 1).

Durch 20nm ist AMD ordentlich baden gegangen denn die direkte Folge war das es Cape Verde ein weiteres Jahr richten musste. Funktioniert hat das bei der Konkurrenz aber alles andere als gut. Die Design Wins bei den entsprechenden M300 Produkten sind an einer Hand abzählbar. Effektiv hat Nvidia nahezu das gesamte Segment abgeräumt und da steckt ordentlich Volumen dahinter.

iuno
2016-08-11, 11:39:06
Der WX4100 wird Baffin XT haben, also kann RX 460 nur Baffin Pro sein
Stimmt, das wusste ich auch schon mal :facepalm: :redface:

deekey777
2016-08-11, 12:49:50
Von P11 im Vollausbau ist bei der RX 480M auszugehen und damit sollte selbst mit reduzierter TDP Faktor zwei gegenüber der R9 M370X erreichbar sein. Ist ja immer noch der alte Cape Verde (GCN 1).

Durch 20nm ist AMD ordentlich baden gegangen denn die direkte Folge war das es Cape Verde ein weiteres Jahr richten musste. Funktioniert hat das bei der Konkurrenz aber alles andere als gut. Die Design Wins bei den entsprechenden M300 Produkten sind an einer Hand abzählbar. Effektiv hat Nvidia nahezu das gesamte Segment abgeräumt und da steckt ordentlich Volumen dahinter.

Es gibt ja Gerüchte, dass Apple in die kommenden 4K/5K-Displays Grafikkarten einbauen wird, die dann über Thunderbolt 3 mit dem Mac verbunden werden. Da wäre so eine vollausgebaute P11-Grafikkarte nicht verkehrt (zum FPS-Wunder wird der Mac damit nicht).

iuno
2016-08-11, 12:51:28
Es gibt ja Gerüchte, dass Apple in die kommenden 4K/5K-Displays Grafikkarten einbauen wird, die dann über Thunderbolt 3 mit dem Mac verbunden werden. Da wäre so eine vollausgebaute P11-Grafikkarte nicht verkehrt (zum FPS-Wunder wird der Mac damit nicht).
Das sollte dann schon P10 sein, selbst der 5k iMac hat ja Tonga XT. Das MacBook, was dran gehaengt wird, hat selbst P11, da macht das fuer mich wenig Sinn, selbst bei hoeherem Powerbudget - ausser man zielt wirklich nur auf die kleinsten MacBooks ab.

Thunder99
2016-08-11, 12:52:27
Leute, es ist doch ganz klar (logisch betrachtet). Es wird so kommen wie bei Tonga. PC Markt bekommt beschnittenen P11 Chip und Apple den vollen Chip. Im Refresh dann der Desktop ebenfalls mit dem vollen Chip :wink:

Woerns
2016-08-11, 12:58:48
Der P10 ist Apple aber zu dick. Der P11 ist, möglicherweise extra wegen Apple, extradünn, damit man ihn in dünne Notebooks verbauen kann.
MfG

StefanV
2016-08-11, 13:26:14
Das sollte dann schon P10 sein, selbst der 5k iMac hat ja Tonga XT.
Das kann man doch individuell lösen.
Für die lahmen Systeme nimmt man die im Schirm integrierte GPU, für die guten nimmt man die im System integrierte GPU.

Nur können z.B. die Intel GPUs kein 5k, weswegen diese Verränkung ja erst nötig ist.

deekey777
2016-08-11, 13:30:39
Das sollte dann schon P10 sein, selbst der 5k iMac hat ja Tonga XT. Das MacBook, was dran gehaengt wird, hat selbst P11, da macht das fuer mich wenig Sinn, selbst bei hoeherem Powerbudget - ausser man zielt wirklich nur auf die kleinsten MacBooks ab.
Das eine widerspricht nicht dem anderen. Es spricht absolut nichts dagegen, dass in den 5K-iMac ein P10 eingebaut wird (oder auch ein Pascal-Ableger).

Ich meinte den vermeintlichen Nachfolger des Thunderbolt-Displays, der endgültig verschwunden ist. So hätte man gleich zig Fliegen aufeinmal erledigt. Eigentlich kann Gen. 9 der Skylakes-CPUs alles, bei HDR bin ich mir nicht sicher. Mit einer externen P11 im Bildschirm hättest du alles denkbare und mehr, nur eben keine FPS-Schleuder, aber das will Apple auch nicht*.


*Aber auf der anderen Seite sieht Apple in VR viel Potential, aber wie soll das ohne leistungsfähige Grafikkarte funktionieren? Oder gilt das nur fürs iPhone?

Das kann man doch individuell lösen.
Für die lahmen Systeme nimmt man die im Schirm integrierte GPU, für die guten nimmt man die im System integrierte GPU.

Nur können z.B. die Intel GPUs kein 5k, weswegen diese Verränkung ja erst nötig ist.

https://de.wikipedia.org/wiki/Intel-Skylake-Mikroarchitektur#Verbesserungen
Skylake unterstützt Thunderbolt 3 und 5K-Displays mit 60 Hz, sowie das gleichzeitige Ansteuern von drei 4K-Displays.

-/\-CruNcher-/\-
2016-08-13, 17:05:47
Das eine widerspricht nicht dem anderen. Es spricht absolut nichts dagegen, dass in den 5K-iMac ein P10 eingebaut wird (oder auch ein Pascal-Ableger).

Ich meinte den vermeintlichen Nachfolger des Thunderbolt-Displays, der endgültig verschwunden ist. So hätte man gleich zig Fliegen aufeinmal erledigt. Eigentlich kann Gen. 9 der Skylakes-CPUs alles, bei HDR bin ich mir nicht sicher. Mit einer externen P11 im Bildschirm hättest du alles denkbare und mehr, nur eben keine FPS-Schleuder, aber das will Apple auch nicht*.


*Aber auf der anderen Seite sieht Apple in VR viel Potential, aber wie soll das ohne leistungsfähige Grafikkarte funktionieren? Oder gilt das nur fürs iPhone?

https://de.wikipedia.org/wiki/Intel-Skylake-Mikroarchitektur#Verbesserungen


Also wo ist das Problem somit könnte Apple zur not nochmal ordentlich dazu verdienen mit einer Properitären externen Thunderbolt Lösung für Modular erweiterbaren wums für VR und Co.

AMD und Nvidia sind vollkommen dafür vorbereitet mit Pascal und Polaris.

Bei AMD hat das ganze sogar schon einen Marketing Namen bekommen samt Logo alles schon fertig ;)

http://i1.sendpic.org/i/eI/eINt1yz05VRpnkGzk0WqaangNoi.png

Apple brauch nur ein paar checks und hürden einbauen was die Interoperabilität zu andere Hardware ausser gefecht setzt und rums neues Produkt ist Born und die Apple jünger werden es ihnen aus den Händen reisen vor allem wenn es als schnukeliges Apple Logo Box Design daherkommt zur not Recycled man einfach die Apple TV Box, immer Lean und Green denken nicht vergessen, wer kann den da schon wiederstehen 1000 $ Extra als gefühlter Apple Ökosystem VIP hinzublätern bei Nvidia funktioniert es ja auch ;)

Immerhin muss der nächste Spaceship anbau ja auch finanziert werden von den Daus, das Apple Kino, Schwimmbad und Riesenrad um seinem idol Jobs etwas näher zu sein fehlen noch, the sky is the limit :D

1F6PFRxvu_0

Shaft
2016-08-14, 14:52:27
Nachdem ganzen Polaris Rummel, interessiert mich nur eins, Vega.

Warte sehnsüchtig darauf, mir juckts in den Finger nach einer neuen Graka.

Kaum zu glauben das AMD so lange braucht, bis Ende 2016, Anfang 2017 ist noch lange hin.

Linmoum
2016-08-14, 15:18:32
Kaum zu glauben das AMD so lange braucht, bis Ende 2016, Anfang 2017 ist noch lange hin.
Da Vega mit HBM kommt geht's halt nicht früher.

Käsetoast
2016-08-14, 23:16:06
Da Vega mit HBM kommt geht's halt nicht früher.
Dann hätte man aber noch was mit GDDR5X bringen können / müssen. Ich denke nicht, dass man damit gerechnet hat, dass NVIDIA dieses Jahr fast gar nix bringt. Das sie so früh quasi alles kontern bzw. vorlegen konnten war vielleicht in der Form nicht abzusehen, aber im Jahr 2016 nur Mid-Range und darunter bedienen zu können ist schon ein wenig schwach. Ich erinnere da an die Einführung von 28nm - da war in kurzer Zeit von einer 7750 bis 7970 das gesamte Portfolio neu aufgestellt. Jetzt, wo von AMD im Vorfeld der letzten Jahre auch nur einzelne Grafikkarten stets nachtröpfelten, kriegt man es anscheinend nicht hin das gesamte Angebot in absehbarer Zeit auf den neuesten Stand zu bringen bzw. man verpasst wohl auch Sachen wie das Weihnachtsgeschäft. Von Sachen wie Titan & Co die von NVIDIA noch kommen werden mal ganz zu schweigen. Wenn Vega erscheint wird ein Großteil der potentiellen Kundschaft halt schon bei NVIDIA zugegriffen haben. Entweder schon zeitnah zum 1080 Release oder dann spätestens zu Weihnachten weil es halt einfach keine Alternative gibt und man was Neues zum Zocken in den Weihnachtsferien haben will. Ich denke es wird bei Vega so laufen wie bei der 7970 - wird in der letzten Dezemberwoche vielleicht offiziell vorgestellt, doch vor Ende Januar wird man das nicht großartig zu kaufen bekommen - wenn überhaupt...

Ist derzeit schon bitter für AMD, nachdem Polaris nicht ganz das liefern konnte auf das man gehofft hatte (je nachdem wie man's sieht ist entweder die Leistung nicht hoch genug oder die Karte nicht effizient genug für das was sie leistet) und NVIDIA auf alles eine Antwort parat hat bzw. auch die von AMD unangefochtenen Marktsegmente abdeckt. So wie es sich jetzt darstellt wäre ein GDRR5X Vega im Oktober zeitnah zu Battlefield 1 halt ideal gewesen. Wenn der Chip bzw. GCN5 an sich gerade aber erst noch in den letzten Entwicklungsphasen ist kann man sich das wohl abschminken selbst wenn GCN5 GDDR5X Support denn hätte - die Architektur scheint für einen nennenswerten Release dieses Jahr nicht fertig zu sein und das ist schlecht. Hätten sie lieber mal Vega auf Basis von GCN4 mit dem 5X Speicher gebracht und nächstes Jahr dann alles nochmal als GCN5 Refresh. Ein Polaris GCN5 Ableger nächstes Jahr mit höherer Effizienz und 40 CUs als RX 485 wäre auch an sich eine gute Idee...

HOT
2016-08-15, 08:46:38
AMD hat halt immer noch das Problem, dass 2012 bei AMD selber und bei GloFo alle möglichen Projekte eingestampft wurden, die Finanzierung zusammengestichen wurde, Personal freigesetzt wurde und mMn schlecht gemanaged wurde usw. Man hat zwar die Kosten in den Griff bekommen, aber der Preis war zu hoch und man ist jetzt auf sehr niedrigem Niveau angekommen (wie war das, knappe 500Mio Umsatz ohne Konsolen?). Ohne die Konsolendeals gäbe es schon lange keine AMD-Aktien mehr (was freilich nicht für AMD selber gilt). MMn sind auch die 14nm-GPUs (Vega, P10) alles alte Projekte, die schon für 20nm gestartet wurden (bis auf P11), eingemottet wurden, mit dem Führungswechsel auf Frau Su wieder hervorgeholt wurden und in FF umgesetzt werden. Das sieht man mMn auch daran, dass Polaris keinerlei erkennenswerte Perf/W-Gewinn abseits der FinFETs mitbringt, auch Vega wird da keine Besserung bringen, weil da immernoch viel Ur-GCN-DNA drin ist.
Erst Navi wird das erste echte neue Produkt der RTG sein.

Mancko
2016-08-15, 09:00:45
Ich sehe das deutlich anders:
http://www.planet3dnow.de/vbulletin/threads/424130-NVIDIA-Pascal?p=5110964#post5110964

Am Ende wird aber auch hier AMD das Geld fehlen. Das verschweigst Du halt gekonnt. Marktanteile hin oder her. Am Ende muss viel Geld her um das R&D zu finanzieren und genau das fehlt bei AMD und ich sehe hier keine signifikante Besserung. Solange AMD in den höher preisigen Bereichen nicht mithalten kann ist man auf einen Konkurrenzkampf von Gnaden der Konkurrenz verdonnert. Das finde ich problematisch, denn die kann ab einem gewissen Punkt einfach hergehen und Preise in den Bereichen senken wo AMD konkurriert und das sind Marktanteile schnell wieder futsch und man hat eben kein Geld eingenommen. Die Konkurrenz kann finanziell wenn sie will AMD auch komplett gegen die Wand fahren und zwar im CPU und auch GPU Bereich.

Hübie
2016-08-15, 09:02:47
Worauf basiert deine Schlusfolgerung? Vega wird allem Anschein nach mehr umkrempeln als Polaris. Deutet also nicht unbedingt auf deine These und mal eben von 20 nm umwälzen? Hm. Weiß gerade nicht ob 20nm schon dual patter impliziert...

HOT
2016-08-15, 11:36:27
Worauf basiert deine Schlusfolgerung? Vega wird allem Anschein nach mehr umkrempeln als Polaris. Deutet also nicht unbedingt auf deine These und mal eben von 20 nm umwälzen? Hm. Weiß gerade nicht ob 20nm schon dual patter impliziert...
Vega wird mMn ebenfalls noch 12_0 sein, bringt zwar ein etwas erneuerten Befehlssatz mit, aber es ist trotzdem nur Evolution, wie bei den bisherigen Chips eben auch (Tonga/Fiji). Einzig HBM wird Vega etwas Erleichterung bei Perf/W bringen, wie eben bei Fiji.
Ich wette, dass das ursprüngliche Fiji-Projekt 64CUs in 20nm bringen sollte und Bermuda 80CUs. Genau das sehen wir sicherlich jetzt bei V10/V11. Die 20nm-Chips wären dann eben nur auf 1GHz gelaufen, dank FinFETs sind jetzt eben maximal 1,4GHz drin. Auch HBM verzögerte sich immer weiter:
Tiran -> 28nm TSMC + HBM in 2013 -> daraus wurde letztendlich Hawaii
Fiji/Bermuda (also Pirate Islands) -> sicherlich 20nm HPM GF geplant, als "Fiji" letztendlich abgespeckt (mit Tonga IP im gleichen Prozess) realisiert -> HBM hat sich also 2 Jahre verzögert. Lisa sagte doch auch, dass Fiji komplett in 18 Monaten realisiert wurde, muss also erst Ende 2013 begonnen worden sein und das natürlich mit bekannter IP (Tonga Einträge gabs schon Ende 2013 in den Treibern). Und jetzt kommt Polaris und bringt diesbezüglich immer noch keinen Fortschritt, nur mit internen Optimierungen, die sich durch das Redesign ergeben haben mMn, das find ich schon sehr verdächtig. Man steckt einfach kein Geld mehr in eine auslaufende Architektur sondern bündelt alle Kraft in was Neues. Das ist wie Carrizo designen, damit man irgendwann mal Zen bringen kann.
Das Jahr R&D fehlt AMD sowohl im CPU als auch im GPU-Bereich enorm, die rennen an beiden Fronten hinterher. Wenn da nicht mal irgendwann MASSIV investiert wird, wird das auch so bleiben und man läuft Gefahr den Anschluss zu verlieren.

Undertaker
2016-08-15, 12:59:44
Diskussion über Lage von AMD ausgelagert:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312

Unicous
2016-08-15, 13:45:26
Danke, dass jetzt noch ein Thread mit dem Müll zugekleistert wird. (y)


Vielleicht können wir ja mal zumindest peripher etwas zum Thema beitragen, ich helfe mal aus.


https://www.facebook.com/photo.php?fbid=10157207878190507&set=a.10152662127940507.1073741830.843865506&type=3&theater

Chris Hook This is the Vega launch venue. Shh, don't tell the press.....

Ich habe zwar irgendwie das Gefühl, dass das lediglich ein ironischer Kommentar ist, aber man weiß ja nie.:freak:

MechWOLLIer
2016-08-15, 14:08:37
Vor allem: Wie soll man das Bild von der Bruchbude mit Vega interpretieren?:D Was auch immer Cpt. Hook damit genau sagen möchte.

Ailuros
2016-08-15, 14:15:02
Vor allem: Wie sol man das Bild von der Bruchbude mit Vega interpretieren?:D Was auch immer Cpt. Hook damit genau sagen möchte.

Launch under construction? :freak:

Schnoesel
2016-08-15, 14:33:11
Seitenhieb auf GF? :biggrin:

OBrian
2016-08-15, 14:43:31
ach, einfach Aufmerksamkeit generieren. Vega! Vega! *steinwerf* Er hat Vega gesagt! ;)
Nein, das ist doch völlig sinnentleert und informationsfrei, aber weil "Vega" drin vorkommt, müssen wir dafür jetzt wieder fünf Seiten spekulieren.

Oder er wollte sagen, daß Vega noch so lange weg ist, daß sie bis dahin diese alte Fabrikruine abgerissen haben und ein neues Presse- und Informationszentrum aufgebaut haben werden. Was weiß ich.

HOT
2016-08-15, 15:01:43
Das ist Marketing. Wie launchen das Ding in einer hippen Fabrikbruchbude, ist doch total in so ein Quatsch. "Wir kommen auch von unten, genau wie ihr".

iuno
2016-08-15, 15:35:59
Genauso wuerde ich das auch interpretieren. Passt doch zu dem Revolutions-Marketing Kram
Ist aber auch nicht wirklich wichtig.

Blediator16
2016-08-15, 16:14:40
Bis auf Leute in Foren hat doch absolut niemand den Revolutions-Quatsch mitbekommen.

iuno
2016-08-15, 16:19:27
Bis auf Leute in Foren hat doch absolut niemand den Revolutions-Quatsch mitbekommen.
Ich sehe nicht viel Werbung, aber wenn man etwa einen der groessten deutschen Shops aufmacht, sieht man sowas:

http://i.imgur.com/ZoZuXsL.jpg

Um das mitzubekommen, braucht man sich also nicht in Foren herumzutreiben.

Achim_Anders
2016-08-15, 16:29:54
Stimmt dafür müsste man auf Mindfactory ohne Adblock surfen.. Oh wait :D

Botcruscher
2016-08-15, 17:10:33
Das Thema VR hat sich doch gefühlt auch erst mal erledigt.

Weder bei Vega noch bei Navi stand irgendwas von Architekturverbesserungen.

Käsetoast
2016-08-15, 18:26:30
Gäbe es denn Veranstaltungen in nächster Zeit, zu denen AMD mal wieder ein Reiskorn an Infos zu Vega bringen könnte?

Hübie
2016-08-15, 18:32:03
Also Marc meinte er habe vier Termine mit oder bezüglich AMD...

iuno
2016-08-15, 22:46:44
Stimmt dafür müsste man auf Mindfactory ohne Adblock surfen.. Oh wait :D
Weil auch jeder einen adblocker hat... oh wait
2. ist das selbst gehostete "Werbung", also auch mit Adblocker sichtbar sofern man nicht selbst daran rumgefummelt hat
3. OT

Also Marc meinte er habe vier Termine mit oder bezüglich AMD...
AFAIK aber nur bzgl. CPUs :confused:

horn 12
2016-08-15, 23:36:48
Zur Gamecon wird Vega vorgestellt und im September releast
HBM2 ist bereits verfügbar und wird die Vega Karte dann begleiten
600 bis 650 Dollar Listenpreis in etwa und 15% über GTX 1080.

Der_Korken
2016-08-15, 23:39:27
Zur Gamecon wird Vega vorgestellt und im September releast
HBM2 ist bereits verfügbar und wird die Vega Karte dann begleiten
600 bis 650 Dollar Listenpreis in etwa und 15% über GTX 1080.

:freak:

I want to believe ...

maximus_hertus
2016-08-16, 00:21:35
:freak:

I want to believe ...

Er kann doch richtig liegen, AMD hat doch nur ganz allgemein von 2017 gesprochen. Da kann ein Launch zur Gamescom 2017 passen ;)

Käsetoast
2016-08-16, 00:40:11
Bis 2017 dann aber wahrscheinlich nur im Referenzdesign mit einem einzelnen, extra kleinen und lauten Lüfter... ;D
Nee, also ich würde Vega vor BF1 sehr begrüßen... ;)

-/\-CruNcher-/\-
2016-08-16, 01:56:19
Ich sehe nicht viel Werbung, aber wenn man etwa einen der groessten deutschen Shops aufmacht, sieht man sowas:

http://i.imgur.com/ZoZuXsL.jpg

Um das mitzubekommen, braucht man sich also nicht in Foren herumzutreiben.


Jep und jetzt stellt man sich das Bild dort oben mit der Überschrift

"Vega Underground Launch Event takes place in the Rebels HQ" vor

das past doch perfekt da fühlt man sich gleich wie ein Rebel aus Half Life 2 der gegen die bösen Combines (Nvidia) antretet schon das hidden Marketing beim Fury Launch war perfekt inszeniert ;)

Dorn
2016-08-16, 11:36:30
Zur Gamecon wird Vega vorgestellt und im September releast
HBM2 ist bereits verfügbar und wird die Vega Karte dann begleiten
600 bis 650 Dollar Listenpreis in etwa und 15% über GTX 1080.

Teilweise. Der Produktionsstart des 8 GB Stack ist für das 4 Quartal vorgesehen.

Vega kann nicht mit HBM2 im September erscheinen, vielleicht als Papiertiger...wobei das auch noch zu viel zu früh ist.

HOT
2016-08-16, 11:44:03
Vega braucht nur 2 4GB Stacks, den könnte man auch von Samsung beziehen. Der Speicher verhindert den Start nicht, der Chip ist aber noch nicht so weit.

StefanV
2016-08-16, 11:51:35
Vega kann nicht mit HBM2 im September erscheinen, vielleicht als Papiertiger...wobei das auch noch zu viel zu früh ist.
Weil???
Ist ja nicht so, dass es keinen SAMSUNG Speicher auf aktuellen AMD Karten gibt...

Dorn
2016-08-16, 11:56:02
Seit wann ist Samsung mit HBM2 so weit? Bitte mal ein Link. Wenn das stimmt, ist die Nachricht wohl an mir vorbei gegangen.:eek:

Habe gerade keine Zeit aber ein 8 GB Stack ist doch für Vega besser...

Kurz recherchiert
Ja ich hab da was durcheinander gebracht...:redface:

Alles gut HBM2 ist nicht der Grund.

Isen
2016-08-16, 11:58:41
Seit wann ist Samsung mit HBM2 so weit? Bitte mal ein Link. Wenn das stimmt, ist die Nachricht wohl an mir vorbei gegangen.:eek:
http://www.heise.de/newsticker/meldung/Samsung-startet-Serienfertigung-superschneller-HBM2-Speicherchips-3075131.html


@Dorn,

Für Vega 11 vielleicht (16gb)
Nicht aber für Vega 10 (8Gb) .... der Gegen 1070/80 gestellt wird.

dildo4u
2016-08-16, 11:59:14
https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface

Dorn
2016-08-16, 12:09:25
Jup habe mein Posting angepasst. Hynix ist ja mittlerweile auch soweit.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/SK-Hynix-kuendigt-Auslieferung-von-4-Hi-Stack-HBM2-im-Q3-2016-an-1201753/

Effe
2016-08-16, 12:38:24
Hat schon jemand, ausgehend vom Computerbase Tahiti/Tonga/Polaristest, mal hochgerechnet wie ein hypothischer Vega mit 4096Shadern bei 1300Mhz skalieren würde? Wäre doch ein intetessanter Fingerzeig.

Rechenkünstler an die Macht!

dargo
2016-08-16, 13:04:29
Bis 2017 dann aber wahrscheinlich nur im Referenzdesign mit einem einzelnen, extra kleinen und lauten Lüfter... ;D
Nee, also ich würde Vega vor BF1 sehr begrüßen... ;)
Das Game braucht doch eh wieder ein halbes Jahr um zu reifen, passt also. :D

Hat schon jemand, ausgehend vom Computerbase Tahiti/Tonga/Polaristest, mal hochgerechnet wie ein hypothischer Vega mit 4096Shadern bei 1300Mhz skalieren würde? Wäre doch ein intetessanter Fingerzeig.

Rechenkünstler an die Macht!
Macht keinen Sinn da Vega kein aufgeblasener Polaris sein wird.

Botcruscher
2016-08-16, 13:27:04
An der Architektur wird sich da sicher nicht viel ändern. Bandbreitenlimitierung entfällt so weit und Latenzen könnten etwas besser sein. Insgesamt nichts besonderes.

Der_Korken
2016-08-16, 13:53:04
Ich hoffe doch sehr, dass Vega besser skaliert, als Fiji es ausgehend von Tonga getan hat. Und da meine ich die Architektur, nicht die Speicherbandbreite. Davon hatte Fiji eigentlich reichlich, vor allem ik Vergleich zu Tonga. Wenn V10 die Mehrzahl an CUs 1:1 gegenüber P10 in Mehrleistung umsetzt, wäre das schon super.

Sunrise
2016-08-16, 14:05:30
Hat schon jemand, ausgehend vom Computerbase Tahiti/Tonga/Polaristest, mal hochgerechnet wie ein hypothischer Vega mit 4096Shadern bei 1300Mhz skalieren würde? Wäre doch ein intetessanter Fingerzeig.

Rechenkünstler an die Macht!
Wenn du z.B. von einer RX470 mit der 2048 ALU-Konfiguration hochrechnest, dann hat Vega 10 die doppelten TFLOPs (4096 ALUs) bei konservativ gerechnet gleichem Takt. Nimmst du die Doom-FPS-Differenz bei CB @ 1920p zwischen der RX470 und RX480 bei 1150MHz/4000MHz (2048/2304 ALUs) und rein anhand der effektiven FPS-Steigerung von 6,2 und rechnest das Achtfache drauf (6,2 FPS Differenz*8 da 256 ALUs*8 = 2048 ALUs), dann kommst du auf etwa 50% bessere FPS.

Da ist also alles ab 50% bis etwas über 100% mehr FPS möglich, je nach Anwendung (Compute sollte perfekt skalieren). Du darfst nicht vergessen, dass der doppelten Anzahl an ALUs auch nur der doppelte Speicherdurchsatz zur Verfügung steht, selbst trotz HBM2, weil eben voraussichtlich nur 2x 4GB Stacks (2048 SI) angebunden werden.

Realistisch kann man wohl von irgendwas zwischen 60%-80% Mehrleistung ausgehen, wenn man weitere Verbesserungen einrechnet. Genau die benötigt AMD aber auch für GP104, wenn man sich die Benchmarks im Vergleich mit der 1080 anschaut.

fondness
2016-08-16, 14:26:31
An der Architektur wird sich da sicher nicht viel ändern. Bandbreitenlimitierung entfällt so weit und Latenzen könnten etwas besser sein. Insgesamt nichts besonderes.

Zumindest an der ISA wird sich offensichtlich was ändern, sonst wäre Vega nicht Graphics IP 9.0 ggü. 8.1 bei Polaris. Und ISA Änderungen sind doch relativ tiefgreifende Architekturänderungen.

Du darfst nicht vergessen, dass der doppelten Anzahl an ALUs auch nur der doppelte Speicherdurchsatz zur Verfügung steht, [...]

Die RX470 hat keine 256 GB/s, sondern nur 224 GB/s. Vega10 sollte mit 2 Stacks auf 512GB/s kommen.

Sunrise
2016-08-16, 14:36:07
Die RX470 hat keine 256 GB/s, sondern nur 224 GB/s. Vega10 sollte mit 2 Stacks auf 512GB/s kommen.
Ich gehe wie gesagt von dem bei CB angeglichenen Speichertakt von effektiven 4000MHz aus, damit es vergleichbar ist, es sind also auch bei deren RX470 256GB/s Durchsatz, sodass sich sowohl die ALUs als auch der Speicherdurchsatz exakt verdoppelt. Die Differenz zur RX480 bei identischen Taktraten sind 256 ALUs bei 6,2 FPS (Doom), die ich einfach verachtfache. Ist einfach eine sehr simple Hochrechnung anhand des CB-Artikels.

2048 ALUs verhalten sich dann zu 4096 ALUs wie 256GB/s zu 512GB/s, sofern die restliche Konfiguration identisch bleibt. AMD ist also auch auf min. 2 4GB HBM2-Stacks angewiesen, ansonsten wäre die Skalierung deutlich schlechter.

Mit etwas höherem Takt wäre die 1080 dann sogar in Schlagdistanz, aber dann dürfte wieder der Speicherdurchsatz genau wie bei P10 limitieren. HBM2 ist also kein Heilmittel, sondern für 4096 ALUs und einer DCC, die nicht weiter ggü. Polaris/P10 verbessert wurde, auch zwingend erforderlich.

HOT
2016-08-16, 14:54:37
Bei DX11 reichts nicht, bei DX12 ist man drüber, passt schon. Wird schon ziemlich genau darauf hinaus laufen.

robbitop
2016-08-16, 16:04:06
Ich frage mich, ob ein sehr viel besserer Shadercompiler nicht bereits reichen würde, um die ALU Auslastung wieder wettbewerbsfähig zu machen. Doom zeigt ja, dass man gute Auslastung hinbekommen kann. Außerdem stand in der id Präsentation irgendetwas von einem mäßigen Shadercompiler.
Die µ-Arch scheint so schlecht ja nicht zu sein. Wenn das stimmt, ist es offenbar (zumindest partiell) eher eine Softwaresache.

Was man in HW dringend benötigt, ist eine effizientere Nutzung der Speicherbandbreite. Hier ist NV seit Maxwell ja offenbar in völlig anderen Sphären.

dargo
2016-08-16, 16:17:40
Wenn du z.B. von einer RX470 mit der 2048 ALU-Konfiguration hochrechnest, dann hat Vega 10 die doppelten TFLOPs (4096 ALUs) bei konservativ gerechnet gleichem Takt. Nimmst du die Doom-FPS-Differenz bei CB @ 1920p zwischen der RX470 und RX480 bei 1150MHz/4000MHz (2048/2304 ALUs) und rein anhand der effektiven FPS-Steigerung von 6,2 und rechnest das Achtfache drauf (6,2 FPS Differenz*8 da 256 ALUs*8 = 2048 ALUs), dann kommst du auf etwa 50% bessere FPS.

Da ist also alles ab 50% bis etwas über 100% mehr FPS möglich, je nach Anwendung (Compute sollte perfekt skalieren). Du darfst nicht vergessen, dass der doppelten Anzahl an ALUs auch nur der doppelte Speicherdurchsatz zur Verfügung steht, selbst trotz HBM2, weil eben voraussichtlich nur 2x 4GB Stacks (2048 SI) angebunden werden.

Realistisch kann man wohl von irgendwas zwischen 60%-80% Mehrleistung ausgehen, wenn man weitere Verbesserungen einrechnet. Genau die benötigt AMD aber auch für GP104, wenn man sich die Benchmarks im Vergleich mit der 1080 anschaut.
Vega braucht zum Release vor allem eins... mehr low level Spiele. Im Optimalfall auch mit Async Compute. In Doom kommt selbst die Fury X schon an die GTX1080 ran.

Gipsel
2016-08-16, 16:42:38
Wenn du z.B. von einer RX470 mit der 2048 ALU-Konfiguration hochrechnest, dann hat Vega 10 die doppelten TFLOPs (4096 ALUs) bei konservativ gerechnet gleichem Takt. Nimmst du die Doom-FPS-Differenz bei CB @ 1920p zwischen der RX470 und RX480 bei 1150MHz/4000MHz (2048/2304 ALUs) und rein anhand der effektiven FPS-Steigerung von 6,2 und rechnest das Achtfache drauf (6,2 FPS Differenz*8 da 256 ALUs*8 = 2048 ALUs), dann kommst du auf etwa 50% bessere FPS.Das ist ein recht hinkender Vergleich. Die 480 legt gegenüber der 470 weder beim Frontend noch beim Backend zu (die RX470 hat ja z.B. nicht nur 28ROPs sondern auch 32 wie die RX480), Vega dagegen wohl schon (weniger als 64ROPs dürften das dort nicht werden). Das sollte die Skalierung doch wesentlich beeinflussen. Außerdem hat AMD bereits verlautbart, daß Vega zusätzliche Änderungen enthält und eben nicht nur ein skalierter Polaris ist.

===========================

Ich frage mich, ob ein sehr viel besserer Shadercompiler nicht bereits reichen würde, um die ALU Auslastung wieder wettbewerbsfähig zu machen. Doom zeigt ja, dass man gute Auslastung hinbekommen kann. Außerdem stand in der id Präsentation irgendetwas von einem mäßigen Shadercompiler.
Die µ-Arch scheint so schlecht ja nicht zu sein. Wenn das stimmt, ist es offenbar (zumindest partiell) eher eine Softwaresache.Klagen über den Shadercompiler gibt es schon länger aus unterschiedlichen Ecken. Die Optimierungsstrategie des Compilers ist wohl öfter mal kontraproduktiv.

plunge
2016-08-16, 16:52:52
Vega braucht zum Release vor allem eins... mehr low level Spiele. Im Optimalfall auch mit Async Compute. In Doom kommt selbst die Fury X schon an die GTX1080 ran.

Quelle?

Sunrise
2016-08-16, 16:54:55
Das ist ein recht hinkender Vergleich. Die 480 legt gegenüber der 470 weder beim Frontend noch beim Backend zu (die RX470 hat ja z.B. nicht nur 28ROPs sondern auch 32 wie die RX480), Vega dagegen wohl schon (weniger als 64ROPs dürften das dort nicht werden). Das sollte die Skalierung doch wesentlich beeinflussen. Außerdem hat AMD bereits verlautbart, daß Vega zusätzliche Änderungen enthält und eben nicht nur ein skalierter Polaris ist.
Das ist korrekt, aber angesichts der Werte die wir aktuell haben, sehe ich da im Moment keinen besseren Ansatz, oder hast du da noch eine Idee?

Relativ zu Fiji (zum Vergleich die Fury X) ist da schon noch ordentlich Potential nach oben (die Fury X steht ja teilweise noch recht gut ggü. der 1070/1080 da, mit gerademal 1050MHz Takt), auch wenn es oberflächlich nach einer ähnlichen Chip-Konfiguration aussieht. Vega wird vor allem das "Innenleben" stärker optimieren.

Bei den Verbesserungen pro CU und etwas mehr Takt und gleichzeitig höherer Auslastung sollte jedenfalls noch einiges zu holen sein. Schön wäre es, wenn die Verbesserungen ausreichen, damit AMD nicht wieder mit der Brechstange einen Takt/Spannung anlegen muss, um mit der 1080 zu konkurrieren.

N0Thing
2016-08-16, 16:56:27
Quelle?

Zumindest bis auf 14% kommt die Fury X bei PCGH an die GTX 1080 heran: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/

Palpatin
2016-08-16, 16:58:47
Auch in DX 11 könnt ich mir vorstellen das Vega zummindest in 4k die 1080GTX erreicht. Furry X Leistung +30% ist dafür nötig. 20% mehr Takt und 10% mehr Effizenz als Furry X könnten reichen um mit der 1080 in DX 11 gleich zu ziehen.

Tamagothi
2016-08-16, 17:21:46
Das ist korrekt, aber angesichts der Werte die wir aktuell haben, sehe ich da im Moment keinen besseren Ansatz, oder hast du da noch eine Idee?

Wie wäre es damit?

R9 280X vs. R9 290X/390X

32 CU's vs. 44 CU's

37,5% mehr Einheiten ergeben >40% Leistung

Wenn die das schaffen kannst du die RX470 mal zwei nehmen.

victore99
2016-08-16, 21:36:59
Wie wäre es damit?

R9 280X vs. R9 290X/390X

32 CU's vs. 44 CU's

37,5% mehr Einheiten ergeben >40% Leistung

Wenn die das schaffen kannst du die RX470 mal zwei nehmen.
Da kommt noch hinzu, dass die 280X an sich keinen Speicherflaschenhals hatte, die 290X aber schon daran hing und sehr ordentlich mit dem Speichertakt skalierte.

Wenn man aber das als Beispiel nimmt, muss man auch FuryX mit 390X vergleichen.
Fury X: + 45% Roh- und TMU-Leistung, +33% Bandbreite, gleicher ROP-Durchsatz, DDC und moderneres Featureset, +36% Diesize ->
Auf HD rund 20% mehr Performance, 4k rund 30% mehr Performance.
Danach läge Vega klein XT nunmehr auf 1070-Niveau, wäre aber auch nur rund 320mm Groß.

Und am Ende schließt sich der Kreis dahingehend, dass klar ist: wenn Vega klein 320mm Groß ist, kommt er auf 1070-Niveau.
Wenn er größer ist: knapp unter GTX 1080.

-/\-CruNcher-/\-
2016-08-17, 01:44:40
Auch in DX 11 könnt ich mir vorstellen das Vega zummindest in 4k die 1080GTX erreicht. Furry X Leistung +30% ist dafür nötig. 20% mehr Takt und 10% mehr Effizenz als Furry X könnten reichen um mit der 1080 in DX 11 gleich zu ziehen.

Aber zu welcher Verbrauchs/Preis und Real Performance ?

Darf Vega teurer werden bei mehr Verbrauch ;) ?

Unter DX 11/OpenGL ist die relation einfach noch sehr bescheiden und zu viel Effizienzsverlust auf CPU seite.

DX 12 dagegen ist momentan die Hölle für Nvidia ;)

ilibilly
2016-08-17, 08:35:48
Wenn die 6000 shader für den großen vega stimmen,dann erwarte ich schon mehr als 30% zur fury x,mit hbm 2 und anderen verbesserungen sollten es auch 40-50% sein.
Ich hoff nur das sie diesmal die leistung auch in fps ummünzen können.

horn 12
2016-08-17, 09:26:19
Somit immer noch unter Titan X (Pascal) Performance
Jene mit OC erreicht knapp die doppelte Performance als die Fury X auf Stock Taktraten.

Raff
2016-08-17, 09:31:11
Zumindest bis auf 14% kommt die Fury X bei PCGH an die GTX 1080 heran: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/

Die Fury X kann es dort mit einer GTX 1080 Founders Edition aufnehmen – die G1 Gaming im Test läuft immerhin mit mehr als 1.900 MHz. Man berichtet jedoch im Kontext des neuesten Geforce-Treibers, dass hier einiges besser geworden ist, insofern könnte der AMD-Vorsprung geschmolzen sein.

MfG,
Raff

Hübie
2016-08-17, 09:40:11
Zeit für einen Test, Raff. :biggrin:

iuno
2016-08-17, 09:42:25
Man muss auch mal auf dem Boden bleiben. Im besten Fall kann AMD die Rohleistung perfekt ummünzen, die ist aber bei der TX mit OC ja auch bald doppelt so hoch. Das ist eine völlig andere Klasse als eine Fury. In direkter Konkurrenz hatte AMD stattdessen idr mehr theoretische Leistung, nicht weniger.
Sollte der große Vega 6k SP haben, reichten dann polaris-ähnliche Taktraten trotzdem, um dort auf das Niveau einer TX@OC zu kommen. Das muss aber erstmal so kommen und der Rest macht dann die Software

Raff
2016-08-17, 09:47:11
Zeit

Die knappste Ressource im Leben eines Redakteurs. ;)

MfG,
Raff

Hübie
2016-08-17, 09:52:00
Ich weiß :comfort2:

Palpatin
2016-08-17, 10:01:13
Wenn die 6000 shader für den großen vega stimmen,dann erwarte ich schon mehr als 30% zur fury x,mit hbm 2 und anderen verbesserungen sollten es auch 40-50% sein.
Ich hoff nur das sie diesmal die leistung auch in fps ummünzen können.
Bin bei spekulierten 30% zur Fury x von 4096 Shader ausgegangen. Ca 20% mehr Takt und ca. 10% bessere effizienz.

Virtual
2016-08-17, 10:40:14
Die Fury X kann es dort mit einer GTX 1080 Founders Edition aufnehmen – die G1 Gaming im Test läuft immerhin mit mehr als 1.900 MHz. Man berichtet jedoch im Kontext des neuesten Geforce-Treibers, dass hier einiges besser geworden ist, insofern könnte der AMD-Vorsprung geschmolzen sein.

MfG,
Raff
Falls der neue Treiber 372.54 vom 15. August sein soll, dann kann ich abseits der anscheinened nun fehlenden Microruckler unter Vulkan nicht von spürbaren (natürlich nicht genau gemessen) Performance-Verbesserungen berichten. Ich würde mich wundern, wenn das gemessen werden sollte. Meine Erfahrung kommt von einer GTX 1080 Gigabyte G1 Gaming mit 4k in Doom 2016 mit allen Settings to Ultra/Nightmare (Schatten/Texturen). Mit Overclocking, durchweg >2000MHz bei nicht mehr als genau 1V und 5400MHz Speicher halte ich die FPS fast konstant bei 60Hz adaptiv, sowohl unter OpenGL4.5 als auch Vulkan. Das reicht zwar, aber gerade an den Stellen des Spiels, die OpenGL4.5 unter 60Hz fällt, macht Vulkan genau die gleiche Figur und ist keinen Deut besser. Schade, ich dachte auch, der der 372.54 legt unter Vulkan zu, aber scheinbar kann Pascal nur Preemption und eben doch nicht mehr AS-Technik.

iuno
2016-08-17, 10:49:55
Das ist zwar OT, war aber doch voellig absehbar, seit blaidd das auseinander genommen hat: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Videos/Doom-Video-Vulkan-Performance-1202785/

Er hat damals schon festgestellt, dass Doom@Vulkan mit NV etwa genau gleich laufen wuerde wie @OGL, wenn kein Sync an waere. Insofern gab es wohl keine nennenswerten Performance-Verbesserungen mit Vulkan, sondern lediglich die erzwungene Sync wurde abgestellt. Natuerlich resultiert das in hoeheren Durchschnittlichen FPS, man kommt aber trotzdem nicht nennenswert ueber OGL Niveau, zumindest ohne TSSAA.

Ailuros
2016-08-17, 11:02:56
Die knappste Ressource im Leben eines Redakteurs. ;)

MfG,
Raff

Man wird mir das OT entschuldigen, aber da habt Ihr leider keine Exclusivitaet mit. :freak:

Screemer
2016-08-17, 11:24:42
Das ist zwar OT, war aber doch voellig absehbar, seit blaidd das auseinander genommen hat: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Videos/Doom-Video-Vulkan-Performance-1202785/

Er hat damals schon festgestellt, dass Doom@Vulkan mit NV etwa genau gleich laufen wuerde wie @OGL, wenn kein Sync an waere. Insofern gab es wohl keine nennenswerten Performance-Verbesserungen mit Vulkan, sondern lediglich die erzwungene Sync wurde abgestellt. Natuerlich resultiert das in hoeheren Durchschnittlichen FPS, man kommt aber trotzdem nicht nennenswert ueber OGL Niveau, zumindest ohne TSSAA.
Dazu kommen noch die nicht mehr gedroppten Frames, die Igor festgestellt hat. Wieviel das prozentual war kann ich allerdings nicht mehr sagen. Dürfte aber auch nicht die Welt ausmachen. Wird aber sicher alles in allem als Sensation gefeiert, was nv noch aus vulkan raus holen kann. Dabei haben sie vorher Einfasch den Treiber komplett verkackt, wenn es um doom geht. Ich seh die feiernde Meute schon durch die Foren ziehen.

N0Thing
2016-08-17, 13:02:39
Dazu kommen noch die nicht mehr gedroppten Frames, die Igor festgestellt hat. Wieviel das prozentual war kann ich allerdings nicht mehr sagen. Dürfte aber auch nicht die Welt ausmachen. Wird aber sicher alles in allem als Sensation gefeiert, was nv noch aus vulkan raus holen kann. Dabei haben sie vorher Einfasch den Treiber komplett verkackt, wenn es um doom geht. Ich seh die feiernde Meute schon durch die Foren ziehen.

Wie es ohne die Zwangssynchronisation aussehen würde, hat die PCGH doch schon vermessen: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/

Dazu kommen dann mit dem aktuellen Nvidia-Treiber nochmal ein paar Performance-Verbesserungen für Doom hinzu, wie Raff schon richtig angemerkt hat.

dargo
2016-08-17, 13:05:38
Das ist keine Messung sondern eine Schätzung.

N0Thing
2016-08-17, 13:17:37
Das ist keine Messung sondern eine Schätzung.

Es wurden alle Frames gemessen und aufgezeichnet, für die bereinigte Darstellung wurden dann die Fehler durch die Synchronisation heraus gerechnet, nicht heraus geschätzt. Lies einfach mal den 5. Absatz und/oder schau dir das Video an.

dargo
2016-08-17, 13:26:46
Korinthenkackerei... man konnte bis vor wenigen Tagen nur das kaputte Rendering messen. Und das richtige anhand der vorhandenen, kaputten Daten schätzen bzw. hochrechnen indem man die synchronisierten Frames rausnimmt.

Hübie
2016-08-17, 13:47:57
Das ist zwar OT, war aber doch voellig absehbar, seit blaidd das auseinander genommen hat: http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Videos/Doom-Video-Vulkan-Performance-1202785/

Er hat damals schon festgestellt, dass Doom@Vulkan mit NV etwa genau gleich laufen wuerde wie @OGL, wenn kein Sync an waere. Insofern gab es wohl keine nennenswerten Performance-Verbesserungen mit Vulkan, sondern lediglich die erzwungene Sync wurde abgestellt. Natuerlich resultiert das in hoeheren Durchschnittlichen FPS, man kommt aber trotzdem nicht nennenswert ueber OGL Niveau, zumindest ohne TSSAA.

Wenn ich heute mal noch Zeit habe, erstelle ich einen Vergleich. Vulkan bringt hier gefühlt 5-10%, je nach Stelle und Situation. Ich versuche das mal alles abzudecken. Aber vermutlich wird das erst morgen was. :smile: Weiter gehts dann im Doom- und / oder Vulkan-Thread..

N0Thing
2016-08-17, 13:56:20
Korinthenkackerei... man konnte bis vor wenigen Tagen nur das kaputte Rendering messen. Und das richtige anhand der vorhandenen, kaputten Daten schätzen bzw. hochrechnen indem man die synchronisierten Frames rausnimmt.

Es hat dich ja niemand gezwungen so kleinlich zu sein. Ich gehe nicht davon aus, dass das errechnete Ergebnis oberhalb der Messungenauigkeit von einem ohne Zwangssynchronisation gemessenen Ergebnis abweichen würde.

horn 12
2016-08-18, 10:06:39
VEGA Vorstellung Heute, oder kommende Tage auf der Gamescom!
Wetten :-)

PS: War nicht die Rede dass AMD bei der Gamescom was zeigt?

http://www.notebookcheck.com/gamescom-2016-HTC-in-Partnerschaft-mit-AMD-auf-der-Spielemesse.171205.0.html

dildo4u
2016-08-18, 10:29:08
Solche Ankündigungen macht man an Tag 1 der Messe,Nvidia hat z.b Pascal für Notebook gestartet.

y33H@
2016-08-18, 10:44:15
VEGA Vorstellung Heute, oder kommende Tage auf der Gamescom!Nö, heute kommt was anderes :redface:

MechWOLLIer
2016-08-18, 11:02:15
Da wird auch Vega erwähnt! :P

tm0975
2016-08-18, 12:09:43
Nö, heute kommt was anderes :redface:

du hast vergessen zu sagen, was heute kommt. falls du das nicht sagen darfst, könntest du das ja im richtigen thread machen und falls es dieser hier nicht ist, bitte verlinken :rolleyes:

Disco_STFU
2016-08-18, 12:16:55
https://twitter.com/ryanshrout/status/766160951892664320

Ryan Shrout, PC Perspective: "Very excited about a piece of hardware I saw tonight that will be an early 2017 release. Very."

Zen oder Vega, Vega oder Zen... WAAAAAAAAAAAHHHHH

tm0975
2016-08-18, 12:36:20
muss vega sein. zen soll es ja in minimengen bereits am 31.12.2016 geben :-)

dildo4u
2016-08-18, 12:40:14
Wäre ne Katastrophe wenn sie BF1 verpassen,bis auf Star Citizen fällt mir kein Game ein wo ich eine so massive Welle von GPU Bestelllungen erwarte.

Screemer
2016-08-18, 12:41:56
Es glaubt doch nicht wirklich jemand, dass amd Vega vor/mit bf1 releasen wird. Das ist doch reine Stimmungsmache.

w0mbat
2016-08-18, 13:37:02
Wäre ne Katastrophe wenn sie BF1 verpassen,bis auf Star Citizen fällt mir kein Game ein wo ich eine so massive Welle von GPU Bestelllungen erwarte.

Da bin ich aber froh, dass deine Erwartungen nichts mit der Realität zu tun haben.

Palpatin
2016-08-18, 13:47:37
Wäre ne Katastrophe wenn sie BF1 verpassen,bis auf Star Citizen fällt mir kein Game ein wo ich eine so massive Welle von GPU Bestelllungen erwarte.
Die sollen lieber zusehen das sie beim BF1 Launch endlich genug 480er produzieren können um die Nachfrage danach zu befriedigen. Vega gäbe es bis dahin sowiso allerhöchstens in homöopathischen Mengen.

reaperrr
2016-08-18, 14:12:42
Da kommt noch hinzu, dass die 280X an sich keinen Speicherflaschenhals hatte, die 290X aber schon daran hing und sehr ordentlich mit dem Speichertakt skalierte.

Wenn man aber das als Beispiel nimmt, muss man auch FuryX mit 390X vergleichen.
Fury X: + 45% Roh- und TMU-Leistung, +33% Bandbreite, gleicher ROP-Durchsatz, DDC und moderneres Featureset, +36% Diesize ->
Auf HD rund 20% mehr Performance, 4k rund 30% mehr Performance.
Danach läge Vega klein XT nunmehr auf 1070-Niveau, wäre aber auch nur rund 320mm Groß.

Und am Ende schließt sich der Kreis dahingehend, dass klar ist: wenn Vega klein 320mm Groß ist, kommt er auf 1070-Niveau.
Wenn er größer ist: knapp unter GTX 1080.

Klar ist jedenfalls, AMD muss bei Vega gegenüber P10 auch den Frontend-Durchsatz verdoppeln (6-fach Frontend? 8-fach FE? Oder doppelter Durchsatz pro ShaderEngine?) sowie die effektive Bandbreite (unter Berücksichtigung von allen Faktoren, also neben Roh-Bandbreite auch DCC, L2-Cache sowie Effizienz der Nutzung der Bandbreite) mehr als verdoppeln, um die 1080 vielleicht knapp schlagen zu können.

Einfach nur ein Fiji-Shrink mit gleicher nomineller Bandbreite, 8GB VRAM, gleichem 4-fach Frontend, gleichen 64 ROPs, ~10% mehr IPC und ~10% höherem Chiptakt wird's nicht bringen, das würde wirklich nur für 980 Ti/1070 reichen.

Meine Hoffnung ist, dass sich das Vega-Team parallel zum Polaris-Team um die Bereiche gekümmert hat, die Polaris nicht angegangen ist, also u.a. Rasterizer und ROPs.

Palpatin
2016-08-18, 15:23:03
Einfach nur ein Fiji-Shrink mit gleicher nomineller Bandbreite, 8GB VRAM, gleichem 4-fach Frontend, gleichen 64 ROPs, ~10% mehr IPC und ~10% höherem Chiptakt wird's nicht bringen, das würde wirklich nur für 980 Ti/1070 reichen.

Meine Hoffnung ist, dass sich das Vega-Team parallel zum Polaris-Team um die Bereiche gekümmert hat, die Polaris nicht angegangen ist, also u.a. Rasterizer und ROPs.
Ich würde eher von 20% mehr Takt ausgehen (Polaris hat ja auch schon 20% auf Hawai), evtl sogar 25% wenn bis dahin die Fertigung besser läuft. Was wiederum für Stock 1080 GTX Leistung in DX 11 reichen würde. In DX 12 wäre man schneller und rest muss man dann sehen.

dargo
2016-08-18, 17:51:08
Wäre ne Katastrophe wenn sie BF1 verpassen,bis auf Star Citizen fällt mir kein Game ein wo ich eine so massive Welle von GPU Bestelllungen erwarte.
Löl? Die Beta Alpha läuft doch schon bestens mit einer RX480 @DX11.
https://www.youtube.com/watch?v=85-WNE_owyY
https://www.youtube.com/watch?v=-Xp6n0Cpuw8

Gleiches erwarte ich mit Grenada/Hawaii.

dildo4u
2016-08-27, 07:10:51
Vega für 1H 2017 bestätigt.

http://i.imgur.com/cavS7Wh.jpg

https://app.scoutfin.com/document.html?id=57c01d11fcd1d0bb759fd048&_branch_match_id=297670879870932296


Das kann ja Vieles sein hoffentlich kommt sie nicht erst nästen Sommer.

iuno
2016-08-27, 08:52:23
Lauch date 30.6. confirmed :ulol:
Im Ernst: ich denke das ist vorsichtig, nicht unbedingt Anlass für Pessimismus. Zen wird dort auch für h1 genannt aber ja quasi schon zum Jahreswechsel erwartet.

Finde es auch etwas seltsam, dass sie nur enthusiast schreiben, obwohl in der Folie auch die Pro Serie drin steht.

Ansonsten klare Ziele: wollen binnen 3 Jahren die #1 werden, also NV überholen. Ob sie da sie Konsolen wieder mitzählen? ;p

Bin echt gespannt, welche Karten letztlich wann genau kommen...

Käsetoast
2016-08-27, 09:56:49
Also dass sie sich nicht trauen vom Q1 zu sprechen finde ich schon sehr schwach. Generell ist die Lage sowieso eher unglücklich, da sie ganze Marktsegmente kampflos Nvidia überlassen. Es hätte dieses Jahr dann schon noch einen größeren GCN 4 Chip gebraucht. Sollte sich Vega verspäten sehe ich Nvidia schon gegen Ende 2017 einen 10nm Volta Chip bringen und Vega wird es entsprechend nicht lange mit Pascal zu tun haben, womit Ihnen dann das zweite gute Weihnachtsgeschäft flöten gehen würde...

HOT
2016-08-27, 10:13:44
Das wird einfach für beide Vega gelten. Ich sehe nicht, warum Vega10 sich verzögern sollte. Vllt. kommt einfach Vega11 erst im Frühsommer, könnt ich mir gut vorstellen.

Mancko
2016-08-27, 11:16:44
Das wird einfach für beide Vega gelten. Ich sehe nicht, warum Vega10 sich verzögern sollte. Vllt. kommt einfach Vega11 erst im Frühsommer, könnt ich mir gut vorstellen.

Q1/2017 wäre natürlich übel. Das heißt Nvidia ist komplett ungestört und kann auch bei Zunahme der Lieferfähigkeit AMD preislich unter Druck setzen da sie ab 350 Euro ungestört abkassieren können. Q1/2017 würde auch heißen, dass Nvidia ungestört einen weiteren dicken Pascal Chip wie GP102 oder ggf. sogar größer vorbereiten kann, oder falls es noch später wird dann mit 16nm Volta. Glaube aber eher, dass sie es mit Volta im Gaming dann nicht so eilig haben werden. Sie können in Ruhe mit Pascal Geld verdienen, wenn AMD nicht in die Pushen kommt. Wie AMD den ohnehin schon vorhanenen R&D Rückstand aufholen will ist mir auch schleierhaft. Mit den Mainstream Produkten wird das nicht gelingen. Die werfen zu wenig ab und sind zu sehr dem Preiskampf ausgesetzt. Da brauchst Du dann schon eine Palette von ganz unten bis ganz oben. Der Abstand wird sich da m.E. eher vergrößern.

dargo
2016-08-27, 11:36:30
Q1/2017 wäre natürlich übel.
Wieder die gleiche Schallplatte von Mancko?

tm0975
2016-08-27, 11:49:32
Immer die selbe Leier hier bezüglich AMD hier. Lisa hat doch klar und deutlich gesagt, dass die Ressourcen von AMD in 2016 fast ausschließlich in Zen fließen. Polaris lief mit minimal Budget und da muss ich mal sagen, dass AMD die Prioritäten da perfekt gesetzt hat. Sie liefern ein gutes Produkt genau in dem preisbereich, in dem AMD Käufer sich für gewöhnlich bewegen. Wozu mit Gewalt ein Produkt liefern, nur damit die nvidia Käufer günstiger an ihre Karten kommen. Dann lieber die Ressourcen in Zen stecken.

Botcruscher
2016-08-27, 11:54:21
Entwickler werden nicht mal eben umdisponiert.

reaperrr
2016-08-27, 12:14:12
Entwickler werden nicht mal eben umdisponiert.
Von "mal eben" redet ja auch keiner.

Zen und die Konsolen-SoCs hatten in Sachen R&D-Budget schon länger klare Priorität gegenüber allem anderen, das hat man in 2015 gemerkt und in diesem Jahr auch.

r3ptil3
2016-08-27, 12:37:32
RX 490: Ich tippe auf eine Leistung zwischen GTX 1070 und GTX 1080. Preis: 320-350$ (UVP).

dargo
2016-08-27, 13:25:30
RX 490: Ich tippe auf eine Leistung zwischen GTX 1070 und GTX 1080. Preis: 320-350$ (UVP).
Ich tippe eher auf Leistung über der GTX1080, natürlich @low level. Beim Preis bin ich mir wegen 8GB HBM2 nicht sicher. Vielleicht 549-599$ für Vollausbau, 449-499$ für Salvage. 6GB HBM2 für Salvage mit 3 Stacks wäre auch denkbar um die Kosten zu drücken. Ich weiß nur nicht so recht ob sich das lohnt damit man den Salvage dann für 349-399$ bringen kann.

Edit:
Argh... es ist wohl schon zu heiß. Vergesst das mit den 3 Stacks. Der kleine Vega soll doch im Vollausbau nur 2 Stacks haben.

Skysnake
2016-08-27, 13:35:50
Naja, auf den Folien stand ja auch was zur Radeon Technology Groupe. Also das man sich auf "Graphics"! konzentrieren wolle. GCN war vieles, aber nicht auf Graphics focusiert. Eventuell sehen wir ja einen Split wie bei nVidia, nur das man eben was Neues bringt für Graphic, und nicht etwas Neues für Compute.

-/\-CruNcher-/\-
2016-08-27, 13:43:44
Entschuldige aber Graphics und Compute sind nunmal unzertrenlich geworden vor allem Realtime Nvidia passt sich eher an aber nicht umgekehrt du hast recht das man sich jetzt nach GEN4 allerdings auf andere sachen konzentrieren kann da Compute "Läuft" :).

Skysnake
2016-08-27, 13:45:59
Wenn man sich aber die Realität anschaut, dann sieht man, das man mit einer guten Compute-Architectur eben doch noch so einiges mit rum schleppt, was ziemlich fürn Arsch ist für Graphics.

Vor allem wenn man nicht die Chance nützt und endlich mal wirklich große APUs vom Schlage eines XBone/PS4 Chips zu bringen. Wenn nicht gar noch größer. Das ist halt ziemlich ungünstig den Aufwand zu treiben, dann die Sachen aber nicht wirklich zu nutzen.

-/\-CruNcher-/\-
2016-08-27, 13:51:14
Das einzige was man mit sich rumschlept ist der etwas höhere Energieverbrauch des Hardware Shedulings aber das ist eben in der Kosten/Nutzen Rechnung vor allem in einer modularen Gesamtplatform die mit Zen final komplementiert wird mit zu berücksichtigen ;)

Mancko
2016-08-27, 15:01:59
Immer die selbe Leier hier bezüglich AMD hier. Lisa hat doch klar und deutlich gesagt, dass die Ressourcen von AMD in 2016 fast ausschließlich in Zen fließen. Polaris lief mit minimal Budget und da muss ich mal sagen, dass AMD die Prioritäten da perfekt gesetzt hat. Sie liefern ein gutes Produkt genau in dem preisbereich, in dem AMD Käufer sich für gewöhnlich bewegen. Wozu mit Gewalt ein Produkt liefern, nur damit die nvidia Käufer günstiger an ihre Karten kommen. Dann lieber die Ressourcen in Zen stecken.

Das ist ja alles schön und gut und letztlich ist natürlich Zen wichtiger als die GPUs bei AMD. Nur ist ja das Gesamt R&D schon niedriger als bei Nvidia. AMD muss damit aber den hässlichen x86 Konkurrenzkampf mit Intel bestreiten und zusätzlich den Konkurrenzkampf mit Nvidia. Ehrlich gesagt schaut es mir langsam eher danach aus, dass der zeitliche Rückstand den AMD aktuell hat sich mit Volta wiederholen wird. Da müssten die schon 150 Mio$ R&D pro Quartal drauf hauen.

Mancko
2016-08-27, 15:05:55
Entschuldige aber Graphics und Compute sind nunmal unzertrenlich geworden vor allem Realtime Nvidia passt sich eher an aber nicht umgekehrt du hast recht das man sich jetzt nach GEN4 allerdings auf andere sachen konzentrieren kann da Compute "Läuft" :).

Das Profisegment mit HPC, Workstations und Deep-Learning ist eher weiter von den Anforderungen an Gaming GPUs weggegangen als näher heran. Ich habe meine Zweifel dass AMD sich hier eine Trennung mit einem so minimalen R&D erlauben kann. Ich fürchte die werden nur die Optionen haben

1) Weiter versuchen beides mit einem Design zu bedienen, was dann eben Effizienznachteile und ggf. auch Kostennachteile mitsich bringen wird und vermutlich auch den Erfolg im Profisegment limitiert.

2) sich für ein Segment zu entscheiden. Das wäre dann vermutlich das Gaming.

So eine Nummer wie GP100 für HPC und Deep-Learning und dann GP104/102 fürs Gaming kann sich AMD finanziell derzeit nicht mal ansatzweise leisten.

iuno
2016-08-27, 15:15:05
1) Weiter versuchen beides mit einem Design zu bedienen, was dann eben Effizienznachteile und ggf. auch Kostennachteile mitsich bringen wird und vermutlich auch den Erfolg im Profisegment limitiert.

2) sich für ein Segment zu entscheiden. Das wäre dann vermutlich das Gaming.
Dan haetten sie den ganzen APU, HSA, ROC Kram gar nicht erst anfangen bzw. weiter verfolgen muessen. Das wird imho ganz sicher nicht passieren.
Genausowenig wie enie voellig neue Architektur, rein fuer Grafik. Gerade wo sich die Software anpasst und Nvidia langsam annaehert. Ja, nur sehr langsam, aber jetzt hat man es schon jahrelang verfolgt, da schmeisst man doch nicht kurz vor Schluss alles weg

Mancko
2016-08-27, 15:20:46
Dan haetten sie den ganzen APU, HSA, ROC Kram gar nicht erst anfangen bzw. weiter verfolgen muessen. Das wird imho ganz sicher nicht passieren.
Genausowenig wie enie voellig neue Architektur, rein fuer Grafik. Gerade wo sich die Software anpasst und Nvidia langsam annaehert. Ja, nur sehr langsam, aber jetzt hat man es schon jahrelang verfolgt, da schmeisst man doch nicht kurz vor Schluss alles weg

Langfristig wird ihnen nichts anderes übrig bleiben. Sie können natürlich weiter machen wie bisher nur dann ist eben der Erfolg limitiert. Im HPC und AI Bereich wird es über die nächsten Jahre zunehmend zu GPU Designs kommen wo die Grafikausgabe komplett gestrichen ist. Nvidia hat damit bei Tesla schon in Teilen angefangen. Es gibt einfach Ballast den man dort nicht benötigt und genauso gibt es anders herum Ballast den man im Gaming nicht benötigt und für den User weder bezahlen noch Engergie verbrauchen wollen. Auch in Punkto Berechnungsgenauigkeit kann man im Gaming Abstriche machen. Wenn man sich Notebooks ansieht, dann zählt da noch mehr als im Desktop Bereich jedes Watt. Und jedes Watt das ich weniger für Ballast verbrauche, den ich dort nicht sinnvoll nutzen kann, und das ich anders herum in Gaming Leistung investieren kann zahlt sich halt aus.

iuno
2016-08-27, 15:22:45
Es geht hier aber nicht um Langfristiges, sondern um Vega.
Und nicht mal beim GP100 haben sie die Grafikkram rausgestrichen

Schnitzl
2016-08-27, 16:01:25
einige schreiben hier "immer die gleiche Leier" - sehe ich auch so, immer die gleiche Leier - jedoch bei AMD.
Solange ich mich zurückerinnern kann, jedesmal haben sich die Produkte verzögert, K6 bis Bulldozer
Vega 2017 ist für mich eine Kapitulation vor nVidia - Nr.1 werden? nVidia überholen? Haben die da etwas vergessen zu erwähnen? Oder kommt noch ein Wundertreiber nächste Woche der die 480 vor die 1070 bringt?

Ich bin schon ziemlich sauer auf AMD, wieder geht der Enthusiast leer aus, seit der 7970 kam da irgendwie nix mehr, alles blieb hinter den Erwartungen :mad:

Menace
2016-08-27, 16:40:23
[...] immer die gleiche Leier - jedoch bei AMD.
Solange ich mich zurückerinnern kann, jedesmal haben sich die Produkte verzögert, K6 bis Bulldozer
Vega 2017 ist für mich eine Kapitulation vor nVidia - Nr.1 werden? nVidia überholen? Haben die da etwas vergessen zu erwähnen? Oder kommt noch ein Wundertreiber nächste Woche der die 480 vor die 1070 bringt?

Ich bin schon ziemlich sauer auf AMD, wieder geht der Enthusiast leer aus, seit der 7970 kam da irgendwie nix mehr, alles blieb hinter den Erwartungen :mad:

Mit dem Begriff Verzögern würde ich bei AMD vorsichtig sein. Ja, manche Sachen verzögern sich; aber ein Großteil beruht auch auf "Roadmaps" build by "Experten", Gerüchten und vor allem auf den beliebten Spekulation in Threads wie diesen hier.

Zen scheint mir wirklich verspätet, da ich in Erinnerung habe, dass sie eigentlich ab Herbst liefern wollten (kann mich aber auch da schon täuschen).

Wann aber sprach AMD davon, dass Vega vor 1 Halbjahr '17 käme?

Wann sprach AMD davon, dass die 480 eine bessere Leistung hätte, als die 1070? Würde mich über die Quellen freuen. :smile:

Schnitzl
2016-08-27, 17:17:05
Mit dem Begriff Verzögern würde ich bei AMD vorsichtig sein. Ja, manche Sachen verzögern sich; aber ein Großteil beruht auch auf "Roadmaps" build by "Experten", Gerüchten und vor allem auf den beliebten Spekulation in Threads wie diesen hier.

Zen scheint mir wirklich verspätet, da ich in Erinnerung habe, dass sie eigentlich ab Herbst liefern wollten (kann mich aber auch da schon täuschen).

Wann aber sprach AMD davon, dass Vega vor 1 Halbjahr '17 käme?

Wann sprach AMD davon, dass die 480 eine bessere Leistung hätte, als die 1070? Würde mich über die Quellen freuen. :smile:
beides irrelevant.
Ich möchte aufrüsten. nVidia bietet mir 1070, 1080 und TitanX
AMD bietet mir ... nichts.
---> Also geht der Enthusiast leer aus

Wenn du hier eine Strategie entdeckst, wie man nVidia überholt, lass es mich wissen.

Achim_Anders
2016-08-27, 17:28:37
Mir geht es zwar ähnlich, aber die Strategie ist ziemlich leicht zu durchschauen: Unter 300€ 90% Marktanteil, drüber 10%... Das sind pauschalisierte Zahlen, zeigt aber die Tendenz ;)
90% des Grafikkartenmarkt werden also beliefert...

HOT
2016-08-27, 17:32:38
Neue leistungsfähige Chip stellen sich nicht von allein fertig und brauchen ebenfalls Zeit. NV war früher, die letzten beiden Male war AMD früher (40 und 28nm). Gebracht hat das AMD bitte was? So ein blödes Bashingeblubber wieder. Wenns euch nicht passt, kauft einfach ne 1070. Das ist ne gute Karte auf absehbare Zeit, also bitte. Aber verschont den Thread mit diesem "ach ich bin so enttäuscht"-Schwachsinn.

Vega10 war seitdem das Projekt benannt wurde für Anfang 2017 angekündigt und genau dann wird er auch erscheinen. Zen war für 2.HJ 2016 angekündigt, das wird u.U. knapp noch eingehalten. Alle anderen Termine sind pure Fanfiction.
AMD hat bei vielen Projekten einfach gar keine Termine genannt, beispielsweise Fiji. Deshalb ist auch jedes Produkt zu spät, da sich die Termine, meist von irgendwelchen Leakern, oft eben ausgedacht wurden.

iuno
2016-08-27, 17:37:21
---> Also geht der Enthusiast leer aus

Wenn du hier eine Strategie entdeckst, wie man nVidia überholt, lass es mich wissen.
Unsinn.
Kauf dir einfach eine Titan X und lass deine "Wut" beim Spielen aus :rolleyes:

Das ist eine Investor Presentation und dabei ging es um Marktanteile. Wie gesagt, vermutlich zaehlen sie da die Konsolen und selbst die Automaten mit, wo sie ihre SoCs loswerden, was auch voellig legitim ist.
Man hat nicht gesagt, man wolle die schnellsten Produkte fuer Windows-Spiele bauen.

Schnitzl
2016-08-27, 17:43:45
@HOT
schade ich hätte gerne mal wieder ne AMD Karte gehabt, aber ich warte nicht 6 oder mehr Monate länger, da kommt eben jetzt ne 1070

@iuno: genau ;D

Menace
2016-08-27, 17:47:01
---> Also geht der Enthusiast leer aus
Wenn du hier eine Strategie entdeckst, wie man nVidia überholt, lass es mich wissen.

Warum geht der Enthusiast leer aus? Es gibt doch die 1070, 1080 und Titan X zum Kaufen?

Welches Spiel drückt Dich denn momentan so sehr, dass Du jetzt eine Grafikkarte von AMD benötigst? :confused:

[Wie oft ich hier lese, ich möchte "jetzt" eine Grafikkarte kaufen, aber XY kann sie nicht liefern, also kaufe ich sie bei YZ.]

robbitop
2016-08-27, 18:28:34
AMD muss schauen, dass sie maximale Wirkung mit den begrenzten Ressourcen erzielen. Da muss man eben bestimmte Marktanteile ausklammern. Sie werden sich schon Gedanken dabei gemacht haben.

Es würde mich nicht wundern, wenn die Verkaufszahlen im HighEnd GPU Bereich bei AMD in den letzten Generationen eher mäßig war. Dann - wenn man nur einen Schuss hat - sich lieber auf das besser laufende Mainstreamsegment kümmern.

Polaris scheint sich gut zu verkaufen und ist vom Preis her gut positioniert- auch das Feedback aus der Presse war (bis auf den unnötigen - aber eher unwichtigen - pcie Patzer) durchaus positiv.

Ich hoffe, es geht bergauf. Kann nur gut für den Markt sein.

Schnitzl
2016-08-27, 18:29:16
Warum geht der Enthusiast leer aus? Es gibt doch die 1070, 1080 und Titan X zum Kaufen?

Welches Spiel drückt Dich denn momentan so sehr, dass Du jetzt eine Grafikkarte von AMD benötigst? :confused:

[Wie oft ich hier lese, ich möchte "jetzt" eine Grafikkarte kaufen, aber XY kann sie nicht liefern, also kaufe ich sie bei YZ.]
hast du Probleme mit Posts lesen? Hatte ich doch geschrieben:
Ich möchte aufrüsten. nVidia bietet mir 1070, 1080 und TitanX
AMD bietet mir ... nichts.
---> Also geht der Enthusiast leer aus

Desweiteren steht doch in dem Post über deinem dass ich bereits ne 1070 habe....?

Von dem restlichen Schwachsinn, den du da von dir gibst, hab ich nichts behauptet/geschrieben.
Also lass bitte diese Unterstellungen, falschen Annahmen und half-quotes um es dann zu verdrehen.

Menace
2016-08-27, 19:11:55
Einmal Deine persönlichen Angriffe beiseite lassend, ich glaube ich verstehe Dich wirklicht nicht und dass ist nicht böse gemeint. Du hast doch eine Enthusiasten-Grafikkarte, damit ist doch alles in Ordnung. :confused: Nur der Enthusiast, der unbedingt AMD kaufen möchte und dem Fury zu langsam ist geht leer aus.


Von dem restlichen Schwachsinn, den du da von dir gibst, hab ich nichts behauptet/geschrieben.
Also lass bitte diese Unterstellungen, falschen Annahmen und half-quotes um es dann zu verdrehen.

Du sprichst von: "Da kommt jetzt eben eine"... Also gerade bestellt?
Um mal farblich zu markieren was Du schriebst und ich meinte:

@HOT
schade ich hätte gerne mal wieder ne AMD Karte gehabt, aber ich warte nicht 6 oder mehr Monate länger, da kommt eben jetzt ne 1070



[Wie oft ich hier lese, ich möchte "jetzt" eine Grafikkarte kaufen, aber XY kann sie nicht liefern, also kaufe ich sie bei YZ.]

Oder wolltest Du auf etwas anderes raus?

@robbitop: Genau so sehe ich das momentan auch. Ich vermute sowieso, dass wenn ähnliche hochpreisige High-End-Grafikkarten von nvidia und AMD zur Verfügung steht, der Trend auf Grund des Namens eher in Richtung nvidia geht. Trotzdem ist es wichtig (für den Ruf) auch im hochpreisigen Segmenten etwas halbwegs brauchbares anbieten zu können (und dabei meine ich keine Fiji-Dual-Karte.

Schnitzl
2016-08-27, 19:51:32
Du bist echt anstrengend!

hätte gerne != möchte

mal wieder != "JETZT"

kurz: mir ist es egal ob AMD, nVidia oder von mir aus Matrox

ich hoffe nun verstehst du mich :)

Menace
2016-08-27, 20:02:03
:biggrin: Das sind ja eher graduelle Feinheiten. :wink: Und da es ja egal ist, ob AMD oder nvidia, ist doch alles gut. AMD sollte meiner Meinung nach jetzt erst mal einen ordentlichen Zen-Start hinlegen, als halbgare Grafikkarten raushauen und eher darin Geld investieren. Bitte nicht ein Phenom oder Bulldozer reloaded. Von daher kann ich auf Vega noch gut warten (zumal AMD zuvor auch immer von 2017 für Vega ausging).

OBrian
2016-08-28, 01:11:16
Warum soll das nacheinander geschehen? Die Entwicklung muß doch unabhängig von einander laufen, die Chips müssen dann kommen, wenn sie fertig entwickelt sind und wirtschaftlich sinnvoll auf den Markt gebracht werden können (zu früh bedeutet zu teure Fertigung, HBM-Preise o.ä., zu spät ist einfach verlorener Gewinn). Und wenn "Klein-Vega" der Chip ist, der auf der Server-APU sitzen soll, wofür ja einiges spricht, dann muß das auch irgendwie zeitlich zusammenkommen. Wenn sie die Server-APU innerhalb der nächsten 12 Monate (d.h. vielleicht auch schon in 10) zu bringen gedenken (laut neuester Folien), dann muß die Testphase da ja schon eingerechnet sein, die dauert aber üblicherweise schon einige Monate, das Ding muß also in spätestens einigen Monaten fertig sein. Und die Gamervariante davon ist ja viel einfacher, die klatscht man einfach zusammen und haut sie raus, also noch etwas früher.

Ein Launch gerade noch zu Weihnachten wäre schön für AMD, also werden sie es sicherlich versuchen. Wenn es nicht klappt, dann nicht, und AMD ärgert sich dann sicher mehr drüber als alle erwartungsvollen Gamer zusammen (klingt ja manchmal so, als mache AMD das absichtlich, um die Leute zu piesacken^^). Je nachdem, wann Zen fertig ist, könnte es auch ungefähr gleichzeitig sein, aber allein der PR wegen werden sie die Launches gerne einige Wochen auseinanderlegen. Allerdings rein wirtschaftlich sehe ich keinen Grund, warum das eine Produkt das andere verzögern sollte.

K12, der ARM, ist offensichtlich verzögert worden, aber wohl eher, weil keine sonderliche Nachfrage bestand, nicht in erster Linie weil die Ressourcen nicht gereicht haben (aber sicherlich hat es die Lage entspannt, das Projekt verschieben zu können).

"immer dieselbe Leier" im Zusammenhang mit Vega ist übrigens ein lustiges Wortspiel, wenn man bedenkt, daß Vega der Hauptstern im Sternbild Leier ist ;)

Hübie
2016-08-28, 07:52:04
Es geht hier aber nicht um Langfristiges, sondern um Vega.
Und nicht mal beim GP100 haben sie die Grafikkram rausgestrichen

Und das Warum, steht halt noch im Raum. Zwei Möglichkeiten: Entweder es liegt einfach am tooling und dem on-chip-network oder aber es kommen noch Quadro sowie GeForce als 1100er Serie mit Titanen. ;) Ene mehr Miste, es rappelt in der Kiste :biggrin:

Ist denn jetzt die Bezeichnung RX 490 für Vega10 schon klar oder ist das erst mal Platzhalterbezeichnung hier? Gibt's was neues? =)

Zen wurde nicht für Herbst geplant. Im Herbst sollten große OEMs/AIBs die Dinger für Testzwecke erhalten, wenn ich dass noch richtig in Erinnerung habe. Wurde auf eine der langweiligen Veranstaltungen von Su so zu Papier gebracht.
Allerdings haben einige Board-Hersteller wie ASUS ja schon seit längerem Samoles, also gehe ich mal davon aus dass man dann keine ES mehr hat, sondern eben das finale Produkt wie es im Regal steht.
Entsprechend kann man ja davon ausgehen, dass es die APU erst in der zweiten Hälfte 2017 geben wird.

@OBrian: :D Gar nicht gewusst. Hier steht mehr für den geneigten Wissbegierigen: https://astrokramkiste.de/leier

iuno
2016-08-28, 15:53:59
Ist denn jetzt die Bezeichnung RX 490 für Vega10 schon klar oder ist das erst mal Platzhalterbezeichnung hier? Gibt's was neues? =)

Nee, dahingehend keine Neuigkeiten, das bleibt also noch spannend. Vor allem sollten ja mehrere Karten kommen.

Schaffe89
2016-08-28, 18:12:53
Mir geht es zwar ähnlich, aber die Strategie ist ziemlich leicht zu durchschauen: Unter 300€ 90% Marktanteil, drüber 10%... Das sind pauschalisierte Zahlen, zeigt aber die Tendenz ;)
90% des Grafikkartenmarkt werden also beliefert...

Das ist keine Strategie, sondern eher ein Notfallplan.
Nvidia platziert 4 Karten über der rx480 leistungsmäßig, gekauft wird mittlerweile mehr im Performancesegment. Die Strategie taugt nichts, man braucht Karten die mehr als 250 Euro kosten, sobald sich die Preise man eingependelt haben.

Die GTX 1070 gibts schon für 399 Euro, das sind 100 Euro mehr auf ne rx480 Custom für satte Mehrleistung. Das P/L der GTX 1070 ist mittlerweile fast schon besser, das der GTX 1060 Custom sowieso etwas. AMD wird massiv Marktanteile die nächsten Quartale mit dieser "Strategie" verlieren.

w0mbat
2016-08-28, 18:54:23
gekauft wird mittlerweile mehr im Performancesegment.

Wie kommst du darauf? Alle Marktanalysen sagen etwas anderes.

Schaffe89
2016-08-28, 19:16:48
Welche Marktanalyse zum Beispiel?
Vega kommt wohl eher erst im Frühjar oder Sommer 2017 das ist niemals eine Strategie, sondern fast schon ein Komplettversagen, scheinbar hat AMD einfach keine Kohle mehr für neue Produkte.
Der Launch der rx480 war schon eine Katastrophe und ich will gar nicht wissen wie erst der Vega Launch wird.

Ailuros
2016-08-28, 19:19:05
Wie kommst du darauf? Alle Marktanalysen sagen etwas anderes.

Eine aehnliche Debatte hatten wir schon woanders. Ich bezweifle dass er meint dass mehr Performance SKUs als mainstream SKUs verkauft werden (stets in Anzahl der Einheiten); wenn ja dann ist es natuerlich falsch formuliert. Es spricht sich im Hintergrund herum dass performance SKUs die einzige Marktsparte ist wo sich die Anzahl der verkauften Einheiten etwas mehr steigerten als in anderen Segmenten. Analysten sind alles andere als sehr "klar" darueber da selbst die JPR Daten dafuer ziemlich zwielichtig sind.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11134951&postcount=3620

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312&page=182

Egal wie man es aber dreht, es aendert wenig an der Tatsache dass es AMD nicht gut tut dass Vega und co. so lange auf sich warten laesst.

Schaffe89
2016-08-28, 19:26:42
Eine aehnliche Debatte hatten wir schon woanders. Ich bezweifle dass er meint dass mehr Performance SKUs als mainstream SKUs verkauft werden.

Die Zahl der Einheiten dürfte freilich noch höher sein, aber der Umsatz von Performance GPU´s wie der GTX 1070 und der GTX 1080 wurde massiv gesteigert, vll ist der Umsatz auch schon höher und jetzt kann man noch eher zuschlagen, da AMD sowieso ewig braucht und die GPU´s wohl lange nicht im Preis fallen werden.

AMD wird wohl wirklich bald ne Dual GPU bringen müssen, damit man nicht völlig untergeht.
AMD hat als einzige Karte noch die kleine Polaris GPU die ohne Gegenspieler existiert. Ein Gegenspieler kommt schon im Oktober laut Nvidia.

Dass AMD jetzt von H1 für Vega redet, riecht wieder nach Fertigungsproblemen bei GF. Warum man sich den Verein immerwieder antut und immer die gleichen Fehler macht, ist langsam immer unverständlicher, da sinkt auch jegliche Hoffnung für Zen.

Ailuros
2016-08-28, 19:36:23
Die Zahl der Einheiten dürfte freilich noch höher sein, aber der Umsatz von Performance GPU´s wie der GTX 1070 und der GTX 1080 wurde massiv gesteigert, vll ist der Umsatz auch schon höher und jetzt kann man noch eher zuschlagen, da AMD sowieso ewig braucht und die GPU´s wohl lange nicht im Preis fallen werden.

Der Umsatz ist gestiegen weil auch die Herstellungskosten um einiges hoeher sind fuer den Anfang von FinFET Prozessen bis sich hier das Ganze mit der Zeit etwas normalisiert. Anders vom hoeheren Umsatz in solch einem Fall haben IHVs wenig bis gar nichts; von einer leicht hoeheren Anzahl an verkauften Einheiten dann wohl schon.

AMD wird wohl wirklich bald ne Dual GPU bringen müssen, damit man nicht völlig untergeht.
AMD hat als einzige Karte noch die kleine Polaris GPU die ohne Gegenspieler existiert. Ein Gegenspieler kommt schon im Oktober laut Nvidia.

AMD verkauft schon anstaendig. Wohl aber tatsaechlich nicht die eigentlichen Mengen an die sie vor einiger Zeit noch schaetzten. Ich kann mir locker vorstellen dass bis zu Ende dieses Jahres AMD eine steigende Tendenz von hoeherem Markanteil insgesamt haben wird. Eben so wie es bis jetzt JPR und co. beschreiben. Sollte aber wiederrum nicht heissen dass die gruenen nicht wieder Umsatzrekorde innerhalb des Jahres haben werden.

Schaffe89
2016-08-28, 21:24:35
Der Q2 Marktanteil war ja quasi noch ohne Polaris und ohne Pascal Beteiligung, bin besonders gespannt auf die Q3 Werte von JPR und MR.

ilibilly
2016-08-29, 09:05:58
Ich denke es ist gefährlich von amd nur auf rx480 zu setzen,nv hat mit 1060 gleich gekontert,und die 20-30€ aufpreis machen den meistens wohl nicht viel aus.
Wenn sie druck hätten könnten sie imho die 1070/80 auf 300 und 450€ senken,und das wird glaub ich mit vega passieren,aber wenn der erst im q1 daherkommt,naja
Ich glaub nicht das sie mit rx480 groß marktanteile gewinnen können.

dargo
2016-08-29, 09:17:20
Ich denke es ist gefährlich von amd nur auf rx480 zu setzen,nv hat mit 1060 gleich gekontert,und die 20-30€ aufpreis machen den meistens wohl nicht viel aus.

Der Konter für die GTX1060 ist bei neuen Games (besonders @low level) die RX470. Zudem hat AMD aktuell nicht nur die RX480 sondern auch die RX470 und RX460.

ilibilly
2016-08-29, 09:32:17
Ich geh mal von zielgruppe fullhd,wqhd aus,da wechselt glaub ich keiner zu einer rx470/460 ,wohl nur neuekäufer die sich nen lowcost gamerpc zusammenstellen,die wechsel von hawaii chips und maxwell wäre rx 480 ein sidegrade auch weill es günstige hawaiis mit 8gb gibt im ausverkauf.
Gtx 970 mit 3gb könnte da 8gb schon locken aber auch da will man wohl auch mehr performance also sidegrade zu rx480,gtx 1060 ,oder upgrade 1070 die jetzt bald auch unter die 400€ grenze fällt.
Ich persönlich hab noch die fury x ,und bekomm demnächst einen 4k monitor,von daher würde ich noch gern auf vega warten,aber es ist hart :)
Aber NV macht auch nciht alles richtig,bei einer 1080ti würde ich sogar wechseln,aber so warte ich doch noch auf vega ,bis anfang 17 gebe ich amd noch zeit.

Rancor
2016-08-29, 10:31:24
Der Konter für die GTX1060 ist bei neuen Games (besonders @low level) die RX470. Zudem hat AMD aktuell nicht nur die RX480 sondern auch die RX470 und RX460.

Wie du ständig auf dem aktuell noch völlig unbedeutenden Low Level Part rumreitest. Hat AMD nichts anderes zu bieten?

Mancko
2016-08-29, 10:32:48
Ich denke es ist gefährlich von amd nur auf rx480 zu setzen,nv hat mit 1060 gleich gekontert,und die 20-30€ aufpreis machen den meistens wohl nicht viel aus.
Wenn sie druck hätten könnten sie imho die 1070/80 auf 300 und 450€ senken,und das wird glaub ich mit vega passieren,aber wenn der erst im q1 daherkommt,naja
Ich glaub nicht das sie mit rx480 groß marktanteile gewinnen können.

Die 1060 kostet ja momentan noch nicht mal einen Aufpreis. Im Gegenteil. Die ist sogar im Schnitt günstiger, insbesondere bei den Custom Designs und auch der Lieferbarkeit sieht es deutlich besser aus. Sprich Nvidia kann hier mehr als gut konkurrieren und AMD fleißig unter Druck setzen. Weiter oben kann Nvidia schalten und walten wie sie wollen. Druck ist da frühstens Anfang 2017 zu erwarten und bis dahin hat man genügend Asche gemacht um alle Produkte da oben eine Etage nach unten zu setzen und darüber wieder mit kleinen Refreshes die Preissegmente zu besetzen.