PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

AnarchX
2016-03-06, 09:21:59
Das ist eine mögliche Interpretation. Es gibt aber halt auch AMD Karten bei Zauba die an der Stelle ein S3 stehen haben und gleichzeitig mit GDDR5 ausgewiesen sind. Insofern könnte das schon eine Art SKU-Bezeichnung sein.

Complicated
2016-03-06, 09:52:34
Ist dem so, ja? Da sagt SK Hynix aber was anderes - nämlich 1.024 Bit auch bei 2Hi:

http://scr3.golem.de/screenshots/1603/SK-Hynix-HBM2/thumb620/2016-01-21_101631_cr.png

EDIT
Ich rate dir, einfach nicht zu posten, wenn du Unfug erzählst und dabei auch noch anderen Leuten auf die Füße trittst. Was zuletzt bei vielen deiner Posts der Fall war/ist.
Wenn 1024 IO auf dem Logicdie vorhanden sind, dann ist das Limit durch eben diesen gegeben. Dies bedeutet nicht, dass HBM anders aufgebaut ist. Bisher wurde nichts über HBM Slices mit doppelten Speicherkanälen veröffentlicht und in dem Bild steht auch nichts darüber. Hier wird interpretiert. Aber das trennen zwischen den einzelnen technischen Eben ist halt nicht jedes Journalisten Sache.

Complicated
2016-03-06, 09:55:05
Das jedes DRAM Die mit 1, 2 oder 4 Channels angesteuert werden kann steht übrigens auch explizit so in der Einleitung der Spezifikation. Lohnt sich da mal rein zu schauen.
Den Teil mit den 4 Kanälen habe ich noch in keiner Quelle entdeckt oder überlesen Vielleicht kannst du mir einen Link und Seite des Dokuments nennen. Danke dir.

Complicated
2016-03-06, 10:08:34
Jeder Slice hat genau so viele Channel, wie der Hersteller Lust hat da drauf zu bauen. Niemand kann also verhindern, dass jemand 2Hi- oder 1Hi-Stacks mit acht Kanälen baut. Wie hoch die ganze Geschichte ist, obliegt nur dem Hersteller. Spezifiziert ist nur das PinOut und demzufolge die maximale Kanalzahl, nicht wie diese erreicht wird.
Dem stimme ich zu. Wenn SKHynix bestimmte Konfiguration wählt um sein Lineup an Speicher zusammenzustellen, muss das Samsung nicht ebenso machen. Designentscheidungen ändern nicht die technische Grundlage.

Nur frage ich mich welchen Sinn ein Hersteller darin sehen mag 3 unterschiedliche RAM Dies zu bauen mit verschiedener Kanalanzahl, wenn es auch mit identischen Dies möglich ist das derzeitig geforderte Produkt-Portfolio zu bieten.

Botcruscher
2016-03-06, 10:40:50
Die Hersteller benutzen die Abkürzung "G5" sehr gern für DDR5. "D3" dann für DDR3.
Bei den anderen steht aber X3 und S3. Dahinter kommt klar der RAM. X und S DDR Ram hab ich noch nicht auf Karten gesehen.

Bleibt noch das Channel. Es könnten ja auch 4GB pro channel sein. Die Beschreibung ist ja nur für die Steuer.
Kurz: Die Art des Speichers ist imo vollkommen offen.
PS: Wenn ich die Packdichte von 2,5 bis 2,8 die hier herumschwirrt ansetze, komme ich weit jenseits von Fiji. Mehr als ein 256er Interface kann ich aber kaum in einen Chip unter 250mm² stopfen.

iuno
2016-03-06, 11:24:42
Wenn 1024 IO auf dem Logicdie vorhanden sind, dann ist das Limit durch eben diesen gegeben. Dies bedeutet nicht, dass HBM anders aufgebaut ist. Bisher wurde nichts über HBM Slices mit doppelten Speicherkanälen veröffentlicht und in dem Bild steht auch nichts darüber. Hier wird interpretiert. Aber das trennen zwischen den einzelnen technischen Eben ist halt nicht jedes Journalisten Sache.
Muss auch nicht, mit den Infos zum Stack hat man alles was man braucht. Man muss es halt nur auch erfassen koennen. Aber weil du es nicht verstehst flamst du wieder mal andere an. :rolleyes:

Den Teil mit den 4 Kanälen habe ich noch in keiner Quelle entdeckt
Dann empfehle ich dir das zu tun, zu dem du mich schon mehrfach aufgefordert hast: lies die spec. Das mit der Struktur eines Stacks und Channels ist so mit das erste was da ueberhaupt drin steht. Da krame ich jetzt nicht extra fuer dich die spec raus um zu schauen in welche Zeile der komplizierte Herr seine Augen hin bequemen darf.

Dem stimme ich zu. Wenn SKHynix bestimmte Konfiguration wählt um sein Lineup an Speicher zusammenzustellen, muss das Samsung nicht ebenso machen. Designentscheidungen ändern nicht die technische Grundlage.

Nur frage ich mich welchen Sinn ein Hersteller darin sehen mag 3 unterschiedliche RAM Dies zu bauen mit verschiedener Kanalanzahl, wenn es auch mit identischen Dies möglich ist das derzeitig geforderte Produkt-Portfolio zu bieten.
Also erstens gibt es von Samsung genau dieselben Infos. und zweitens ergaebe es fuer Samsung auch keinen Sinn, extra Broetchen zu backen wenn sie den Kram auch los werden wollen.
Wie Maguumo schon sagte koennen die Hersteller ein DRAM slice flexibel mit 1, 2 oder 4 Channels fuer 8Hi, 4Hi und 2Hi einsetzen. Wenn man das in der Entwicklung beachtet (und das werden sie weil es von Anfang an klar war) braucht man keine extra dies.

Wie ich schon sagte
Anstatt dich jedes mal rechtfertigen zu wollen koenntest du auch einfach mal akzeptieren dass du Quatsch geschrieben hast [...] Dann sparen wir uns hier naemlich eine Menge Posts
Jetzt haben wir schon wieder eine halbe Seite spam (extra Szenenapplaus bekommst du von mir fuer den Dreier!) nur weil du zu arrogant bist, Fehler einzugestehen und dich mal ordentlich in die Materie einzuarbeiten. Du holst dir die Spitze des Eisbergs und flamst dann alle voll, weil du es falsch verstanden hast. Ganz grosses Kino.
Und jetzt kommst du bei mir auf ignore. Es ist mir zu dumm deine Beitraege immer richtigzustellen und dann noch dafuer angemacht zu werden. Deine ignorante und aggressive Art sind einfach zum Kotzen.



Bei den anderen steht aber X3 und S3. Dahinter kommt klar der RAM. X und S DDR Ram hab ich noch nicht auf Karten gesehen.

Bleibt noch das Channel. Es könnten ja auch 4GB pro channel sein. Die Beschreibung ist ja nur für die Steuer.
Kurz: Die Art des Speichers ist imo vollkommen offen.
PS: Wenn ich die Packdichte von 2,5 bis 2,8 die hier herumschwirrt ansetze, komme ich weit jenseits von Fiji. Mehr als ein 256er Interface kann ich aber kaum in einen Chip unter 250mm² stopfen.
DDR3 wird auf den ganz billigen Karten zum Teil verbaut.
4 GiB/(HBM-)"Channel" koennen es wohl nicht sein, wenn dann pro Stack. Das ergibt aber keinen Sinn das so anzugeben. Das muesste man fast schon absichtlich so machen um die Spekulationen in eine bestimmte Richtung zu schieben ;)

Complicated
2016-03-06, 11:36:05
So habe selber etwas gefunden:
HBM Memory Modell "VIP" von Cadence:
http://www.design-reuse.com/vip/high-bandwidth-memory-hbm-memory-model-ip-921/

The HBM Memory Model VIP supports single-channel implementation version of the HBM DRAM specification, and can be used 8 times to model a single 8-channel device.
Divides a channel into two individual sub-channels of 64 bit I/O each.
The stack ID (SID) acts as a bank address bit in command execution.
Implements internal HBM state machine and performs specified timing checks.
128-bit wide data bus. Pseudo channel mode with 64-bit data. DDR.
The model supports a wide range of device densities.
Differential clock and read/write strobes.

Die Anzahl der Kanäle wird durch den Pseudochannel Mode verdoppelt. Das sind Änderungen im Logic Die und im Memory Controller. Der Aufbau der HBM Slices bleibt identisch und auch die Bandbreite trotz doppelter Anzahl an Channels, die eben nur halb so breit sind.

So erhält man einen 2-HI HBM Stack mit 8 Kanälen. Jeder 64-bit breit. Zusammen 512-bit anstatt 1024-bit wie es bei 4-Hi mit 16x Pseudochannels wäre. Vermutlich spielt hier die Kanalanzahl die der Speichercontroller zur Verfügung hat eine ebenso große Rolle wie bei SSDs und es entsteht ein Vorteil gerade bei geringer Bandbreite insgesamt wenn die Pakete nicht immer 128 bit übertragen müssen für volle Auslastung. 8 Kanäle scheinen hierbei immer als Minimum angestrebt zu sein.

@iunno
Anstatt hochtrabend daher zu reden würde ich gerne mal eine Quelle von dir sehen zu den behaupteten Stellen. Ich verlinkte meine wie zu sehen ist. Und da steht, dass du den Aufbau von HBM nicht verstanden hast wenn man deinen Beitrag damit abgleicht. Sollte ich mich irren, dann bitte beweise es mit mehr als nur deinen Behauptungen. Link zur Spec. inkl Seitenzahl wo du deine Argumente bewiesen siehst wären in einer solchen Diskussion die übliche Vorgehensweise. Zitat verlange ich nicht einmal, allerdings sollte das das mindeste sein um deinen großspurigen Beitrag nun auch zu untermauern. Überzeuge mich mit Fakten die überprüfbar sind.

Complicated
2016-03-06, 11:56:14
Um es mal eindeutig zu machen:
Den Teil mit den 4 Kanälen habe ich noch in keiner Quelle entdeckt oder überlesen Vielleicht kannst du mir einen Link und Seite des Dokuments nennen. Danke dir.
Dann empfehle ich dir das zu tun, zu dem du mich schon mehrfach aufgefordert hast: lies die spec. Das mit der Struktur eines Stacks und Channels ist so mit das erste was da ueberhaupt drin steht. Da krame ich jetzt nicht extra fuer dich die spec raus um zu schauen in welche Zeile der komplizierte Herr seine Augen hin bequemen darf.Wo denn? Das Konzept der Seitenzahlen ist dir bekannt?


Also erstens gibt es von Samsung genau dieselben Infos. und zweitens ergaebe es fuer Samsung auch keinen Sinn, extra Broetchen zu backen wenn sie den Kram auch los werden wollen.Wo ist diese Info zu finden?Jetzt haben wir schon wieder eine halbe Seite spam (extra Szenenapplaus bekommst du von mir fuer den Dreier!) nur weil du zu arrogant bist, Fehler einzugestehen und dich mal ordentlich in die Materie einzuarbeiten. Welchen Fehler?

Und jetzt kommst du bei mir auf ignore. Es ist mir zu dumm deine Beitraege immer richtigzustellen und dann noch dafuer angemacht zu werden.Danke. Da du bisher noch keine einzige Quelle hier in der Diskussion beigetragen hast, freue ich mich, dass du den von mir empfohlenen Umgang mit meinen Beiträgen zukünftig beherzigst. So vermeiden wir auch die halbe Seite inhaltslosen Spam ohne Quellen in Zukunft.

Botcruscher
2016-03-06, 12:09:06
DDR3 wird auf den ganz billigen Karten zum Teil verbaut.
4 GiB/(HBM-)"Channel" koennen es wohl nicht sein, wenn dann pro Stack. Das ergibt aber keinen Sinn das so anzugeben. Das muesste man fast schon absichtlich so machen um die Spekulationen in eine bestimmte Richtung zu schieben ;)

DDR3 kommt nicht infrage. Mit Gddr5 steht der passende Ram ja dahinter.
Bei HBM ist ein Stack auch immer ein Kanal. Das AMD und NV die Leaks minimieren ist nun nichts neues.

y33H@
2016-03-06, 13:24:04
Wo ist diese Info zu finden?In Samsungs Präsentation auf dem Fall IDF 2015:

55093

Quelle:
http://www.computerbase.de/2015-08/idf-2015-samsung-fertigt-high-bandwidth-memory-ab-2016/

Gipsel
2016-03-06, 13:44:43
@all:
Back to Topic!
Das ist die neue GPU-Generation von AMD, nicht die HBM-Spec.

@Complicated:
Du liegst hier klar falsch. Belege gibt es im Thread genügend. Belasse es bitte dabei, damit sich der Thread wieder dem eigentlichen Thema widmen kann.

Danke!

Ailuros
2016-03-07, 07:15:25
Keiner der beiden Polaris-Chips wird HBM verwenden IMO. Das wird erst Ende des Jahres / Anfang nächsten Jahres mit Greenland/Vega10 der Fall sein.

Zumindest afaik ja. Greenland hat HBM2.

Sunrise
2016-03-07, 07:45:57
Die HBM-Bandbreite wird zumindest im Spielermarkt auch nicht benötigt. Anders sähe es natürlich bei den professionellen Karten im HPC-Segment aus, aber selbst das ist höchst zweifelhaft, bevor ein richtig dicker Die kommt. Wenn schon HPC, dann muss das Ding auch ordentlich groß sein und dann ist HBM vom Nutzen her (Bandbreite, geringerer Strombedarf bei gegebener Bandbreite) auch quasi ein Muss.

Hübie
2016-03-07, 08:44:32
Es gibt mehrere use-cases um HPC zu definieren. Einer ist dass man massig Bandbreite für viele reads/writes benötigt (z.B. sortieren). Kannst ja nicht einfach über einen Kamm scheren. Macht im HPC natürlich nur Sinn, wenn die GPU eine definierte Mindestleistung erreicht, klar.

tm0975
2016-03-07, 14:47:47
zum thema. da ja nun klar ist, dass die ersten finfets von amd von glofo kommen werden und die ersten nvidia-finfets von tsmc würde mich interessieren, welche auswirkungen auf die reale produktverfügbarkeit ihr vermutet. amd hat ja bereits mitte 2016 gesagt, was vermutlich eher august wird. dennoch vermute ich tsmc später. es ist ja oft strategie von nvidia, erstmal abzuwarten was amd liefert und ggf. die eigenen produkte anzupassen, dafür aber mit besserer verfügbarkeit in den markt zu starten.

iuno
2016-03-07, 15:07:29
Da ist nicht mehr viel mit anpassen, wenn die Produkte erst mal draussen sind. Die Strategie fruchtet auch eher, wenn man im selben Prozess baut, also wenn AMD der Vorreiter fuer 16FF+ waere. Das ist aber diesmal nicht der Fall. Es sieht eher so aus (wenn es stimmt), als laege die "Verzoegerung" an Nvidia selber und nicht an TSMC.
Zur Verfuegbarkeit hatten wir vor ein paar Tagen etwas (Ailuros hat oft gute Infos/Einschaetzungen ;) ). GF scheint ziemlich "frei" zu sein und bis Zen dauert es ja auch noch ein paar Monate laenger. Ich denke schon, dass die das bis Mitte des Jahres hinbekommen.
TSMCs 16FF+ laeuft ja inzwischen auch schon laenger aber die bauen halt auch noch haufenweise SoCs in 16FF+, allen voran fuer Apple und Qualcomm. Allerdings sind die FinFET Kapazitaeten insgesamt sicher auch nicht vergleichbar zw. GF (wenn man Samsung raus laesst) und TSMC.

Botcruscher
2016-03-07, 15:12:57
Bein NV geisterte GP100 doch schon für glaube April durch den Äther. Die Herstellungskosten des Chips spielen bei den Preisen für Supercomputer doch keine Rolle.
TSMC traue ich, wie üblich, kein Stück. GF ist mangels Infos auch vollkommen offen. So wenige Informationen gab es glaube ich noch nie zu einer neuen Gen.

y33H@
2016-03-07, 15:17:14
AMD Radeon to Showcase Latest Innovations in Virtual Reality and Gaming at "Capsaicin" Live Webcast at GDC
Event Will Feature Industry Luminaries Including Crytek, HTC, Oculus, and Previews of New Silicon and Software Advancements
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2146389

iuno
2016-03-07, 15:21:11
Wir wissen wenigstens, dass TSMC schon seit letztem Jahr 16FF+ SoCs in Masse produziert. Und Samsung/GF eben welche in 14 LPE.
Ich gehe mal nicht davon aus, dass der lauffaehige Polaris 10 vom Dez. noch in 14 LPP gebaut wurde. Dementsprechend sollte man das schon hinbekommen bis Mitte des Jahres, ausser natuerlich es gibt wirklich noch grobe Probleme die noch Respins noetig machen.

http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2146389
Wow, sie verwenden den Namen wirklich.
Named after the compound that delivers a pepper's spicy kick, "Capsaicin" will explore the inner essence of the graphics processing unit (GPU) and how it powers innovations in gaming and virtual reality.
compound, inner essence, 8,6, must speculate :ugly:

Sunrise
2016-03-07, 15:23:14
zum thema. da ja nun klar ist, dass die ersten finfets von amd von glofo kommen werden und die ersten nvidia-finfets von tsmc würde mich interessieren, welche auswirkungen auf die reale produktverfügbarkeit ihr vermutet. amd hat ja bereits mitte 2016 gesagt, was vermutlich eher august wird. dennoch vermute ich tsmc später. es ist ja oft strategie von nvidia, erstmal abzuwarten was amd liefert und ggf. die eigenen produkte anzupassen, dafür aber mit besserer verfügbarkeit in den markt zu starten.
Da spielen zuviele Parameter ein Rolle:

1) GPUs/Yield bei GloFo auf 14nm LPP vs. TSMC 16nm FF(+)
2) Produktionskette AMD vs. NV (bei HBM-Designs wie GP100)
3) Etwaige Fehler im Chip/Design
4) usw.

Was NV auf der GTC vorstellen wird muss nicht den finalen Daten (Frequenzen, aktiven Einheiten) entsprechen, sondern eher eine Architektur-Demonstration anhand von zumindest teilweise funktionierenden GP100-Samples.

Zudem gilt:
1) NV richtet sich nicht nach AMD, wenn es um ihre Großkundenverträge geht.
2) AMD richtet sich nicht nach NV, wenn es um ihr verbessertes Line-Up / Konkurrenzsituation geht.

Das wird jedesmal wieder angeführt, aber da man Geld verdienen will, kann man sich ganz am Ende evtl. überlegen, aufgrund von guter Ausbeute Frequenzen oder aktive Einheiten anzupassen, das wars. Wenn AMD im Sommer/Spätsommer vorstellen will, dann sollte eigentlich klar sein, in welcher Phase AMD jetzt sein sollte, damit das funktioniert. Das gilt bei NV nicht, da wir kein genaues Datum haben, bisher gibt es nur Vermutungen.

NV muss sich den eigenen Margen-Ast natürlich nicht selbst absägen, im HPC besteht jedoch Handlungsbedarf. Optimalerweise sollte GP104 aber auch nicht allzu weit in der Zukunft liegen.

Die GTC ist ja nichtmehr lange hin, was auch gut ist, weil gefühlt jede Seite immer wieder die gleichen Fragen gestellt werden.

HOT
2016-03-07, 15:50:48
Ich bin gespannt, ob es überhaupt ein funktionierendes GP100-Sample gibt. Ich seh das nicht, da weder Samsung noch Hynix entsprechendes HBM liefern kann. Die Serienproduktion von entsprechend großen Stacks beginnt bei Hynix im Sommer und bei Samsung vllt. Ende des Jahres. Ich glaub nicht, dass GP100 auch nur ansatzweise demonstationsbereit ist. Das gibt wieder viele Folien aber keine konkreten Infos, außer über die Architektur selber. Nach den neuen Infofetzen über Hynix' HBM-Produktion denke ich auch, dass AMD bei beiden Polaris tatsächlich auf GDDR5 setzt und gut daran tat erst mal die kleinen Chips fertigzumachen.
Ich fürchte, dass die bei NV im Sommer nichts anderes als einen GP107 präsentieren werden, ganz normal mit 128Bit GDDR5 - und der kommt zuerst für den Notebookmarkt. Das wird nämlich NVs 16nm Testballon sein - parallelen zu GM107 sind sicherlich nicht zufällig, nur diesmal aus anderen Gründen.

Ich würde das mal so sehen, dass TSMC 16FF+ (welcher ja in gerüchteweise ein Kompromiss aus 16FF und dem ursprünglich für 2017 geplanten FF+ ist) sehr stark auf Apples Bedürfnisse zugeschnitten haben wird, sofern das möglich war, gleiches werden die mit 10FF vorhaben. Samsungs Kapazitäten sind eh ziemlich knapp und eine 3. Foundry (GloFo) möchte Apple offenbar nicht ins Boot holen, was ich auch gut verstehen kann. Ich vermute, dass GloFos 14LPP in der Tat sich als ziemlich problemos für AMD herausstellt und man gut daran tat nach GloFo mit den GPUs zu wechseln.

iuno
2016-03-07, 15:56:25
Samsung produziert schon in Serie, zumindest 4Hi Stacks:
https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface
Meldung ist vom 19. Jan. Fuer ein paar Samples wird das wohl reichen.

Nightspider
2016-03-07, 16:28:07
Bezüglich kleiner Grafikchips und HBM:

Ein Vorteil durch HBM wäre eben auch das die kleinen AMD Chips den Nvidia Pendants bevorzugt werden könnten da durch HBM deutlich Platz und auch Strom eingespart werden kann.
Dann sehen wir vielleicht auch wieder öfter AMD Chips in Notebooks und vielleicht sogar in (größeren) Tablets und Convertibles.
In teure Workstation-Notebooks könnte man sogar beliebig viel HBM Speicher verbauen ohne das mehr Platz verbraucht wird. Dafür dürfte es auch einen Markt geben.

iuno
2016-03-07, 16:36:05
Ich wuerde das unglaublich gerne sehen, gerade bei Laptops, aber das interessiert in der "echten Welt" aktuell wohl kaum. Da ist nur wichtig, dass moeglichst billig eingekaufte Grafikchips in moeglichst teuren Notebooks verkauft werden koennen. Und da zieht AMD momentan einfach nicht.
Davon ab faellt die Ersparnis natuerlich absolut gesehen geringer aus, je weiter man in der Groesse nach unten geht. 2-4 GDDR5 Chips und eine Handvoll Watt sind da wohl eher nicht das Problem.

Dural
2016-03-07, 17:43:54
Wer sagt den das ausgerechnet ein AMD Chip gemeint war? Für einen weiterer HBM Chip kommt doch aktuell nur GP102 in Frage. Da AMD selber ja nur zwei eher kleinere Chips bestätigt hat.

tm0975
2016-03-07, 18:46:02
das ist interpretationssache, ob amd nur 2 kleine chips bestätigt hat. man könnte genauso gut sagen, sie haben 2 große bestätigt. einen großen notebook-chip und einen großen desktop-chip. amd legt seit lisa su wieder deutlich mehr wert aufs high end. sie wissen, dass sie high end brauchen, um im performance-segment kasse zu machen. und die eigenen apus sind ein weiterer grund gegen kleine chips.

iuno
2016-03-08, 08:53:08
Es zweifelt ja keiner daran, dass was fuers 'richtige High-End' kommt, nur wird das eben noch nicht mitte des Jahres sein.
Den Chip < 150 sqmm wuerde ich nun nicht "grossen Notebook-Chip" nennen. Sowas ist ein GM204 mit ~400 sqmm.

Die APUs haben aktuell (CZ) gerade mal 8 CUs (512 SP). Fuer BR wurden 12 CUs spekuliert, was aber ziemlich sicher ein Missverstaendnis war und bis RR dauert es noch "ewig". Bis eine APU sowas wie Polaris 10 abgraebt, dauert es noch. Der faellt wohl von der Groesse her zwischen Cape Verde und Bonaire mit 10 bzw. 14 CUs in 28 nm.

Grabhopser
2016-03-11, 10:31:43
Zauba mal wieder:
9-Mar-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-C94402-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 1 61,880 61,880

Neue Nummer und mittlerer Warenwert.

fondness
2016-03-12, 10:30:17
A sneak peak of Polaris. HTC. Oculus. Crytek. AMD. Tune into our GDC webcast on 3/14 at 4PM! http://bit.ly/1UlPNKE

https://twitter.com/AMDRadeon/status/708397852364394496

Hübie
2016-03-12, 10:56:51
Hm. Capsaicinoide sind ja die Schärfe-Bestandteile ich Chillischoten. Was da wohl kommen mag? :confused:

iuno
2016-03-12, 11:00:51
vermutlich irgendwas mit vr
es hiess das soll der gdc etwas Wuerze verleihen (spice it up).
toll der webcast geht nur mit flash :rolleyes:

Ich hoffe insgeheim dass es um Polaris geht und nicht um dual-Fiji...

fondness
2016-03-12, 11:07:35
Polaris wird eh schon erwähnt im tweet, GpuOpen ist auch ein heeeeeiiiißßer Tipp ;)

Hübie
2016-03-12, 11:11:07
Ja, irgendwas mit VR dachte ich mir schon. Ich meinte jetzt konkret was in der Demo kommen könnte. :D Dinosaurier und Roboter hatten wir. Gemüse klingt nicht sehr spannend (Kochshow? ;D)... Also ich bin nicht sehr fantasievoll, daher kommt bei mir nix anständiges heraus, wenn ich darüber nachdenke.

iuno
2016-03-14, 15:34:46
Es ist die Aperture Science Robot Repair demo, powered by Polaris 10

http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2148187

Recommended ist laut Valves Benchmark/AMD unter Hawaii PRO nichts: https://community.amd.com/community/gaming/blog/2016/02/22/radeon-graphics-cards-recommended-for-vr-by-steam-performance-test?sf21372331=1
Steht auch in der Pressemitteilung zum "Radeon VR Ready Premium" Programm.

Ist also Polaris 10 doch der grosse Chip? :confused: Die Pressemitteilung differenziert zw. dem Engineering Sample aus der Polaris-Gen und "Polaris 10".
Auch steht da sie, Polaris 10 sei zum ersten Mal ueberhaupt gezeigt worden.

Warum verwenden sie die Vive Pre und nicht die fertige Version? Hat die Pre noch eine niedrigere Aufloesung?

Elite_Warrior
2016-03-14, 15:45:03
Polaris 10 müsste der kleiner Chip sein?

"AMD expands the VR ecosystem with first-ever Polaris 10 GPU demonstration, and its new GPU certified program for VR"

Wurde denn nicht dieser schon bei Battlefront demonstriert?
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Videos/Entwicklerstimmen-und-Battlefront-Demo-im-Video-1182335/

Bin gerade leicht verwirrt. Aber gut, bei der ersten Demonstration wurde nicht gesagt welcher Chip benutzt wurde.

iuno
2016-03-14, 15:47:17
Dass damals der grosse Chip gezeigt wurde, kann eigentlich nicht sein.
Woher kommt ueberhaupt die Info, 10 sei der kleine?

Complicated
2016-03-14, 15:50:25
In der Fussnote ist beschrieben:
2. The next-gen Polaris architecture-based GPU Engineering Sample delivers up to 2X performance per watt compared to GeForce GTX 950. Testing conducted by AMD Performance Labs as of December 2015 with an Intel Core i7 4790K at 80% power limit with 4x4GB DDR3 memory at 1600Mhz and 120GB SSD. Tested systems used off-the shelf power meters that measured system power consumption at the plug. PC manufacturers may vary configuration yielding different results. Star Wars™ Battlefront™ was tested on the X-wing Training Map using FRAPs. The Polaris architecture-based engineering sample on Med Preset @1080p scored 60 fps and consumed 86W with driver 15.30 beta. The GTX 950 card on Med Preset @1080p scored 60 fps and consumed 140W with driver 358.87. POL-1Die selbe Demo wie zur CES im Januar.

iuno
2016-03-14, 15:57:31
Das war weder auf der CES, noch im Januar sondern beim RTG Event Anfang Dezember.
Und das hier ist nicht dieselbe Demo, sondern man bezieht sich dort nur darauf. Das wird nur als Beleg fuer die Behauptung bzgl. der Energieeffizienz mit angegeben.

Complicated
2016-03-14, 16:06:10
Video von der Demo https://www.youtube.com/watch?v=H9ZIcztgcNY
CES 2016

Aber du hast recht sie beziehen sich lediglich auf die Leistungsdaten und zeigen eine andere Demo.

N0Thing
2016-03-14, 16:20:37
Ist also Polaris 10 doch der grosse Chip? :confused: Die Pressemitteilung differenziert zw. dem Engineering Sample aus der Polaris-Gen und "Polaris 10".
Auch steht da sie, Polaris 10 sei zum ersten Mal ueberhaupt gezeigt worden.

Es dürfte die erste öffentliche Vorführung des gleichen Chips sein, was damit gemeint ist.

Complicated
2016-03-14, 16:29:40
Sie zeigen das erste mal die Valve Demo auf Polaris mit VR:
AMD today demonstrated for the first time ever the company's forthcoming Polaris 10 GPU running Valve's Aperture Science Robot Repair demo powered by the HTC Vive PreIch hatte mich auch durch die Formulierung etwas irritieren lassen.

Isen
2016-03-14, 16:35:04
0 Uhr fängt der Stream an, korrekt?


@iuno,

danke :)

iuno
2016-03-14, 16:38:17
Ja
aber weiss auch jemand, wie lange das Event dauert?

N0Thing
2016-03-14, 16:55:55
https://twitter.com/AMDRadeon/status/708397852364394496

Ist das eigentlich die einzige Quelle für den Stream? Oder gibt es auch noch was ohne Flash?

iuno
2016-03-14, 17:00:28
Das habe ich mich auch gefragt
http://m.ustream.tv/channel/gQETjZzLnf9 koennte klappen, vielleicht aber in schlechterer quali

R.I.P.
2016-03-14, 17:36:49
http://www.smarteranalyst.com/2016/03/14/company-update-nasdaqamd-advanced-micro-devices-inc-takes-83-share-global-vr-system-market/

Ein bisschen viel übertrieben, aber eine kleine Zusammenfassung über was bis jetzt auf der GDC geschehen ist

Sunrise
2016-03-14, 18:05:46
http://www.smarteranalyst.com/2016/03/14/company-update-nasdaqamd-advanced-micro-devices-inc-takes-83-share-global-vr-system-market/

Ein bisschen viel übertrieben, aber eine kleine Zusammenfassung über was bis jetzt auf der GDC geschehen ist
Naja, so schlecht siehts aber auch nicht aus für AMD. Wenn man mal die Konsolen noch dazurechnen würde, dann hat NV hier aktuell nix zu melden.

fondness
2016-03-14, 18:22:14
zPT4-nRP7Bk

Sulon Q specifications:

Experiences:
VR, AR, and spatial computing Ergonomics Lightweight, comfortable, ergonomically designed all-in-one tether-free form factor
Processors: AMD FX-8800P processor at up to 35W with Radeon™ R7 Graphics leveraging AMD’s Graphics Core Next architecture 4 compute cores and 8 GPU cores unlocked through Heterogeneous System Architecture (HAS) Sulon Spatial Processing Unit (SPU)
Memory: 8 GB DDR3 Memory
Storage: 256 GB SSD
Display: 2560×1440 OLED display at 90 Hz 110-degree Field-of-View
Audio: 3D spatial audio powered by GenAudio’s AstoundSound® technology Built-in 3.5 mm audio jack Custom spatially-optimized Sulon Q earbuds Dual noise-cancelling embedded microphones.
Tracking: Sulon Spatial Processing Unit combining real-time machine vision technologies and mixed reality spatial computer for real-time environment mapping and tracking from the inside outward, dynamic virtualization for VR/AR fusion, and gesture recognition
Sensors: Accelerometer, Gyroscope, Magnetometer, SPU
Software: Microsoft Windows® 10 “Project Dragon” application for spatial computing AMD LiquidVR technologies for ensure smooth and responsive VR and AR experiences
Peripherals: Wireless keyboard and mouse provided in box Any other Windows 10-compatible controllers and joysticks
Connectivity: WiFi 802.11ac + Bluetooth 4.1 2 x USB 3.0 Type A Micro HDMI OUT

https://www.reddit.com/r/oculus/comments/4ad1w7/introducing_sulon_q_powered_by_amd/

iuno
2016-03-14, 18:34:07
Ein bisschen viel übertrieben, aber eine kleine Zusammenfassung über was bis jetzt auf der GDC geschehen ist
Du weisst aber schon, dass das die Pressemeldung + ein paar Aktienkursen ist?
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2148187
Bisher ist dahingehend auf der GDC gar nichts passiert, das Event ist erst 16 Uhr Ortszeit, also 00:00 bei uns.

http://youtu.be/zPT4-nRP7Bk

https://www.reddit.com/r/oculus/comments/4ad1w7/introducing_sulon_q_powered_by_amd/
falscher Thread? hatten wir schon bei Carrizo ;)

R.I.P.
2016-03-14, 18:52:11
Du weisst aber schon, dass das die Pressemeldung + ein paar Aktienkursen ist?


Oha, habe tatsächlich geglaubt, dass wir hier bereits einige Infos zur Präsentation hatten,da in Vergangenheit geschrieben wird :eek: und sogar ein Zitat von Koduri eingefügt worden ist :freak:

iuno
2016-03-14, 19:50:06
Ist schon auch etwas seltsam, was da passiert ist. Ueble Panne oder Absicht?

Hat denn nun die Vive Pre eine niedrigere Aufloesung?
Wie anspruchsvoll ist denn nun die Aperture Demo? Welche Karte braucht man um die 90 FPS gut halten zu koennen?

fondness
2016-03-14, 19:56:27
Scott Wasson postet seit längeren nichts mehr anderes mehr als #Capsaicin^^ :D
https://twitter.com/scottwasson

http://s21.postimg.org/u3delq1vb/Cdh_LUi_EVAAEKc7_Q_jpg_large.jpg (http://postimage.org/)

Menace
2016-03-14, 22:21:55
Scott Wasson postet seit längeren nichts mehr anderes mehr als #Capsaicin^^ :D
https://twitter.com/scottwasson


Grün umarmt rot? Ich versuche mal keine Interpretation. :freak:
https://pbs.twimg.com/media/CdiXC6TUIAARP_0.jpg:large

iuno
2016-03-14, 23:01:02
http://s21.postimg.org/u3delq1vb/Cdh_LUi_EVAAEKc7_Q_jpg_large.jpg (http://postimage.org/)
Oculus ist Partner und sie zeigen die Demo mit Polaris 10 auf der Vive? ;D

horn 12
2016-03-14, 23:17:25
Radeon PRO Duo
Alias Fury X2

http://videocardz.com/58547/amd-launches-radeon-pro-duo

maximus_hertus
2016-03-14, 23:42:08
Zu #Capsaicin

Capsaicinoide sind farblos und relativ temperaturstabil, d. h. sie können durch Kochen oder Einfrieren nicht zersetzt werden.

Also kann man Polaris passiv bei 100 Grad oder auch maximal kühl (unter -200 Grad) betreiben ;)

Capsaicinoide lösen sich in Ethanol und Fetten, aber nicht in Wasser.

Also Polaris bekommt eine Direct Wakü - Kühlkörper nicht mehr notwendig :D

Im August 2010 haben chinesische Forscher in Chongqing durch Studien an Ratten nachweisen können, dass Capsaicin entspannend auf die Blutgefäße wirkt und dadurch den Blutdruck senkt.

Übersetzt: Polaris sorgt für Null Treiber Probleme. Alles läuft entspannt und ohne Stress ;)


Bitte nicht ganz Ernst nehmen :D


Ich bin ja mal gespannt, was AMD gleich alles zeigen wird. Aber bzgl. Polaris glaube ich nicht, dass wir da all zu viel erfahren werden...

d2kx
2016-03-15, 00:02:17
https://pbs.twimg.com/media/CdX7AZhXIAA9RIH.jpg

LIVE: https://t.co/5rzoToTMiu

Distroia
2016-03-15, 00:06:19
:popcorn:

Nightspider
2016-03-15, 00:07:30
Lisa verballert erstmal T-Shirts im Barney Stinson style. :ugly:

Unicous
2016-03-15, 00:07:55
T-Shirt Kanone :ucrazy:

Ravenhearth
2016-03-15, 00:11:10
Wovon redet der? :freak:

AffenJack
2016-03-15, 00:11:29
Ich krieg hier gerade fremdschämen, wo jetzt auch noch Raja dabei ist:freak:

Unicous
2016-03-15, 00:13:18
Das ist wohl eine mashup Folge von IT Crowd und Big Bang Theory... geschrieben von einem deutschen Comedian.:eek:

maximus_hertus
2016-03-15, 00:13:20
Ich krieg hier gerade fremdschämen, wo jetzt auch noch Raja dabei ist:freak:

This. WTF labern die da?!

y33H@
2016-03-15, 00:13:36
Hier sind die News ;-)

Radeon Pro Duo mit 2x Fiji XT für 16 TFlops, 3x 8P und 1500 US:

http://www.golem.de/news/grafikkarte-dual-fiji-heisst-radeon-pro-duo-und-liefert-16-teraflops-1603-119729.html

Nightspider
2016-03-15, 00:14:19
Das geht jetzt 1,5h so? :usad:

Die hätten mal Raj Koothrappali nehmen sollen, wäre lustiger gewesen. :D

Distroia
2016-03-15, 00:14:33
"Better GPUs"!

Nightspider
2016-03-15, 00:15:48
1500 Dollar? Naja ich glaube da warten alle lieber auf Pascal und Polaris und holen sich lieber zwei davon. ^^

Unicous
2016-03-15, 00:16:19
Das geht jetzt 1,5h so? :usad:

Die hätten mal Raj Koothrappali nehmen sollen, wäre lustiger gewesen. :D

Aber der hat leider keine Ahnung von GPUs. :wink:

Nicht jeder kann so ein natural entertainer wie leather jacket Jensen sein.;D

dildo4u
2016-03-15, 00:17:36
Hier sind die News ;-)

Radeon Pro Duo mit 2x Fiji XT für 16 TFlops, 3x 8P und 1500 US:

http://www.golem.de/news/grafikkarte-dual-fiji-heisst-radeon-pro-duo-und-liefert-16-teraflops-1603-119729.html
Klingt nach einer Karte für Entwickler,schon 1000$ wären grenzwertig.

Nightspider
2016-03-15, 00:19:49
2019 "Navi" nach Vega mit "Nextgen Memory" :uponder:

http://cdn2.24live.co/images/2016/03/15/1457997562569752.jpg

iuno
2016-03-15, 00:19:57
Vega confirmed (HBM2),
Danach Navi ;)

y33H@
2016-03-15, 00:20:14
Eine Art Roadmap.

EDIT
Too late :usad:

Ravenhearth
2016-03-15, 00:20:21
55236

AffenJack
2016-03-15, 00:20:56
Bestätigung, dass Vega erst 2017 kommt wie erwartet und nicht wie manche ala Charlie an dieses Jahr glauben. Danach dann Navi .

Unicous
2016-03-15, 00:22:01
TrueAudio Next...also immerhin haben sie es noch nicht aufgegeben.;)

dildo4u
2016-03-15, 00:22:19
Sind Polaris nur Low End Karten?Kein HBM2

Nightspider
2016-03-15, 00:22:22
True Audio Next - DO WANT!!!

von Richthofen
2016-03-15, 00:22:25
Polaris also definitiv ohne HBM.

N0Thing
2016-03-15, 00:22:51
Vega mit HBM2, also hat Polaris kein HBM oder nur HBM1?

d2kx
2016-03-15, 00:23:10
AMD GPUOpen

http://i.imgur.com/xXeP3id.gif

Ravenhearth
2016-03-15, 00:23:11
Polaris sieht aber eher nach Ende 2016 aus.

maximus_hertus
2016-03-15, 00:24:34
Es ist doch schon länger klar, dass Polaris = GDDR und kein HBM?

Schaun mer mal was noch kommt...

iuno
2016-03-15, 00:25:10
Polaris sieht aber eher nach Ende 2016 aus.
In welcher Welt?
Fuer mich ist das Mitte 2016, Vega dann knapp Ende 16/Anfang 17

Ravenhearth
2016-03-15, 00:25:33
Auf der Roadmap.

N0Thing
2016-03-15, 00:26:22
Es ist doch schon länger klar, dass Polaris = GDDR und kein HBM?

Schaun mer mal was noch kommt...

War das klar? Für mich war Polaris die Architektur nach GCN 1.2 und dort wurde ja sowohl GDDR5 als auch HBM eingesetzt.

Unicous
2016-03-15, 00:26:49
Das ist eindeutig der 31. Juni. Da gibt es auch keine Debatte.

Botcruscher
2016-03-15, 00:27:02
Es ist doch schon länger klar, dass Polaris = GDDR und kein HBM?
Nur nach Wahrscheinlichkeit. Die paar Zubagrümel gaben das bis jetzt nicht her.


Hmmm Next Gen Memory?

Ravenhearth
2016-03-15, 00:27:19
Gibts dann auch Mikrotransaktionen für VR-Spiele von Ubi? :D

Edit: Haben sie dafür Paris aus Unity verwurstet?

Linmoum
2016-03-15, 00:27:25
Auf der Roadmap.
Auf der Roadmap ist das aber Mitte 2016 für Polaris und Ende 2016/Anfang 2017 Vega.

maximus_hertus
2016-03-15, 00:27:32
Auf der Roadmap.

Polaris ist ziemlich genau in der Mitte zwischen 16 und 17. Passt also mit Juni / Juli :)

dildo4u
2016-03-15, 00:27:50
War das klar? Für mich war Polaris die Architektur nach GCN 1.2 und dort wurde ja sowohl GDDR5 als auch HBM eingesetzt.
Die 14nm Yield's sind für Monster GPU's vermutlich noch nich gut genug.

iuno
2016-03-15, 00:28:16
Und was meinst du wovon ich rede?
Auf diese Pixelzaehlerei mit den Einzeichnugngen kann man doch sowieso nie viel geben.
Trotzdem ist es fuer mich genau in der Mitte...

reaperrr
2016-03-15, 00:28:54
Polaris ist ziemlich genau in der Mitte zwischen 16 und 17. Passt also mit Juni / Juli :)
Die Jahreszahlen markieren wohl jeweils den Beginn des Jahres.

Ravenhearth
2016-03-15, 00:29:22
Für mich markieren die Jahreszahlen die Mitte der Jahre... ist einfach nicht eindeutig.

y33H@
2016-03-15, 00:31:53
Hitman, 1440p, 60 fps, D3D12 on Polaris 10.

EDIT
Jaaa, Huddy ;D

Ravenhearth
2016-03-15, 00:32:18
Sehr kurze Demo :D

maximus_hertus
2016-03-15, 00:35:09
Laaaangweilig :/ @ Polaris Demo

Nightspider
2016-03-15, 00:36:12
Für mich markieren die Jahreszahlen die Mitte der Jahre... ist einfach nicht eindeutig.

Niemals. Da werden die Jahresmitten markiert. Vega könnte also noch Ende 2016 aufschlagen imo.

maximus_hertus
2016-03-15, 00:40:37
Kommt da noch was "handfestes" oder nur noch blabla?

iuno
2016-03-15, 00:41:31
blabla
haben diese Veranstaltungen so an sich ;)

N0Thing
2016-03-15, 00:43:19
Die 14nm Yield's sind für Monster GPU's vermutlich noch nich gut genug.

Ja, das denke ich auch. Für mich steht, bzw. stand Polaris für eine neue Architektur, den Nachfolger von GCN 1.2 (Tonga/Fiji). Wenn jetzt schon 6-9 Monate nach Polaris mit Vega die nächste Architektur folgen sollte, finde ich das schon recht seltsam und nicht ideal. Es sei denn, es wäre wirklich nur High-End mit HBM, aber das passt dann wieder nicht mit den Perf/Watt.

maximus_hertus
2016-03-15, 00:44:27
blabla
haben diese Veranstaltungen so an sich ;)

Herbst 13 gab es Hawaii Launch, True Audio, Mantle.
Sommer 15 immerhin R9 Nano und die R300 Produkte

Heute bisher eine grobe Roadmap, aber im Prinzip nichts zu Polaris.

Ravenhearth
2016-03-15, 00:45:14
Wieso passt es nicht mit Perf/W? Vega hätte halt etwas mehr Perf/W durch HBM.

Nightspider
2016-03-15, 00:46:54
Die Stühle sehen aus wie Vive Controller. Half Life 3 VR confirmed? :D

Ravenhearth
2016-03-15, 00:47:13
That Gameworks burn. :D

Edit: Der kann sein Französisch auch kaum verstecken.

Nightspider
2016-03-15, 00:49:46
Öbkoming geepiuhs. ;D sorry

Alter ich schieß mich hier fast vom Stuhl bei dem Akzent. Herrlichst. xD

Unicous
2016-03-15, 00:50:09
D'Artagnan hat Raja den Schnurrbart geklaut.

y33H@
2016-03-15, 00:56:46
Und dem Deutschen hört man an, dass er Deutscher ist ... ich mag das, gibt Leuten was individuelles =)

Akkarin
2016-03-15, 00:57:00
Im klartext: Sie outsourcen driver development zu den game devs ?

Unicous
2016-03-15, 00:58:34
Clarification: We showed Polaris 11 at CES. This was the first showing of Polaris 10.

https://twitter.com/Thracks/status/709528808416673793

AffenJack
2016-03-15, 01:02:33
Und dem Deutschen hört man an, dass er Deutscher ist ... ich mag das, gibt Leuten was individuelles =)

Dafür hätte er mal den Hut weglassen sollen, der kam nur dämlich rüber in meinen Augen.

iuno
2016-03-15, 01:07:33
https://twitter.com/Thracks/status/709528808416673793

War eigentlich klar, endlich die Bestätigung ;)

Ravenhearth
2016-03-15, 01:22:07
plz make it stahp

Edit: Oh, jetzt ist der Stream abgekratzt. :D Wär doch nicht nötig gewesen.

Nightspider
2016-03-15, 01:26:59
It stahped?

Stream abgekackt?

maximus_hertus
2016-03-15, 01:28:47
lüppt wieder ;)

Ravenhearth
2016-03-15, 01:29:00
Ist wieder da.

iuno
2016-03-15, 01:30:02
Ging bei mir schon früher nicht mehr
War aber eh Dreck... Was ist das überhaupt für eine Seite? Und am desktop wird nur flash angeboten, 2016 :rolleyes:
Passiert grad noch was anderes außer Werbung für Microsoft?

Ravenhearth
2016-03-15, 01:35:24
Kommt jetzt noch Radeon Pro Duo?

Unicous
2016-03-15, 01:35:31
ustream ist neben Livestream einer der größten Streaming-Seiten (abgesehen von twitch natürlich und gewissermaßen YT).

Ravenhearth
2016-03-15, 01:37:21
Da kommt wohl nichts mehr zu Polaris. Hätte wenigstens ein paar Architektur-Details, Specs oder ein ungefähres Datum erwartet.

iuno
2016-03-15, 01:40:44
ustream ist neben Livestream einer der größten Streaming-Seiten (abgesehen von twitch natürlich und gewissermaßen YT).

Noch nie gehört. Benutzte sowas aber auch nicht.
Gut, twitch lebt ja auch noch mit ihrem flash player... Sorry für ot

@Ravenhearth: Ein ungefähres Datum gab es doch schon vorher: Jahresmitte. Mehr konnte man doch von diesem Event nicht erwarten. Hätte auch nicht mir der live demo gerechnet, das gibt ja immerhin wieder Stoff für Spekulationen ;)

Ravenhearth
2016-03-15, 01:47:28
Macht Cevat Yerli nun einen auf Keanu Reeves?

y33H@
2016-03-15, 01:48:18
Cevat ist ja haarig geworden :biggrin:

Nightspider
2016-03-15, 01:48:20
Scheiße wie sieht Cevat Yerli denn aus?

Ist der das Double von Keanu Reeves in John Wick 2? :ugly:

iuno
2016-03-15, 01:51:49
@y33h@: kann ich mich auf eine Zusammenfassung verlassen? Bin raus ;)

maximus_hertus
2016-03-15, 01:55:10
Noch ein big announcement?

Edit: Wie erwartet - 2 Stunden blabla, nichts spannendes. Schade :(

Hübie
2016-03-15, 02:04:43
Weckt mich wenns was zu sehen gibt. Bisher nur Mist. Schade. So kann man auch sein Geld und meine Zeit verbrennen.
Edit: Und Ende. X-D

Ravenhearth
2016-03-15, 02:05:05
Ist vorbei. 2 Stunden pure Langeweile.

horn 12
2016-03-15, 06:34:00
AMD vergaggte es wieder mal!
War zu erwarten.

Einige Kleinigkeiten, Eingefügt!

Anscheinend unterlagen wir allen einem Missverständnis: Polaris 11 soll die kleinere Next-Gen-GPU sein und Polaris 10 die größere. Erstere gab es auf der CES 2016 im Januar zu geben, Letztere steckt im Demo-System, welcher auf der Live-Stream-Bühne steht.

Ok, das war's in der Tat. Wir halten fest: Polaris 10 auf dem Niveau einer Radeon R9 Fury X beziehungsweise Geforce GTX 980 Ti oder noch höher. Deutlich mehr Leistung wird es dann spätestens 2017 mit einer größeren Vega-GPU geben

Lurtz
2016-03-15, 07:12:18
Oh Mann, ich glaube ich kaufe mir doch eine R9 390 :frown:

dildo4u
2016-03-15, 07:34:03
Oh Mann, ich glaube ich kaufe mir doch eine R9 390 :frown:
Polaris 10 wird besser sein ebend weil sie kein HBM nutzt kann sie mit 8GB kommen.
Laut der Demo schafft sie 1440p 60 bei Hitman,das ist eine Klasse über der 390.
Vermutlich bei 150 Watt weniger Verbrauch.

Korvaun
2016-03-15, 07:35:36
Mit anderen Worten:
"Effizienzexplosion" in 2016
"Leistungsexplosion" erst 2017

Da können sich alle freuen die ein 980TI oder Fury/X gekauft haben, hält noch dieses Jahr ohne Probleme... Es ist echt traurig wie quälend langsam der Leistungsfortschritt mittlerweile ist :(

Loeschzwerg
2016-03-15, 07:41:58
Langweilig ja, aber so hat man genügend Zeit um Geld zu sparen und dieses dann richtig zu verpulvern :D

Bin trotzdem gespannt was mit Polaris abgeliefert wird. Kein HBM sehe ich nicht als Beinbruch.

Elite_Warrior
2016-03-15, 07:55:01
Auf der Roadmap steht nun eine Effizienzsteigerung von 2,5x. Aufgschrieben ist eine 28nm GPU Ende 2014/Mitte 2015, je nach Betrachtung. Wobei ersteres für mich sinnvoller klingt. Damit würde man als Vergleich eher auf Tongas Release fallen.
Nun stelle man sich ein Chip in der Leistungsklasse Fiji vor und der Perf/Watt Tongas mal 2,5. Kommt mir doch sehr stark vor. Ist sicherlich um Bereich 140 Watt oder weniger.

Natürlich falls AMD kein Bullocks aufschreibt. Aber gut, Milchmädchenrechnung.

Korvaun
2016-03-15, 08:11:39
Auf der Roadmap steht nun eine Effizienzsteigerung von 2,5x. Aufgschrieben ist eine 28nm GPU Ende 2014/Mitte 2015, je nach Betrachtung. Wobei ersteres für mich sinnvoller klingt. Damit würde man als Vergleich eher auf Tongas Release fallen.
Nun stelle man sich ein Chip in der Leistungsklasse Fiji vor und der Perf/Watt Tongas mal 2,5. Kommt mir doch sehr stark vor. Ist sicherlich um Bereich 140 Watt oder weniger.

Natürlich falls AMD kein Bullocks aufschreibt. Aber gut, Milchmädchenrechnung.

Das ist so ziemlich das einzige was ich AMD wirklich glaube. Ist aber auch keine grosse Sache, da ja die bisherigen Karten extreme Schluckspechte waren. Mit Polaris kommt AMD dann (hoffentlich) in normale und erwartbare Regionen für einen 14/16nm-Prozess.

dargo
2016-03-15, 08:28:53
Radeon PRO Duo
Alias Fury X2

http://videocardz.com/58547/amd-launches-radeon-pro-duo
Interessante Kühllösung. Da ist ja alles wieder im Wasserkreislauf, hoffentlich fiept das Ding nicht wieder unnötig. :cool:

Polaris 10 wird besser sein ebend weil sie kein HBM nutzt kann sie mit 8GB kommen.
Laut der Demo schafft sie 1440p 60 bei Hitman,das ist eine Klasse über der 390.
Vermutlich bei 150 Watt weniger Verbrauch.
Polaris 10 verbraucht also 50W? :uconf2:

Edit:
Ich tippe mal einfach ins Blaue... Polaris 10 wird ca. 130-150W bei Leistung der R9 390X +20% verbrauchen. Mal sehen wie stark meine Schätzung abweicht. :D

victore99
2016-03-15, 08:51:38
Interessante Kühllösung. Da ist ja alles wieder im Wasserkreislauf, hoffentlich fiept das Ding nicht wieder unnötig. :cool:


Polaris 10 verbraucht also 50W? :uconf2:
AMD zeigt sich lernfähig: 3x8pin
Würde mich wundern, wenn die nochmal so ne Pumpe verbauen, bei der FuryX hat man das ja auch hinbekommen.

Und wenn der kleine Polaris bei 50W steht - au. Würde interessant, aber irgendwie sinnlos. Abgesehen vom Highend wird die Energieeffizienz nicht zum Problem, zumindest meistens.
Btw: gibt es eine GloFo-Fab, die überhaupt 400mm^2 -Chips bauen kann?

dargo
2016-03-15, 08:55:30
Und wenn der kleine Polaris bei 50W steht - au.
Das war sarkastisch gemeint. ;)

Schnoesel
2016-03-15, 08:58:19
War ja klar dass die High End erst gegen Ende des Jahres, Anfang 2017 kommen. Bin darüber auch nicht unglücklich, dann hät meine FuryX noch ein Weilchen und mit Vega kommt dann auch gleich Zen mit rein.

Wichtiger ist für AMD eh der Preisbereich bis 300€.

dargo
2016-03-15, 09:03:19
Wichtiger ist für AMD eh der Preisbereich bis 300€.
Korrekt, gerade da muss man punkten.

Lurtz
2016-03-15, 09:06:21
Korrekt, gerade da muss man punkten.
Die GTX 970 lag darüber und ist die meistgelistete Einzelkarte bei Steam.

dargo
2016-03-15, 09:09:11
Du weißt ganz genau wie ich es meine.

ilibilly
2016-03-15, 09:11:47
Hmm ich frag mich wer die duo kaufen soll für 1500€
Dann doch lieber 2x Nano für 980€
Performance dürfte dich da nix nehmen.
Takt ist ja bei der duo weniger , naja mal schaun ob multigpu mit vr richtig ins laufen kommt....

dargo
2016-03-15, 09:18:34
Hmm ich frag mich wer die duo kaufen soll für 1500€

Im Vergleich zu einer Titan Z damals ein Schnäppchen. ;)

Gipsel
2016-03-15, 09:25:24
Btw: gibt es eine GloFo-Fab, die überhaupt 400mm^2 -Chips bauen kann?Na klar! Auch 600+mm², wenn es sein soll. Ist Alles nur eine Frage des Yields und der Kosten.

Botcruscher
2016-03-15, 09:29:37
Hmm ich frag mich wer die duo kaufen soll für
Für den ganzen aufgebauschten Minicomputerhype und VR... Logische Gründe dafür existieren eh nicht. Am Ende sind 2 Polaris bei halben Verbrauch so schnell.

radical83
2016-03-15, 09:43:40
Ich hab das AMD Event nicht mit eigenen Augen verfolgt, jedoch kann man aus den bisherigen Zusammenfassungen schlussfolgern, dass es keine Neuigkeiten zu Polaris gibt, die einen dazu bewegen würden auf diese Karten zu warten.
Falls Pascal, wie spekuliert wird, zur oder kurz nach der Computex erscheint, frage ich mich wie AMD es schaffen will Markanteile zurückzuerobern?

Lurtz
2016-03-15, 09:53:24
Du weißt ganz genau wie ich es meine.
Ich glaube tatsächlich dass der höherpreisige Bereich wichtiger wird. Sieht man doch immer wieder, der PC-Markt stürzt immer weiter ab, aber Spieler lassen sich ihre Hardware momentan viel kosten.

Dorn
2016-03-15, 10:05:28
Ich glaube tatsächlich dass der höherpreisige Bereich wichtiger wird. Sieht man doch immer wieder, der PC-Markt stürzt immer weiter ab, aber Spieler lassen sich ihre Hardware momentan viel kosten.
Bei der nächsten Graka geh ich zum ersten mal bis auf 500 Euro, aber ich bleibe auch gerne zwischen 300-350 Euro wenn die Leistung (Gesamtpaket) stimmt.

iuno
2016-03-15, 10:12:31
Ich hab das AMD Event nicht mit eigenen Augen verfolgt, jedoch kann man aus den bisherigen Zusammenfassungen schlussfolgern, dass es keine Neuigkeiten zu Polaris gibt, die einen dazu bewegen würden auf diese Karten zu warten.
Falls Pascal, wie spekuliert wird, zur oder kurz nach der Computex erscheint, frage ich mich wie AMD es schaffen will Markanteile zurückzuerobern?
"Polaris 10" (vermutlich 480 oder 490(X)) soll wie bereits grob vermutet etwa auf Hawaii-Niveau kommen und wird dabei wohl weniger Verbrauchen als eine GTX 980. 8 GiB GDDR5 sind wohl sicher. Preis und genaueres Erscheinungsdatum als "Jahresmitte" gibt es natuerlich nicht.

Na klar! Auch 600+mm², wenn es sein soll. Ist Alles nur eine Frage des Yields und der Kosten.
Gilt das auch fuer alle Belichtungsmaschinen, also insbesondere derer, die 14 LPP koennen?

Thunder99
2016-03-15, 10:47:35
Nur Hawaii Niveau wäre ein Witz

iuno
2016-03-15, 10:49:22
Wieso? Du weisst nicht wie gross das Teil ist und was es kostet :rolleyes:

Dorn
2016-03-15, 10:49:59
Nur Hawaii Niveau wäre ein Witz
Ja sollte doch bitte (mind.) auf Augenhöhe zur 980 TI sein.

dildo4u
2016-03-15, 10:50:11
Sie ist im Bereich der Fury X eine 390X schafft keine 1440p/60 bei Hitman.


http://abload.de/img/hitmande2poej.png

Thunder99
2016-03-15, 10:59:56
+50% müssen es sein. Sonst ist es keine x90er Bezeichnung Wert (Marketing hin oder her)

iuno
2016-03-15, 11:13:07
Es ist ja auch ueberhaupt nicht gesagt, dass es die 490 wird. Wenn sie nicht ein halbesJahr spaeter mit der 500er Serie anfangen wollen und High-End nicht wieder aus dem Namensschema faellt (was ich hoffe), wird das eher die 480.

Sie ist im Bereich der Fury X eine 390X schafft keine 1440p/60 bei Hitman.
Habe Hitman Performance nicht im Kopf, nur das:
Laut der Demo schafft sie 1440p 60 bei Hitman,das ist eine Klasse über der 390.
Und offensichtlich falsch verstanden. Wobei - wurden die Settings und restliche Hardware eigentlich kommuniziert? War das DX12 oder 11?

noch was dazu:
2019 "Navi" nach Vega mit "Nextgen Memory" :uponder:

http://cdn2.24live.co/images/2016/03/15/1457997562569752.jpg
Scalability... Navi mit MCMs? :ulol:

radical83
2016-03-15, 11:17:30
"Polaris 10" (vermutlich 480 oder 490(X)) soll wie bereits grob vermutet etwa auf Hawaii-Niveau kommen und wird dabei wohl weniger Verbrauchen als eine GTX 980. 8 GiB GDDR5 sind wohl sicher. Preis und genaueres Erscheinungsdatum als "Jahresmitte" gibt es natuerlich nicht.


Alles andere als Fury-Niveau, für Polaris 10, wäre für mich eine Enttäuschung.
Ich denke die werden sie auch kaum für 300,- € anbieten?!

Ohne die Einstellungen zu kennen kann man mit den mit 60fps in 1440p von Hitman nichts anfangen.
Mit Effizienz alleine bewegt man kaum jemanden zum Neukauf.
DP 1.3 bringt mir im Sommer auch nichts, da passende Monitore auch frühestens zum Jahreswechsel erhältlich sein werden.
True Audio Next? Wurde in der ursprünglichen Version bereits von den Entwicklern vollständig ignoriert.

Meiner Ansicht nach hat AMD kein Argument pro Pascal hervorgebracht das einen Käufer zum Warten animieren könnte.

HOT
2016-03-15, 11:21:21
Da Vega10 offenbar recht zeitnah erscheinen soll ist es sicherlich ziemlich wahrscheinlich, dass Polaris 10 die R9 480 wird und Polaris 11 dann die R9 470. Darunter wird man die 300er-Serie einfach erhalten. Vega 10 wär dann R9 490. Als Fury könnte man dann Vega 10 mit 16GB und mehr TDP anbieten.
Da Polaris 10 > Fiji-Leistung bieten wird und wahrscheinlich 384Bit GDDR5 nötig sein wird, sind 350mm² ziemlich wahrscheinlich, während für Polaris 11 sicherlich 160mm² und 128 oder 196Bit wahrscheinlich sind. Vega 10 dürfte deutlich darüber liegen und >500mm² auf die Waage bringen mit 4 HBM2-Stacks. Ob noch weitere Vega-Chips geplant sind ist unbekannt.

Bei Navi steht "scalability" was auch immer damit gemeint sein mag. Neue Grundarchitektur vllt.?

DinosaurusRex
2016-03-15, 11:25:13
Bei Navi steht "scalability" was auch immer damit gemeint sein mag.


http://img11.deviantart.net/e8b4/i/2010/080/b/5/navi_by_hextupleyoodot.jpg

Ailuros
2016-03-15, 11:42:07
Tinkerbell@steroids? :freak:

dargo
2016-03-15, 11:44:13
Ja sollte doch bitte (mind.) auf Augenhöhe zur 980 TI sein.
Wird auch so kommen. Die R9 390X ist doch schon bereits im Bereich der 980TI. Nicht auf den alten DX11 Gammel schauen. ;)

btw.
Wenn Polaris 10 allerdings in diesen Bereichen schlummert vergesst ganz schnell gleich die 300€ bei 6-8GB. Das wird eher Richtung ~500€ gehen.

Korvaun
2016-03-15, 11:45:16
Da Vega10 offenbar recht zeitnah erscheinen soll ist es sicherlich ziemlich wahrscheinlich, dass Polaris 10 die R9 480 wird und Polaris 11 dann die R9 470. Darunter wird man die 300er-Serie einfach erhalten. Vega 10 wär dann R9 490. Als Fury könnte man dann Vega 10 mit 16GB und mehr TDP anbieten.
Da Polaris 10 > Fiji-Leistung bieten wird und wahrscheinlich 384Bit GDDR5 nötig sein wird, sind 350mm² ziemlich wahrscheinlich, während für Polaris 11 sicherlich 160mm² und 128 oder 196Bit wahrscheinlich sind. Vega 10 dürfte deutlich darüber liegen und >500mm² auf die Waage bringen mit 4 HBM2-Stacks. Ob noch weitere Vega-Chips geplant sind ist unbekannt.

Bei Navi steht "scalability" was auch immer damit gemeint sein mag. Neue Grundarchitektur vllt.?

Ich schätze mal (Marketing wird versuchen die Zahlen möglichst hoch anzusetzten, größer ist besser u.ä.):

Polaris 11 wird R9 480/X
Polaris 10 wird R9 490/X
Vega 10 wird dann Fury/X Next/Ultra oder wie immer sie das dann nennen wollen

Korvaun
2016-03-15, 11:53:03
Wird auch so kommen. Die R9 390X ist doch schon bereits im Bereich der 980TI. Nicht auf den alten DX11 Gammel schauen. ;)

btw.
Wenn Polaris 10 allerdings in diesen Bereichen schlummert vergesst ganz schnell gleich die 300€ bei 6-8GB. Das wird eher Richtung ~500€ gehen.

Polaris 10 wird sicher >500€ kosten, wenn nicht gar 599€. Leistung leicht oberhalt ner Fury/X aber 8GB und wesentlich sparsamer, wenns dumm läuft können es auch 699€ werden für eine 490X (kommt wohl auch auf NVs Preisvorstellungen für Pascal an)...

Menace
2016-03-15, 11:56:22
Erstaunlich wie gekonnt die Erwartungen hier hochgeschraubt werden (auf welcher Grundlage eigentlich?). Die Gründe für diese Erwartungen ist doch damit man am Tage der Veröffentlichung "fail" rufen kann.

Zu jedem Generationswechsel bei AMd das gleiche. :freak:

radical83
2016-03-15, 11:57:22
@Korvaun

Wenn es so kommt, wird AMD erneut keine oder nur kaum Käufer für ihre neuen Karten finden.

Hübie
2016-03-15, 11:57:45
Wird auch so kommen. Die R9 390X ist doch schon bereits im Bereich der 980TI. Nicht auf den alten DX11 Gammel schauen. ;)

btw.
Wenn Polaris 10 allerdings in diesen Bereichen schlummert vergesst ganz schnell gleich die 300€ bei 6-8GB. Das wird eher Richtung ~500€ gehen.

Im Grunde könnte es jetzt so kommen, dass die Rechenpower (ALUs, TMUs, ROPs...) einfach mehr auf die Straße gebracht werden kann. Die Grenada und GM200-Chips sind ja in vielerlei Hinsicht von den Daten gleich oder ähnlich.

Oder aber es wird nun immer mehr die Entwicklung fokussiert wodurch sich automatisch Vorteile ergeben (AMD<->Konsolen).

maximus_hertus
2016-03-15, 11:59:32
Wenn Polaris 10 Fury Niveau erreicht, warum dann die Radeon Pro Duo? Das macht nicht wirklich Sinn, gerade da ja spekuliert wird, dass der VK Start erst kurz vor dem Polaris Launch stattfindet.

Und 2 x 4 GiB für 1500 USD sind ja richtig unsexy.

Es sei denn Polaris 10 kommt oberhalb der Fury bzw. Titan X raus und wird für schlanke 999 USD angeboten. Dann bleibt eine sehr kleine Mininische für die Pro Duo.

dildo4u
2016-03-15, 12:04:52
AMD's Raja Koduri talks moving past CrossFire, smaller GPU dies, HBM2 and more.

https://youtu.be/4qJj1ViyyPY

Wenn Polaris 10 Fury Niveau erreicht, warum dann die Radeon Pro Duo? Das macht nicht wirklich Sinn, gerade da ja spekuliert wird, dass der VK Start erst kurz vor dem Polaris Launch stattfindet.

Und 2 x 4 GiB für 1500 USD sind ja richtig unsexy.

Es sei denn Polaris 10 kommt oberhalb der Fury bzw. Titan X raus und wird für schlanke 999 USD angeboten. Dann bleibt eine sehr kleine Mininische für die Pro Duo.
Die Radeon Pro Duo ist für Entwickler gedacht da sie in Zukunft die Arbeit von AMD übernehmen müssen wenn Crossfire in DX12 und Vulkan skalieren soll.
Daher wurde die Karte auch nicht Fury X2 genant um kenntlich zu machen das es sich eher um ein Prosumer Produkt handelt.

Botcruscher
2016-03-15, 12:12:06
Erstaunlich wie gekonnt die Erwartungen hier hochgeschraubt werden (auf welcher Grundlage eigentlich?).
Den 200 bis 250mm² für den größeren Polaris und eine 2,5 bis 2,8 mal höhere Packdichte.
Irgendwo müssen dann noch ordentliche Architekturverbesserungen rein.

Es gibt also schon einiges zu erwarten.

Sunrise
2016-03-15, 12:12:32
Wenn Polaris 10 Fury Niveau erreicht, warum dann die Radeon Pro Duo? Das macht nicht wirklich Sinn, gerade da ja spekuliert wird, dass der VK Start erst kurz vor dem Polaris Launch stattfindet.

Und 2 x 4 GiB für 1500 USD sind ja richtig unsexy.

Es sei denn Polaris 10 kommt oberhalb der Fury bzw. Titan X raus und wird für schlanke 999 USD angeboten. Dann bleibt eine sehr kleine Mininische für die Pro Duo.
Einfach keine Zusammenhänge herstellen wollen, wo keine sind. Die Fury Pro Duo läuft vollkommen außer Konkurrenz, ein Produkt dass nur für bestimmte Zielgruppen überhaupt interessant ist.

Allerdings dürfen wir nicht vergessen, dass AMD für VR derzeit performante Lösungen braucht, und da Vega Duo (mit min. 8-16GB HBM2) derzeit noch nicht in Reichweite ist, bemüht sich AMD eben, hier bereits eine Basis aufzubauen.

@Thema Scalability:
Es sollte doch eigentlich sonnenklar sein, oder? Das ist der Plan, den AMD schon die ganze Zeit verfolgt, das ist quasi das i-Tüpfelchen, nachdem man vorerst das Effizienz- und das Bandbreiten-Problem gelöst hat. Danach geht man in Richtung der Skalierbarkeit von kleinen Dies von ganz unten nach ganz oben. Hierfür benötigt man aber nicht nur Software- sondern auch Hardware-Grundvoraussetzungen, die derzeit ja schon am Aufkeimen sind. Wie das allerdings technisch genau gelöst wird, da werden wir uns wohl überraschen lassen müssen.

Vega wird eine reinrassige High-End-GPU und Polaris ist eher sowas wie 380X und 390X, das sind GPUs für die Masse, die aber für viele Käufer umso interessanter werden, und die 390X sind ja derzeit recht beliebt.

Sofern NV da nicht noch etwas "Besseres" anbieten kann, hat AMD hier eine gute Chance, NV etwas an Markt wegzunehmen. Sowas passiert aber nicht von jetzt auf nachher.

Kartenlehrling
2016-03-15, 12:13:02
Ich sehe multigpu in den nächsten 10 jahre wichtig, man baut wie bei den Mobilteile, 2 oder 4 kleine GPU auf einem Chip.

dargo
2016-03-15, 12:14:16
Was für ein SI können wir eigentlich bei Polaris 10 erwarten? Von 512Bit wird man sich wohl endlich trennen. Reichen 256Bit? Ich weiß gar nicht mehr wie schnell ein non HBM Speicher heute taktet. :freak: Oder wird man 384Bit brauchen, was wiederum in 6GB speicher resultiert? 12GB wohl eher nicht denke ich.

Edit:
Also mit 256Bit wird das bei GDDR5 nichts. Da erreicht man maximum "mickrige" 256GB/s mit 4Ghz.

radical83
2016-03-15, 12:19:28
Sofern NV da nicht noch etwas "Besseres" anbieten kann, hat AMD hier eine gute Chance, NV etwas an Markt wegzunehmen. Sowas passiert aber nicht von jetzt auf nachher.

NV wird nicht einmal was besseres anbieten müssen um ihre Marktanteile zu halten.

Sunrise
2016-03-15, 12:24:55
NV wird nicht einmal was besseres anbieten müssen um ihre Marktanteile zu halten.
Das ist mit Verlaub gesagt ganz großer Quatsch, den gleichen Traum haben schon andere geträumt. Sobald Polaris10 und Polaris11 rauskommen, ist die 970/980 recht schnell vergessen, da GM204 vom Featureset und Video-IP weit weit hinterherhinkt, hier ist nur GM206 aktueller, der ist aber zu langsam.

NV muss es allerdings nicht zulassen, dass es soweit kommt, wenn sie GP104 schnell genug liefern können. Insofern ist dort AMDs Stellung weiterhin ungewiss. Es hängt sehr viel von Marketing, der allgemeinen Medienmache und Presse ab, und natürlich vom Endpreis, wie gut AMD diese GPUs letztendlich verkaufen können wird. Jedenfalls wird es dieses Jahr schonmal sehr spannend werden, auch wenn wohl grobe Details schon vollkommen richtig spekuliert wurden.

Frosty
2016-03-15, 12:26:24
Was für ein SI können wir eigentlich bei Polaris 10 erwarten? Von 512Bit wird man sich wohl endlich trennen. Reichen 256Bit? Ich weiß gar nicht mehr wie schnell ein non HBM Speicher heute taktet. :freak: Oder wird man 384Bit brauchen, was wiederum in 6GB speicher resultiert? 12GB wohl eher nicht denke ich.

Edit:
Also mit 256Bit wird das bei GDDR5 nichts. Da erreicht man maximum "mickrige" 256GB/s mit 4Ghz.


6 gb speicher wären für die größere polaris version aber schon wieder etwas wenig. 8 gb sollten es mindestens sein, zumal ja grenada bereits damit ausgestattet ist.

y33H@
2016-03-15, 12:27:28
AMD's Raja Koduri talks moving past CrossFire, smaller GPU dies, HBM2 and more.

https://youtu.be/4qJj1ViyyPYDas hier fand ich interessant:
Though he didn’t say it outright, it appears that Polaris will be using HBM1, leaving me to wonder about the memory capacity limitations inherent in that. Has AMD found a way to get past the 4GB barrier? Zu HBM1 gibt's Roadmaps mit 2-GB-Stacks, vll hat SK Hynix die heimlich doch gebaut ... die sollten einst auch auf die Fury X kommen, sprich 8 GByte.

Botcruscher
2016-03-15, 12:33:59
Dann würden wir zumindest die fury x2 damit sehen. Mit der Roadmap können wir HBM2 ausschließen.
Das wird ganz simpel ein 256er GDDR5 für den Massenmarkt. Kompression und Cache müssen eh überarbeitet werden. Für die Leistungsklasse 980GTX hat es auch gereicht.

von Richthofen
2016-03-15, 12:35:28
Das Twitter-Posting mit den tanzenden grün-roten Chili-Schoten war wohl doch nur ein Anheizer.

dargo
2016-03-15, 12:36:32
6 gb speicher wären für die größere polaris version aber schon wieder etwas wenig. 8 gb sollten es mindestens sein, zumal ja grenada bereits damit ausgestattet ist.
Wird vom SI abhängen. Bei 384Bit werdens 6GB, bei 512Bit 8GB. An ein 256Bit SI glaube ich bei Polaris 10 nicht. Damit bekommt man keine zufriedenstellende Bandbreite für die Rohleistung hin. Da hilft die Kompression von GCN 1.2 auch nicht. Es sei denn wir sehen GDDR5X, dann sieht die Sache wieder anders aus.

dildo4u
2016-03-15, 12:37:44
Edit:
Also mit 256Bit wird das bei GDDR5 nichts. Da erreicht man maximum "mickrige" 256GB/s mit 4Ghz.
GDDR5X soll im Sommer kommen.

http://www.golem.de/news/videospeicher-gddr5x-geht-im-sommer-in-serienfertigung-1602-119029.html

Ich schätze mal Low End Polaris 11 kommt zuerst mit GDDR5 und Polaris 10 mit GDDR5X im Herbst.

Frosty
2016-03-15, 12:38:26
An ein 256Bit SI glaube ich bei Polaris 10 nicht. Damit bekommt man keine zufriedenstellende Bandbreite für die Rohleistung hin. Da hilft die Kompression von GCN 1.2 auch nicht.


und was wenn es doch 256 bit gddr5x wird?:freak:

dargo
2016-03-15, 12:45:27
GDDR5X soll im Sommer kommen.

http://www.golem.de/news/videospeicher-gddr5x-geht-im-sommer-in-serienfertigung-1602-119029.html

Ich schätze mal Low End Polaris 11 kommt zuerst mit GDDR5 und Polaris 10 mit GDDR5X im Herbst.
Das könnte hinkommen. Bei 256Bit hätte man mit 2,5-3Ghz 320-384GB/s.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5X-Micron-1170578/

Möglicherweise wird die Kompression nochmals verbessert.

radical83
2016-03-15, 12:51:36
Das ist mit Verlaub gesagt ganz großer Quatsch, den gleichen Traum haben schon andere geträumt. Sobald Polaris10 und Polaris11 rauskommen, ist die 970/980 recht schnell vergessen, da GM204 vom Featureset und Video-IP weit weit hinterherhinkt, hier ist nur GM206 aktueller, der ist aber zu langsam.

Da wette ich dagegen. Die De- und Komprimierung von Videos sind vielleicht ein nettes Feature, sie werden aber kaum die Kaufentscheidung im High-End/Enthusiasten Segment beeinflussen können.
Diejenigen die wirklich großen Wert auf Videowiedergabe legen, haben sich sicherlich mit einer 960 bzw. mit einer entsprechenden APU versorgt.

Nvidia wird auch nicht nur Däumchen drehen. Eine 1070/1080 wird sicherlich die gleichen Videofeatures bieten. Falls diese deutlich später erscheint als Polaris, werden die Preise von Maxwell entsprechend nach unten korrigiert.
Ich bin mir sicher, dass eine 980 für 399,- sicherlich mehr Käufer findet als ein 20% schnellerer Polaris 10 für >500,- €.

AMD versäumt es Begehrlichkeiten zu wecken. Ich persönlich sehe im Moment nichts was dafürspricht auf Polaris zu warten oder von einer Karte im Leistungsbereich ab 290/970 zu wechseln.

Korvaun
2016-03-15, 13:02:56
Besondere AMD-Videofeatures und vor allem TrueAudio sind ja wohl völlig uninteressant für 99,9% der User, selbst der HighEnd-User. Ich frag mich immer noch wer bei AMD entschieden hat TrueAudio in GRAFIK-Hardware zu gießen (ist doch in Hardware oder?), völlig sinnlos. nV hat nur ein Problem aktuell, DX12.

iuno
2016-03-15, 13:08:23
Ja es ist in Hardware gegossen.
Imho macht Sound Hardware in der GPU Sinn. Wir haben dort ja auch "Video Hardware", die hat auch nichts mit 3D gfx zu tun. Vielleicht ist das auch einfach bei den Konsolen abgefallen und man hat es halt dazu gepackt, das halte ich sogar fuer wahrscheinlich. An die size braucht das sicher "nichts"
Imho sollte es halt transparent sein, also implizit verwendet werden koennen und in den Radeon Settings ein Panel sein mit den Moeglichkeiten, die einee Soundkarte auch bietet.
Vielleicht kommt ja was in die Richtung mit "TrueAudio Next"

Korvaun
2016-03-15, 13:15:29
Video-Hardware hat ja immerhin noch was mit Bildausgabe auf dem Monitor zu tun. Audio-Hardware würde ich eher im Chipsatz integrieren, dann könnten die Boardhersteller die dedizierte Audio-Hardware einsparen und bestenfalls billiger anbieten.

Sunrise
2016-03-15, 13:24:47
Falls diese deutlich später erscheint als Polaris, werden die Preise von Maxwell entsprechend nach unten korrigiert.
Ich bin mir sicher, dass eine 980 für 399,- sicherlich mehr Käufer findet als ein 20% schnellerer Polaris 10 für >500,- €.
Das ist auch der einzige Punkt in welchem ich zustimme, daher muss AMD mit dem Preis aufpassen. Der darf nicht viel höher als die 980 liegen, NV hat aufgrund 28nm, 256bit Interface und wahnwitzigen 4GB GDDR5 hier natürlich enormen Spielraum vom Preis, das kann man auch nicht wegdiskutieren. Aber sie werden egal wie tief sie runtergehen nichtmehr "aktuell" sein. AMD muss das einfach nur im Marketing entsprechend ausschlachten und der Preis muss sitzen, dann kann man NV auf jedenfall wieder ein paar Prozente Marktanteil streitig machen. Von einer kompletten Kehrtwende geht niemand aus, AMD muss sich aber besser positionieren, denn ihre GPUs in den entsprechenden Segmenten, die derzeit im Markt sind, sind noch deutlich älter. Es kann also nur besser werden, aus AMDs Sicht.

AMD versäumt es Begehrlichkeiten zu wecken. Ich persönlich sehe im Moment nichts was dafürspricht auf Polaris zu warten oder von einer Karte im Leistungsbereich ab 290/970 zu wechseln.
Naja, VR ist jetzt schon ein recht gutes Argument für viele, die Begehrlichkeiten im PC-Markt sind ja vielerlei. Jene die sowohl Spiele spielen, Filme gucken, VR ausprobieren, usw. Wir wissen sicher auch noch nicht alles, da AMD dies erst bekanntgeben wird, wenn sie kurz vor Auslieferung stehen, um die eigenen Abverkäufe (volle Lager) nicht zu gefährden.

Jemand, der deutlich >500 EUR für eine GPU ausgibt, der spielt schon per Definition schon lange nichtmehr im Massenmarkt, da passen die Anforderungen auch nicht dazu. Insofern ist im Bereich von sagen wir 250-500 EUR eine ganze Menge Platz, den man nutzen kann.

Jedenfalls ist der Einstieg bei AMD insgesamt inkl. FreeSync-Monitorauswahl dann deutlich besser, als es derzeit ist und darauf müssen sie eben aufbauen.

Ganz oben wird sich Vega gegen GP100 bzw. GP102 stellen müssen, das steht natürlich auch außer Frage. NV kann, wenn sie gut geplant haben und nichts schief geht natürlich immer entsprechend kontern, aber garnichts zu verändern, so wie es bei dir geklungen hat (also auch keine Preise anpassen), das kann man vergessen und wäre auch irgendwie geschäftsschädigend.

iuno
2016-03-15, 13:33:20
Video-Hardware hat ja immerhin noch was mit Bildausgabe auf dem Monitor zu tun. Audio-Hardware würde ich eher im Chipsatz integrieren, dann könnten die Boardhersteller die dedizierte Audio-Hardware einsparen und bestenfalls billiger anbieten.
Und wie genau hat das Encoding von Videomaterial zur Archivierung mehr mit der urspr. Einsatzzweck einer Grafikkarte zu tun als die Moeglichkeit, die Tonausgabe die ueber HDMI gemacht werden MUSS (und das geht nicht ohne Bildsignal) beeinflussen zu koennen? Oder das Abgreifen des Bildsignals zum encoding um es dann zu streamen/uploaden? Imho gar nicht, eher das Gegenteil.

Wenn du DTS-HD usw. als Bitstream uebertragen willst, brauchst du HDMI zur Soundausgabe. Wenn du digital mit PCM mehr als 2 laecherliche Kanaele uebertragen willst, brauchst du HDMI.

Sunrise
2016-03-15, 13:41:31
Video- und Audiowiedergabe per HDMI von der Grafikkarte ist allein deshalb schon gut, weil das direkt mit nur einem Kabel ins HMD oder wo auch immer geführt werden kann, ohne jeden Umweg. Die Ortung wird bei HMDs wichtiger denn je werden, hier kann man die Rechenpower, die derzeit oft brach liegt, sicher gut nutzen. Die Haupt-CPU dafür zu verwenden ist eigentlich purer Unsinn.

Dass der Audioteil aktuell nicht genutzt wird ist schade, spielt aber sowieso keine Rolle, da das hinsichtlich Platz auf dem Die vor allem bei 14nm FinFET und Co. wohl kaum noch eine Rolle spielt.

Damals hätte man sich die Finger danach geleckt, und dafür eigens die Spiele entwickelt, mit mehreren alternativen Codepfaden bzw. auch der Unterstützung von dedizierten Soundkarten, die aber nur noch deshalb gebraucht werden, weil sie spezielle Bedürfnisse besser erfüllen können.

radical83
2016-03-15, 13:55:49
Insofern ist im Bereich von sagen wir 250-500 EUR eine ganze Menge Platz, den man nutzen kann.

Ich bin mir gar nicht so sicher ob da soviel Platz ist.

Setzt AMD den Preis über 500,- € an, muss die Karte auch entsprechenden Mehrwert gegenüber Fury/Fury Nano liefern und das nicht nur mit besserer Effizienz, sondern sich auch Leistungsmäßig von diesen absetzen oder mehr Speicher bieten.
Aber wie du schon selbst gesagt hast, die Anzahl der Käufer in dieser Preisklasse ist überschaubar.

Wird der Preis irgendwo zwischen 400,- bis 500,- €, kann AMD nur hoffen, dass kaum noch Restbestände an Fijis und Grenadas vorhanden sind, da sie diese nur noch mit einer deutlichen Preissenkung loswerden.

VR sehe ich auch eher skeptisch als Verkaufsargument.
1. Die Hardware kostet bald das doppelte des ursprünglich vermuteten Preises.
2. Es gibt noch keine/kaum Spiele oder Software die für diesen Bereich als Aushängeschild fungieren können.
Ich denke bis 1. und 2. abgearbeitet ist, ist VR auch bereits im Mainstream GPU-Segment angekommen.

iuno
2016-03-15, 13:58:07
Die Haupt-CPU dafür zu verwenden ist eigentlich purer Unsinn.
Vor allem weil so ein Audio DSP wirklich simpel und billig ist. Sollte dadurch wirklich die CPU massgeblich entlastet werden, ist es schon wieder problematisch. Das ginge dann ueber das was Nvidia die letzte Zeit mit GameWorks gemacht hat deutlich hinaus.

Macht Cevat Yerli nun einen auf Keanu Reeves?
Cevat ist ja haarig geworden :biggrin:
Scheiße wie sieht Cevat Yerli denn aus?

Ist der das Double von Keanu Reeves in John Wick 2? :ugly:
und keiner hat ein Bild gepostet? :lol:

Was hat eigentlich Cevat Yerli da gestern gemacht? Hat er auch nur DX12 hochgelobt?

Palpatin
2016-03-15, 14:01:29
Wird der Preis irgendwo zwischen 400,- bis 500,- €, kann AMD nur hoffen, dass kaum noch Restbestände an Fijis und Grenadas vorhanden sind, da sie diese nur noch mit einer deutlichen Preissenkung loswerden.


Der Fiji abverkauf hat ja schon begonnen: http://geizhals.de/xfx-radeon-r9-fury-pro-triple-dissipation-r9-fury-4tf9-a1329253.html?hloc=at&hloc=de
Schon ein Anzeichen dafür das wir wohl bald mehr Leistung im ~400-500€ erwarten können.

Gipsel
2016-03-15, 14:09:39
Na klar! Auch 600+mm², wenn es sein soll. Ist Alles nur eine Frage des Yields und der Kosten.
Gilt das auch fuer alle Belichtungsmaschinen, also insbesondere derer, die 14 LPP koennen?An denen ändert sich gar nicht soo viel. Globalfoundries nutzt dem Vernehmen nach weiterhin Geräte der TwinScan NXT-Serie von ASML. Die haben alle ein Reticle Limit von 26mm x 33mm und sind im Prinzip teilweise bereits für 10nm (sogar bis 7nm) tauglich, zumindest die besseren Versionen neueren Datums (also z.B. 1980Di für Sub 10nm, die 1970Ci sollten mindestens noch 14nm schaffen).

dargo
2016-03-15, 14:10:07
Setzt AMD den Preis über 500,- € an, muss die Karte auch entsprechenden Mehrwert gegenüber Fury/Fury Nano liefern und das nicht nur mit besserer Effizienz, sondern sich auch Leistungsmäßig von diesen absetzen oder mehr Speicher bieten.
Aber wie du schon selbst gesagt hast, die Anzahl der Käufer in dieser Preisklasse ist überschaubar.

Das ist keine Hexerei bei 4GB Fiji. ;)

Was spricht eigentlich gegen eine R9 490X für 500€ und einen Salvage (weniger SPs, Takt und möglicherweise SI, ergo auch Speicher) für 350€?

radical83
2016-03-15, 14:16:28
Das ist keine Hexerei bei 4GB Fiji. ;)

Zumindest wenn weiter HBM eingesetzt wird, aber HBM2 noch nicht verfügbar ist, muss AMD ganz schön zaubern. :wink:

Korvaun
2016-03-15, 14:19:45
Video- und Audiowiedergabe per HDMI von der Grafikkarte ist allein deshalb schon gut, weil das direkt mit nur einem Kabel ins HMD oder wo auch immer geführt werden kann, ohne jeden Umweg. Die Ortung wird bei HMDs wichtiger denn je werden, hier kann man die Rechenpower, die derzeit oft brach liegt, sicher gut nutzen. Die Haupt-CPU dafür zu verwenden ist eigentlich purer Unsinn.

Dass der Audioteil aktuell nicht genutzt wird ist schade, spielt aber sowieso keine Rolle, da das hinsichtlich Platz auf dem Die vor allem bei 14nm FinFET und Co. wohl kaum noch eine Rolle spielt.

Damals hätte man sich die Finger danach geleckt, und dafür eigens die Spiele entwickelt, mit mehreren alternativen Codepfaden bzw. auch der Unterstützung von dedizierten Soundkarten, die aber nur noch deshalb gebraucht werden, weil sie spezielle Bedürfnisse besser erfüllen können.

Ich nehme alles zurück und behaupte das Gegenteil ;)

Habe daran gar nicht gedacht, aber es ist in der Tat für VR-Brillen sehr praktisch, wäre sogar ein Kaufargument für mich da ich mit eine Oculus vorbestellt habe :)

Korvaun
2016-03-15, 14:22:34
Das ist keine Hexerei bei 4GB Fiji. ;)

Was spricht eigentlich gegen eine R9 490X für 500€ und einen Salvage (weniger SPs, Takt und möglicherweise SI, ergo auch Speicher) für 350€?

Nichts, außer das AMD/NV möglichst viel Ged verdienen wollen und zumindest NV je gerne möglichst hohe Preise verlangt...

iuno
2016-03-15, 14:27:04
Zumindest wenn weiter HBM eingesetzt wird, aber HBM2 noch nicht verfügbar ist, muss AMD ganz schön zaubern. :wink:
Wovon redest du jetzt?
Polaris 10 hat keinen HBM.

Unter 500 € finde ich nicht realistisch, so viel haben Tahiti und Hawaii auch zum Start gekostet.
Sicher kommt auch ein Polaris 10 PRO. Hawaii PRO gab es zum Start fuer 350. Ich finde die Spanne aber sehr (zu) gross

Kriton
2016-03-15, 14:27:10
AMD zeigt sich lernfähig: 3x8pin
Würde mich wundern, wenn die nochmal so ne Pumpe verbauen, bei der FuryX hat man das ja auch hinbekommen.

Und wenn der kleine Polaris bei 50W steht - au. Würde interessant, aber irgendwie sinnlos. Abgesehen vom Highend wird die Energieeffizienz nicht zum Problem, zumindest meistens.
Btw: gibt es eine GloFo-Fab, die überhaupt 400mm^2 -Chips bauen kann?

Nicht auf Dich bezogen, aber als Nvidia schlecht dastand bei der Energieeffizienz (400er/500er), da war es scheinbar nicht so wichtig. Bei der 600er/700er/900-Reihe wurde es dann plötzlich das Argument gegen AMD, dass AMD nicht energieeffizient wäre. Wenn es nun plötzlich wieder egal würde, nachdem AMD dort 2,5-fach besser dastünde als bisher...:freak:

Unicous
2016-03-15, 14:34:55
What the actual fuck?:confused:


Meanwhile AMD has also confirmed the number of GPUs in the Vega stack and their names. We’ll be seeing a Vega 10 and a Vega 11. This follows Polaris GPU naming – which has finally been confirmed – with Polaris 10 and Polaris 11. I have also been told that Polaris 11 is the smaller of the Polaris GPUs, so at this point it’s reasonable to assume the same for Vega.

http://anandtech.com/show/10145/amd-unveils-gpu-architecture-roadmap-after-polaris-comes-vega

Außerdem behauptet Ryan Smith GDDR5 wäre "confirmed" für Polaris?


With Polaris confirmed to use GDDR5, Vega is notable for being the first AMD architecture to use HBM2, and the first parts in general to use HBM tech since Fiji. I’m presuming these are higher-end GPUs to complement the Polaris GPUs (the smaller of which we know to be a low-power laptop design), which is where HBM would be more cost-effective, at least at current prices.

Ist das eine Schlussfolgerung, oder eine direkte Aussage seitens AMD? Nicht dass ich unbedingt daran zweifeln würde, aber AMD hat es mal wieder geschafft mit einem Event mehr Verwirrung zu schaffen als Antworten zu liefern.:facepalm:

iuno
2016-03-15, 14:36:53
Guten Morgen ;)
okay, what the actual fuck? du hast doch die Bestaetigung selbst gebracht:
https://twitter.com/Thracks/status/709528808416673793


Du hast die falsche Stelle fett markiert:
We’ll be seeing a Vega 10 and a Vega 11
Zwei weitere Chips mit HBM2 2017

Unicous
2016-03-15, 14:39:40
Nö, habe ich nicht. Denn es ging mir offensichtlich um das naming scheme und die Verwirrung die ensteht. Außerdem sagt Koduri etwas ganz anderes im PCPer-Interview, iirc.


edit: Wer lesen kann, ist klar im Vorteil. Polaris 10 ist (laut AT) der größere Chip, nicht der kleinere. Wenn dir das von Anfang an klar war, gratuliere ich dir zu deinen prophetischen Leistungen.

iuno
2016-03-15, 14:41:40
Das Interview hab ich nicht gelesen.
Wieso Verwirrung? Es wurde doch noch nie gesagt, dass 11 der grosse ist ihr seid nur immer alle davon ausgegangen.
Bei Nvidia stehen die kleinen Zahlen ja im Uebrigen auch fuer die grossen Chips.

Wenn dir das von Anfang an klar war, gratuliere ich dir zu deinen prophetischen Leistungen.
Das war keineswegs klar (dazu gab es ja auch keinen Anhaltspunkt), ich habe nur immer gesagt dass es noch offen ist und auch so herum sein koennte.

Außerdem behauptet Ryan Smith GDDR5 wäre "confirmed" für Polaris?
"confirmed" ist es soweit ich weiss nicht. Aber es liegt schon nahe, daher glaube ich nicht mehr an HBM fuer Polaris, aus den selben Gruenden die du auch zitiert hast ;)
Haette Polaris 10 schon HBM, wurden sie es nicht extra zu Vega dazu schreiben und der Effizienzsprung kommt auch nicht einfach so mal innerhalb von einem halben Jahr, wobei Polaris ja schon ein groesserer Umbau sein soll. Ich denke inzwischen dass Vega wegen HBM Vega heisst (die Theorie hatte schon jemand anders zuerst hier).

Als Abgrenzung zu Polaris mit HBM1 kann das auch kaum da stehen, als ob der Chip ein 4096 b SI und nur 4 GiB hat.

dargo
2016-03-15, 14:42:03
Zumindest wenn weiter HBM eingesetzt wird, aber HBM2 noch nicht verfügbar ist, muss AMD ganz schön zaubern. :wink:
Ähm... ist dir entgangen, dass Polaris kein HBM verwenden wird? :confused:


Unter 500 € finde ich nicht realistisch, so viel haben Tahiti und Hawaii auch zum Start gekostet.
Sicher kommt auch ein Polaris 10 PRO. Hawaii PRO gab es zum Start fuer 350. Ich finde die Spanne aber sehr (zu) gross
Warum? Das hängt immer davon ab wie stark der Salvage kastriert wird und wo AMD den Salvage positionieren will.

Kriton
2016-03-15, 14:42:52
Ich hab das AMD Event nicht mit eigenen Augen verfolgt, jedoch kann man aus den bisherigen Zusammenfassungen schlussfolgern, dass es keine Neuigkeiten zu Polaris gibt, die einen dazu bewegen würden auf diese Karten zu warten.
Falls Pascal, wie spekuliert wird, zur oder kurz nach der Computex erscheint, frage ich mich wie AMD es schaffen will Markanteile zurückzuerobern?

Warum sollte man im Gegenzug Pascal den Vorzug geben, und seit wann glauben wir tatsächlich, dass sie zur Computex erscheint und man nicht nur ein Holzmodell in die Kamera hält, damit eben niemand AMD kauft? Das Marketing funktioniert offenbar mal wieder.

+50% müssen es sein. Sonst ist es keine x90er Bezeichnung Wert (Marketing hin oder her)

R7 x90...:D

btw.Wenn Polaris 10 allerdings in diesen Bereichen schlummert vergesst ganz schnell gleich die 300€ bei 6-8GB. Das wird eher Richtung ~500€ gehen.

Höchstens für early adopter. Ich sage: 350,- bis 400,-€ wenn sie im Bereich der Fury ist.

Korvaun
2016-03-15, 14:47:59
Nicht auf Dich bezogen, aber als Nvidia schlecht dastand bei der Energieeffizienz (400er/500er), da war es scheinbar nicht so wichtig. Bei der 600er/700er/900-Reihe wurde es dann plötzlich das Argument gegen AMD, dass AMD nicht energieeffizient wäre. Wenn es nun plötzlich wieder egal würde, nachdem AMD dort 2,5-fach besser dastünde als bisher...:freak:

Wenn die neuen AMD- und nV-Karten grob das gleiche verbrauchen würde es mich nicht wundern wenn keiner mehr groß darauf rumreitet. Insbesondere wenn die absoluten Werte stark nach unten gehen (z.b. anstatt 250 Watt nur noch max. 150 Watt für die selbe Leistung).

Zettabit
2016-03-15, 14:48:56
Nicht auf Dich bezogen, aber als Nvidia schlecht dastand bei der Energieeffizienz (400er/500er), da war es scheinbar nicht so wichtig. Bei der 600er/700er/900-Reihe wurde es dann plötzlich das Argument gegen AMD, dass AMD nicht energieeffizient wäre. Wenn es nun plötzlich wieder egal würde, nachdem AMD dort 2,5-fach besser dastünde als bisher...:freak:
Du vergisst den entscheidenden Punkt: Die 400er Reihe war trotzdem die schnellste Karte, die man kaufen konnte. Also maximale Leistung und hohe Leistungsaufnahme. Die AMD-Karten sind das aber nicht. Also nicht die maximale Leistung und trotzdem hohe Leistungsaufnahme. Das ist natürlich ein Unterschied in der Betrachtung. Und die 580 war auch wieder +/- on par mit 5970.

Bezüglich der 2,5: Da würde ich ja jetzt erstmal abwarten, was NVIDIA zeigt. Nicht dass die auch 2,5 besser sind, dann ist NVIDIA doch plötzlich immer noch vorne ;)

Kriton
2016-03-15, 14:52:02
Du vergisst den entscheidenden Punkt: Die 400er Reihe war trotzdem die schnellste Karte, die man kaufen konnte. Also maximale Leistung und hohe Leistungsaufnahme. Die AMD-Karten sind das aber nicht. Also nicht die maximale Leistung und trotzdem hohe Leistungsaufnahme. Das ist natürlich ein Unterschied in der Betrachtung. Und die 580 war auch wieder +/- on par mit 5970.

Nicht jeder guckt auf die leistungsfähigste (teuerste) Karte. Und im Verhältnis Leistung/Energieverbrauch war die 480 wohl kaum Sieger.

Bezüglich der 2,5: Da würde ich ja jetzt erstmal abwarten, was NVIDIA zeigt. Nicht dass die auch 2,5 besser sind, dann ist NVIDIA doch plötzlich immer noch vorne ;)

Bestimmt, und den Weltfrieden bringt sie auch gleich mit. Die Ausgangslagen sind ja schon andere.

Unicous
2016-03-15, 14:53:07
Das Interview hab ich nicht gelesen.
Wieso Verwirrung? Es wurde doch noch nie gesagt, dass 11 der grosse ist ihr seid nur immer alle davon ausgegangen.
Bei Nvidia stehen die kleinen Zahlen ja im Uebrigen auch fuer die grossen Chips.


Das war keineswegs klar (dazu gab es ja auch keinen Anhaltspunkt), ich habe nur immer gesagt dass es noch offen ist und auch so herum sein koennte.

Die Logik befiehlt es. Genauso wie eine GTX 980 mehr Leistung hat als eine 970, oder Fiji mehr als eine 390... oh wait. Pro und XT haben eine gewisse Logik, bei Nvidia wird es von "groß" nach "klein" durchnummeriert. Hier hat man anscheinend gar keinen Anhaltspunkt auf die Leistungsfähigkeit außer dem Zeitpunkt der Vorstellung.

Es ist einfach unwahrscheinlich dämlich ein neues naming scheme einzuführen, das mit Nummern arbeitet, und das sich dann nicht auf die Leistung bezieht sondern auf eine nicht definierte Variable. So wie ich das jetzt verstehe ist es lediglich eine zeitliche Abfolge und das wäre richtig, richtig dämlich und damit erweisen sie sich einen Bärendienst. Es wird nicht einfacher und logischer sondern noch verwirrender.

https://youtu.be/4qJj1ViyyPY?t=380


Und mir ist ehrlich gesagt auch völlig egal, ob du dich da nicht festlegen wolltest und es immer schon gesagt hast, dass es auch andersherum sein könnte. Es ist kontraintuitiv und daher dämlich.

Botcruscher
2016-03-15, 14:55:45
Unter 500 € finde ich nicht realistisch, so viel haben Tahiti und Hawaii auch zum Start gekostet.

Bei deutlich größeren Chips. Ich würde die Kosten für einen 230mm² Chip jetzt nicht als enorm hoch ansetzen.

Außer GF und AMD kennt eh keiner die genauen Kosten.

Es ist einfach unwahrscheinlich dämlich ein neues naming scheme einzuführen, das mit Nummern arbeitet, und das sich dann nicht auf die Leistung bezieht sondern auf eine nicht definierte Variable.
Was soll denn der Wind um die Codenamen? Normalo wird eine radeon 480 irgendwas kaufen und keinen Polaris.

Complicated
2016-03-15, 15:00:47
Genauso wie eine GTX 980 mehr Leistung hat als eine 970, oder Fiji mehr als eine 390... oh wait. Pro und XT haben eine gewisse Logik, bei Nvidia wird es von "groß" nach "klein" durchnummeriert. Hier hat man anscheinend gar keinen Anhaltspunkt auf die Leistungsfähigkeit außer dem Zeitpunkt der Vorstellung.

Jetzt vergleichst du Endkunden Marketingnamen (GTX 980, 390) mit internen Codenamen (Polaris 10, Fiji)
GM104 und GM100 unterscheiden sich in der Größe und so es ist hier auch mit Polaris 10 und Polaris 11. Ich wüsste jetzt nicht wo das anders oder verwirrender sein soll.

Zettabit
2016-03-15, 15:09:18
Nicht jeder guckt auf die leistungsfähigste (teuerste) Karte. Und im Verhältnis Leistung/Energieverbrauch war die 480 wohl kaum Sieger.
Ich habe auch nirgendwo vom Verhältnis gesprochen sondern nur, dass die Karte eben die schnellste war. Wer sich so ein Monster kauft, der akzeptiert eben auch die höhere Leistungsaufnahme.

Aber wenn man - gerade in den Preissegmenten darunter - weniger Leistung liefert und eine höhere Leistungsaufnahme hat, ist das natürlich unausgewogen.

Bestimmt, und den Weltfrieden bringt sie auch gleich mit. Die Ausgangslagen sind ja schon andere.
Stimmt, AMD muss erstmal was zeigen. Dass NVIDIA effizient kann, wissen wir jetzt.

dargo
2016-03-15, 15:09:28
Bei deutlich größeren Chips. Ich würde die Kosten für einen 230mm² Chip jetzt nicht als enorm hoch ansetzen.

Woher kommen die 230mm²? Ich wäre jetzt eher von 300-350mm² bei Polaris 10 ausgegangen.

radical83
2016-03-15, 15:11:13
@iuno und dargo

Ich hab mich darauf (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971911&postcount=1677) bezogen.

Natürlich, rein spekulativ. Ich weiß weder ob HBM, oder ob GDDR5(X) bestätig wurde.

iuno
2016-03-15, 15:11:50
Die Logik befiehlt es.
[...]
Es ist einfach unwahrscheinlich dämlich ein neues naming scheme einzuführen, das mit Nummern arbeitet, und das sich dann nicht auf die Leistung bezieht sondern auf eine nicht definierte Variable. So wie ich das jetzt verstehe ist es lediglich eine zeitliche Abfolge und das wäre richtig, richtig dämlich und damit erweisen sie sich einen Bärendienst. Es wird nicht einfacher und logischer sondern noch verwirrender.

Und mir ist ehrlich gesagt auch völlig egal, ob du dich da nicht festlegen wolltest und es immer schon gesagt hast, dass es auch andersherum sein könnte. Es ist kontraintuitiv und daher dämlich.
Was ich wollte ist auch voellig egal, du hast doch damit angefangen ;)

Dass es hierbei nur um Codenamen geht, ist doch klar? Also ich finde das ehrlich gesagt schon noch etwas besser als angebliche Piraten, Vulkane, Inseln, Atmosphaerenschichten und Doerfer in Kanada. Auch wenn die Namen ihren Charme haben und die Spekulationen immer lustig zu lesen waren ;D
Vor allem wenn du mit Logik argumentierst, kannst du doch nicht das Nummernschema schlechter reden, als das was es davor gab?!

Unicous
2016-03-15, 15:16:27
Was soll denn der Wind um die Codenamen? Normalo wird eine radeon 480 irgendwas kaufen und keinen Polaris.

Ganz einfach. Weil AMD dieses naming scheme extra eingeführt hat um zu zeigen, dass es Fortschritt bei GCN gibt. Anstatt GCN der xten Generation nehmen sie jetzt fancy Himmelskörpernamen und hauen eine nichtssagende Nummer dran. Du hast jetzt also nicht mehr Fiji, Hawaii etc. die die verschiedenen Dies bezeichnen sondern einen Namen für alle Dies und die Zahl dahinter ist nichtssagend. Dass der retail-Name Otto-Normalverbraucher nicht interessiert, dürfte klar sein.
Aber bist du ein Otto-Normalverbraucher? Ich denke nicht. Sonst würdest du dieses Forum nicht aufsuchen. Diese Namen werden dennoch offizielk benutzt auch wenn sie wahrscheinlich nicht auf der Verpackung stehen. Das naming scheme ist intransparent, verwirrend und dämlich.


@iuno Sind wir hier im Kindergarten? "Du hast angefangen. Nein, du hast angefangen."

Das "alte" naming scheme war deswegen beschissen, weil die Produkfamilie nicht nur ein Kuddelmuddel aus verschiedenen Generationen war, sondern darüber hinaus auch nochmal extra Codenamen für die Mobil- bzw. Desktopversionen hatte. Ati hatte ja zuvor auch mit Rxxx gearbeitet und das war ja deutlich nachvollziehbarer. Dazu kamen Pro, XT, SE, LE etc. Insgesamt war das alles mehr als verwirrend. Das neue System macht genauso wenig Sinn. Es hat sich also nach außen hin nichts verbessert.

Das sind offizielle Codenamen um ein Produkt grob einzuordnen und zu vermarkten. Wenn man mehr Verwirrung als Verständnis schafft, warum überhaupt noch mit Codenamen arbeiten? Apple macht es auch nicht (außer bei MacOS... da aber mit eindeutiger Korrelation zum neuen Produkt) und sie haben auch deswegen eine starke brand recognition.

radical83
2016-03-15, 15:20:37
Warum sollte man im Gegenzug Pascal den Vorzug geben, und seit wann glauben wir tatsächlich, dass sie zur Computex erscheint und man nicht nur ein Holzmodell in die Kamera hält, damit eben niemand AMD kauft? Das Marketing funktioniert offenbar mal wieder.


Ja eben! Das ist genau das Problem von AMD. Das Marketing von denen funktioniert nicht. Wir haben schon sehr häufig erlebt das obwohl AMD eine gleichwertige oder gar bessere Karte im gleichen Segment hatte, der Käufer trotzdem zu Nvidia gegriffen hat.

Gegenfrage: Hat AMD bestätigt das Polaris zur Computex erscheint?

iuno
2016-03-15, 15:20:56
Ich hab mich darauf (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10971911&postcount=1677) bezogen.
Den Post habe ich komplett verpasst ;)
Das Video kann ich gerade nicht anschauen, aber offenbar bleibt er ja sehr vage?!

Das hier fand ich interessant:
Zu HBM1 gibt's Roadmaps mit 2-GB-Stacks, vll hat SK Hynix die heimlich doch gebaut ... die sollten einst auch auf die Fury X kommen, sprich 8 GByte.
Schon wieder? ;D Warum dann nicht die Duo mit 2x8 GiB?
Bei allem was ich zu HBM1 gesehen habe war der festgenagelt auf 4Hi und 2Gb/slice. Ich kann nicht einschaetzen, ob die slices flexibel genug (TSVs/Channels) sind um doch 8Hi "HBM1" Stack bauen zu koennen.
Ich glaube nicht daran. Hynix hat zwar queasi extra fuer AMD oder sogar nur fuer Fiji HBM1 gebaut aber dass man jetzt extra fuer Polaris 10 "HBM1.5" baut, ist doch unwahrscheinlich. Zumal ein 4k dickes SI ja auch nicht wahrscheinlich ist fuer einen Chip dieser Groesse. Da wuerde HBM2 einfach viel mehr Sinn machen, wenn man aussen vor laesst, dass das das 'Alleinstellungsmerkmal' von Vega sein soll.

Anstatt GCN der xten Generation nehmen sie jetzt fancy Himmelskörpernamen und hauen eine nichtssagende Nummer dran. Du hast jetzt also nicht mehr Fiji, Hawaii etc. die die verschiedenen Dies bezeichnen sondern einen Namen für alle Dies und die Zahl dahinter ist nichtssagend.
Unsinn. Polaris 10 ist ja nicht das selbe die wie Polaris 11. Die Zahl sagt mehr aus als "Hawaii" oder "Fiji" vorher, denn sie folgt ja einem Muster. Ob es nun die Groesse oder der Zeitpunkt ist, ist mir dabei relativ egal.
GCNx.y scheint uebrigens auch weiterhin verwendet zu werden :lol:
AMD's 4th generation Graphics Core Next (GCN) architecture
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2148187
Die Bezeichnungen waren aber eigentlich schon immer recht unsinnig, weil bei AMD kleinere Veraenderungen schrittweise kommen, nicht komplett durch die ganze Reihe auf einen Schlag. So ist ja etwa Bonaire auch nicht durchgaengig auf dem Level wie Hawaii.

dargo
2016-03-15, 15:33:08
Ja eben! Das ist genau das Problem von AMD. Das Marketing von denen funktioniert nicht. Wir haben schon sehr häufig erlebt das obwohl AMD eine gleichwertige oder gar bessere Karte im gleichen Segment hatte, der Käufer trotzdem zu Nvidia gegriffen hat.

Gegen Lernresistenz kann man wenig ausrichten.

Calypso
2016-03-15, 15:38:08
blöde Frage - ich lese nur immer was von Preisen jenseits der 350 Euro

gibt es eine Grafikkarten mehr, die man für 200 Euro kaufen kann? Oder ist bei denen von 2016 noch nichts dabei, und diese kommen erst 2017?

dargo
2016-03-15, 15:39:46
@Calypso

Es gibt ja noch Polaris 11. :wink:

iuno
2016-03-15, 15:40:27
Polaris 11 wurde mit der GTX 950 verglichen. Die kommt ziemlich sicher fuer < 200 €

Unicous
2016-03-15, 15:41:40
@iuno

Falsch. Hawaii bezeichnete genau diesen einen Die. Polaris hingegen ist die Bezeichnung für alle Dies in der Produktfamilie und die Nummer dahinter steht für das zeitliche "Erscheinen" des jeweiligen Dies im Ether. Du kannst also nicht sagen, ach ja Polaris 10 ist ja der Die mit 230mm² und Polaris 11 ist der mit 340mm² sondern es könnte sein, dass 10 größer ist als 12, 11 kleiner als 12 und 13 wäre wiederum kleiner als 10.

Bei Fiji hast du genau das Projekt vor Augen. Das Teil mit 64 CUs und HBM und Hawaii das Produkt mit 44 CUs und GDDR5.

Bei Nvidia ist es auch relativ eindeutig. Du hast die Generationsbezeichnung GeforceKepler und dann kommt das Marktsegment(/Diegröße) x00 ist der HighEnd/größter Die und so weiter.

Warum muss man hier künstlich Verwirrung schaffen? Wem gereicht das zum Vorteil? Niemandem. Absolut niemandem. Es sind die kleinen Dinge die AMD failen lassen. Das beschissene Rebranding, dem sich Nvidia und AMD mitschuldig machen fließt da auch mit ein. wer sagt denn, dass Polaris 14 nicht ein GCN 1.1 Chip ist der das hundertelfzigste Rebranding erfährt?

dargo
2016-03-15, 15:43:43
Polaris 11 wurde mit der GTX 950 verglichen. Die kommt ziemlich sicher fuer < 200 €
Ich frage mich nur bei dem Vergleich mit der GTX950 was genau AMD da auf Basis von Polaris 11 genommen hat? Den vollen Desktop-Ausbau glaube ich kaum bei nur ~35W für die Grafikkarte. Das war bestimmt ein Salvage oder eher ein Mobile-Abkömmling. Das mit dem Verbrauch ist natürlich bei Vsync On auch schwer einzuordnen.

iuno
2016-03-15, 15:49:54
Falsch. Hawaii bezeichnete genau diesen einen Die. Polaris hingegen ist die Bezeichnung für alle Dies in der Produktfamilie und die Nummer dahinter steht für das zeitliche "Erscheinen" des jeweiligen Dies im Ether.
Und jetzt? "Hawaii" steht fuer ein die, "Polaris 10" steht fuer ein die. Ich verstehe dein Problem nicht.
Woher willst du ueberhaupt wissen, dass die Nummern eine Zeitangabe sind?

@dargo: ja, das wissen wir noch nicht. Auf jeden Fall waren beide Chips in der Situation ordentlich am Stromsparen.
AMD hat damals iirc bestaetigt dass die verwendete GPU eigentlich fuer Notebooks vorgesehen ist, aber auf ein Desktop Board aufgebaut wurde.
Aber ob es der Vollausbau war, wie die finalen Taktraten aussehen werden? Keine Ahnung.

Unicous
2016-03-15, 15:52:41
Ich frage mich nur bei dem Vergleich mit der GTX950 was genau AMD da auf Basis von Polaris 11 genommen hat? Den vollen Desktop-Ausbau glaube ich kaum bei nur ~35W für die Grafikkarte. Das war bestimmt ein Salvage oder eher ein Mobile-Abkömmling. Das mit dem Verbrauch ist natürlich bei Vsync On auch schwer einzuordnen.

Beide Präsentationen sind im Nachhinein nichts als eine Farce. Man labert die ganze Zeit, wie geil Polaris doch sei, aber zeigt die Produkte mit angezogener Handbremse um so gut wie nichts preiszugeben. Raja Koduri scheint zwar sehr optimistisch gestimmt, aber wenn Polaris nicht abliefert und Nvidia im Gegenzug mal wieder rasiert haben sie sich erneut selbst blamiert. Sie haben gestern im Livestream davon gesprochen, dass sie immer zu "schüchtern" waren, wenn es um ihre Produkte ging, aber im Endeffekt haben sie auch nie auf den Punkt geliefert und sich immer wieder Anfängerfehler geleistet, als wären sie irgendein silicon valley start up, dass sich mit den Großen anlegen will, aber noch nicht genug Erfahrung gesammelt hat um sagen zu können, ja wir haben hier das beste Produkt auf dem Markt.

Ich verstehe einfach die Marketing-Strategen bei AMD nicht. Es kommt mir so vor als würden da Leute beschäftigt, die wirklich keine Ahnung von Marketing haben und es für eine gute Idee halten, da ein paar halbseidene Aussagen rauszuhauen und mehr Fragen aufzuwerfen als zu beantworten, je näher man dem Produktlaunch kommt.

@iuno

Woher ich das wissen will? Ich habe dir die Stelle im Video doch extra verlinkt? Hier auch noch mal extra für dich Ryan Shrouts Zusammenfassung

The naming scheme of Polaris (10, 11…) has no equation, it’s just “a sequence of numbers” and we should only expect it to increase going forward. The next Polaris chip will be bigger than 11, that’s the secret he gave us.
http://www.pcper.com/news/Graphics-Cards/AMDs-Raja-Koduri-talks-moving-past-CrossFire-smaller-GPU-dies-HBM2-and-more


Meanwhile AMD has also confirmed the number of GPUs in the Vega stack and their names. We’ll be seeing a Vega 10 and a Vega 11. This follows Polaris GPU naming – which has finally been confirmed – with Polaris 10 and Polaris 11. I have also been told that Polaris 11 is the smaller of the Polaris GPUs, so at this point it’s reasonable to assume the same for Vega.

Und Ryan Smith sagt es wäre plausibel, dass auch für Vega gilt. Und dazu sage ich: Nein. Leider nicht.

iuno
2016-03-15, 16:05:16
Danke, das hilft doch schonmal weiter (zumindest mehr als die schlimme Kindergartenbezichtigung die ich erst jetzt gesehen habe :eek: )

Wie gesagt, kann ich gerade das Video nicht anschauen (kein Ton). Ich muss aber zugeben, dass das vielleicht nicht klar wurde, weil radical via y33h@ auf das selbe Video verlinkt hat.
Das mit der Sequenz wusste ich also nicht. In dem Zitat steckt aber noch eine imho viel interessantere Info drin, naemlich dass es noch einen groesseren Chip als Polaris 11 gibt. Also sind es mind. 3 Polaris Chips. Strange wird es wenn der erst mit oder nach Vega erscheint.
edit:
The next Polaris chip will be bigger than 11
Vorausgesetzt, er hat das auch wirklich so gesagt und das ist nicht nur daemlich aufgeschrieben. Hat er? Oder war es eher sowas wie "wenn es noch einen Polaris gaebe, waere die Zahl groesser als 11"?

Du koenntest dich aber auch mal etwas beruhigen, was hast du denn von der Veranstaltung gestern erwartet?

Unicous
2016-03-15, 16:12:51
Ich habe eigentlich nur erwartet, dass sie wenn sie schon neue Codenamen einführen diesen Umstand nutzen nicht noch mehr Konfusion zu erzeugen. Das war eine schlichte Hoffnung die sich nicht erfüllt hat.

In zahlreichen Foren/Kommentaren ist diese Verwirrung jedenfalls schon real.:wink:

Dass bei der GDC nicht viel rumkommt hatte ich mir schon gedacht, dass sie sich auf Fijix2 und VR konzentrieren, war auch mir "schon immer" klar. Dass sie aber Knaller um Knaller im stream angekündigt haben und das dann im Endeffekt ziemlich lame Kooperationen sind, zeigt, dass sie viele Nebelkerzen gezündet haben und ich langsam ein ungutes Gefühl in der Magengegend bekomme und am Ende nur noch blau-grüner Dünnpfiff herauskommt.

Achill
2016-03-15, 16:26:17
Ich habe eigentlich nur erwartet, dass sie wenn sie schon neue Codenamen einführen diesen Umstand nutzen nicht noch mehr Konfusion zu erzeugen. Das war eine schlichte Hoffnung die sich nicht erfüllt hat.

In zahlreichen Foren/Kommentaren ist diese Verwirrung jedenfalls schon real.:wink:

Dass bei der GDC nicht viel rumkommt hatte ich mir schon gedacht, dass sie sich auf Fijix2 und VR konzentrieren, war auch mir "schon immer" klar. Dass sie aber Knaller um Knaller im stream angekündigt haben und das dann im Endeffekt ziemlich lame Kooperationen sind, zeigt, dass sie viele Nebelkerzen gezündet haben und ich langsam ein ungutes Gefühl in der Magengegend bekomme und am Ende nur noch blau-grüner Dünnpfiff herauskommt.

Es ist dann m.M.n. auch nicht schlimm von Kooperationen zu sprechen, was dann raus kommt steht natürlich auf einen anderen Blatt. Das weiß man aber in der Regel erst nach einiger Zeit / am Ende.
Aber evtl. besser als eine Attrappe für die Automobil-Industrie zu zeigen und erst im Nachgang (nach kritischen Stimmen) zu konkretisiert, dass es nicht das fertige Produkt war. Und das ganz als börsennotiertes Unternehmen.

radical83
2016-03-15, 16:28:03
Immerhin behaupten sie (noch) nicht das Polaris ein Übertaktungswunder wird.

Kriton
2016-03-15, 16:33:12
Immerhin behaupten sie (noch) nicht das Polaris ein Übertaktungswunder wird.

Nur der Speicher...;D

Unicous
2016-03-15, 16:35:15
Es ist dann m.M.n. auch nicht schlimm von Kooperationen zu sprechen, was dann raus kommt steht natürlich auf einen anderen Blatt. Das weiß man aber in der Regel erst nach einiger Zeit / am Ende.
Aber evtl. besser als eine Attrappe für die Automobil-Industrie zu zeigen und erst im Nachgang (nach kritischen Stimmen) zu konkretisiert, dass es nicht das fertige Produkt war. Und das ganz als börsennotiertes Unternehmen.

Ach, meinetwegen können sie 5 Std. Kooperationspartner als Stichwortgeber missbrauchen (und als nichts anderes wurden sie behandelt) solange am Ende auch etwas Substantielles dabei ist. Die Kooperationen die sie angekündigt haben, waren jedenfalls relativ lame, genauso wie die Aussage 83% des VR-Marktes zu haben und da Konsolen in die Rechnung einzubeziehen. Das macht das Ganze am Ende unglaubwürdig.

Wir sind ganz toll bei DX12, bei VR und Multi-GPU, aber starke finanzielle Kooperationen haben wir am Ende nicht vorzuweisen, wir labern lieber. Bei Nvidia hat man zumindest Kooperationen die Geld bringen.

Loeschzwerg
2016-03-15, 16:35:28
The naming scheme of Polaris (10, 11…) has no equation, it’s just “a sequence of numbers” and we should only expect it to increase going forward. The next Polaris chip will be bigger than 11, that’s the secret he gave us.

Komischer Ansatz, das würde auch intern reichlich für Verwirrung sorgen. Letztendlich versucht man doch immer einer Art "T-Shirt Modell", also S/M/L oder halt Pro/XT/XTX usw.

Wenn jetzt "10" der große DIE bei Polaris, aber bei Vega ein kleinerer ist, dann dürfte das auch für die Mitarbeiter reichlich bescheiden sein. Sorry, aber das kann ich mir nicht vorstellen.

Gipsel
2016-03-15, 16:36:23
Ganz einfach. Weil AMD dieses naming scheme extra eingeführt hat um zu zeigen, dass es Fortschritt bei GCN gibt. Anstatt GCN der xten Generation nehmen sie jetzt fancy Himmelskörpernamen und hauen eine nichtssagende Nummer dran.Nein.
AMD hat explizit gesagt, daß Polaris (10 und 11) die GCN Gen. 4 benutzen. Genauso wie es vorher Chips mit GCN Gen2 oder GCN Gen3 gab. Das ist nur ein etwas anderes Codenamenschema. Da gibt es nichts hineinzugeheimnissen. Es ist doch völlig irrelevant, ob sie jedem Chip einer Generation einen eigenen Codenamen geben, oder ob es wieder etwas klarere Architektur-/Generationscodenamen gibt und die Chips darin dann numeriert werden.
Das Einzige, was man vielleicht aus der Polaris/Vega 10/11 Sache rauslesen kann, ist eventuell, daß die beiden jeweiligen Vertreter beim IP-Level zueinander absolut identisch sind und nur die Einheitenzahl skaliert wird. Es gibt bei AMD ja so ein Baukastensystem, mit dem man verschiedenen Evolutionsstufen verschiedener Teile der Chips zusammenmixt. Es gab ja in letzter Zeit kaum zwei Chips, die wirklich nur skaliert und ansonsten völlig identisch in dieser Hinsicht sind. Meist unterscheiden die sich irgendwo (sei es in der Version der Raster/Setup, des Shadercores oder auch der UVD- oder VCE-Version). Aber selbst das ist spekulativ.

edit:
Warum muss man hier künstlich Verwirrung schaffen? Wem gereicht das zum Vorteil? Niemandem. Absolut niemandem. Es sind die kleinen Dinge die AMD failen lassen.:freak:
Du kennst aber schon den ursprünglichen Grund für Codenamen? Die benutzt man, damit niemand zu früh weiß, worüber man redet. Die sollen also eigentlich Verwirrung stiften ;). Daß Du die gerne als Marketing-Tool benutzt sehen willst (und es teilweise tatsächlich interne "echte" Codenamen und die bekannten "Marketingcodenamen" gibt)... nun gut. Das ist trotzdem ziemlich irrelevant. Genauso gut können die ihre GPUs in der Entwicklungsphase Projekt MF7A43 (<= insert random combination) nennen und später trotzdem als Radeon 480X verkaufen.

r3ptil3
2016-03-15, 16:36:34
Am Schluss kommt noch raus, dass Vsync an war bei der Hitman Demo.

fondness
2016-03-15, 16:46:06
Polaris wurde wohl genau zu einer Zeit fertig, als es zu früh war für FinFET und schon zu spät jetzt noch neue 28nm GPUs zu bringen. Denn nur ein halbes Jahr später bereits wieder eine "neue" Architektur ist doch relativ ungewöhnlich. Ansonsten wo jetzt auch zwei Vega GPUs bestätigt sind, sollte das für ein schönes Lineup reichen.

Mal ins blaue geraten:
Polaris10 14nm FinFET GF < 150mm²
Polaris11 14nm FinFET GF ~220mm²
Vega10 16nm FinFET TSMC ~350mm²
Vega11 16nm FinFET TSMC >500mm²

Die ersten zwei GDDR5(X), die letzten zwei HBM2.

Unicous
2016-03-15, 16:48:31
@Gipsel

Nichts anderes sagte ich.

GCN als Name ist nach der xten Generation nichtssagend. Nvidia bringt bei jeder "Generation" einen neuen Namen und damit einhergehend Änderungen an der Architektur. Das hat AMD auch kapiert. Maxwell ist mächtiger als Fiji, Hawaii, Tonga zusammen. Das naming scheme letztlich doch noch zu verweichlichen indem man eine nichtssagende Nummer dranhängt ist ein schwerer Fehler. Eben das macht Nvidia nicht. Da intereressiert Otto-Normal nicht was GM107 oder GK108 ist.

Und das IP-Level interessiert im Endeffekt noch weniger. Den Unterschied zwischen GM107 und GM204 kannst du ja auch nicht vermitteln, oder das GM206 ein "höheres" IP-Level hat als GM204 und 200.

Warum also diese überflüssige Nummern(edit: bei Polaris und Vega)?


edit:

Nvidia und AMD nutzen die Namen aber zu Marketingzwecken. Das ist doch genau was mich daran stört. Überall liest man Maxwell, Pascal, Fiji, Tonga, GCN 1.0, GCN 2nd Generation etc. bla bla.
Sie wollte es vereinfachen sind mMn vorerst gescheitert.

Gipsel
2016-03-15, 16:50:11
@Gipsel

Nichts anderes sagte ich.

GCN als Name ist nach der xten Generation nichtssagend. Nvidia bringt bei jeder "Generation" einen neuen Namen und damit einhergehend Änderungen an der Architektur. Das hat AMD auch kapiert. Maxwell ist mächtiger als Fiji, Hawaii, Tonga zusammen. Das naming scheme letztlich doch noch zu verweichlichen indem man eine nichtssagende Nummer dranhängt ist ein schwerer Fehler. Eben das macht Nvidia nicht. Da intereressiert Otto-Normal nicht was GM107 oder GK108 ist.

Und das IP-Level interessiert im Endeffekt noch weniger. Den Unterschied zwischen GM107 und GM204 kannst du ja auch nicht vermitteln, oder das GM206 ein "höheres" IP-Level hat als GM204 und 200.

Warum also diese überflüssige Nummern?Weil Du zwei Chips hast, die Du irgendwie unterscheiden können mußt. Polaris/Vega sagt Dir, welche Architektur und IP-Level es ist, die Nummer sagt dir, welcher Chip es ist. Fertig.
Im Endeffekt ist es völlig irrelevant, wie die Codenamen der Chips lauten. Die Verkaufsnamen müssen halbwegs übersichtlich sein und die Leistung und der Verbrauch müssen stimmen. Das ist es, worauf es ankommt.

Und GCN Gen4 sagt mehr aus, als "Fermi", "Kepler" oder "Maxwell" :rolleyes:.

edit:
Und was willst Du denn an GCN Gen4 vereinfachen? Generations-/IP-Level-Marketing-Codename + Nummer ist doch schon einfacher, als jedem Scheiß einen eigenen (genauso bedeutungslosen) Namen zu verpassen.

Loeschzwerg
2016-03-15, 16:54:48
die Nummer sagt dir, welcher Chip es ist.


Und genau bei der Nummer erwarte ich zumindest ein einheitliches Schema, da sonst die Mitarbeiter selbst nicht mehr durchblicken.

Gipsel
2016-03-15, 16:57:18
Und genau bei der Nummer erwarte ich zumindest ein einheitliches Schema, da sonst die Mitarbeiter selbst nicht mehr durchblicken.Es gibt sicher eins (im Übrigen arbeiten die Mitarbeiter an Projekten mit internen Codenamen, die nicht unbedingt identisch mit den veröffentlichten sind). ;)

Sunrise
2016-03-15, 16:58:35
Polaris wurde wohl genau zu einer Zeit fertig, als es zu früh war für FinFET und schon zu spät jetzt noch neue 28nm GPUs zu bringen. Denn nur ein halbes Jahr später bereits wieder eine "neue" Architektur ist doch relativ ungewöhnlich. Ansonsten wo jetzt auch zwei Vega GPUs bestätigt sind, sollte das für ein schönes Lineup reichen.

Mal ins blaue geraten:
Polaris10 14nm FinFET GF < 150mm²
Polaris11 14nm FinFET GF ~220mm²
Vega10 16nm FinFET TSMC ~350mm²
Vega11 16nm FinFET TSMC >500mm²

Die ersten zwei GDDR5(X), die letzten zwei HBM2.
Die "neue" Architektur wird nicht wirklich "neu" sein, sondern wohl einfach "nur" Polaris nach oben skalieren und das GDDR5-Interface durch ein HBM2-Interface ersetzen.

Der Grund ist ganz einfach, du brauchst bei einer höheren Anzahl an Einheiten natürlich auch deutlich mehr Durchsatz (Bandbreite), selbst inkl. Kompression (die nicht immer greift, siehe HPC) und für den professionellen Bereich ist das sowieso keine Frage mehr.

Loeschzwerg
2016-03-15, 16:59:04
@Gipsel: Ich hoffe doch, denn dann würde es in meinen Augen wunderbar passen.

Unicous
2016-03-15, 17:02:56
@Gipsel

Wir reden aneinander vorbei oder liest nicht das was ich schreibe.

Zitat von dir

Und GCN Gen4 sagt mehr aus, als "Fermi", "Kepler" oder "Maxwell" .

Was ich sagte
GCN als Name ist nach der xten Generation nichtssagend.

Polaris als ist der Architekturname, wie auch Pascal. Wenn sie schon eine Nummer ranklatschen müssen, dann eben nach Einsatzgebiet. Die 10 wäre Entry Level-Segment, 11 Mainstream, 12 HighEnd.

Oder Polaris E, M, H. Was auch immer. Jedenfalls nicht eine Nummer die lediglich eine völlig nebensächliche zeitliche Einteilung erlaubt.

N0Thing
2016-03-15, 17:06:44
Nicht jeder guckt auf die leistungsfähigste (teuerste) Karte. Und im Verhältnis Leistung/Energieverbrauch war die 480 wohl kaum Sieger.


Das nicht, war aber deutlich schneller als eine 5870 und die GTX 470 war schneller als die 5850. Deshalb konnte man damals zumindest den hohen Stromverbrauch mit der höheren Leistung erklären.
Wenn die Leistung schlechter oder auf gleichem Niveau liegt, kann man einfach keine gute Erklärung für einen höheren Stromverbrauch anführen, was AMD eben zur Zeit neben der größeren Bedeutung des Stromverbrauchs (auch mit Blick auf die Lautstärke der Kühler) im Gegensatz zu früher arg belastet.


Und genau bei der Nummer erwarte ich zumindest ein einheitliches Schema, da sonst die Mitarbeiter selbst nicht mehr durchblicken.

Die Mitarbeiten sollten genauso wie die Leute hier im Forum 10 und 11 auseinander halten können. Die Nummerierung ist doch wirklich simpel, der erste Chip bekommt die Nummer 10, der zweite die 11 und bei den Nachfolgenden geht es so weiter. Wer sich nicht merken kann, welcher Chip hinter den Bezeichnungen steht, der muß einem ja schon fast leid tun.

fondness
2016-03-15, 17:07:54
Die "neue" Architektur wird nicht wirklich "neu" sein, sondern wohl einfach "nur" Polaris nach oben skalieren und das GDDR5-Interface durch ein HBM2-Interface ersetzen.

Der Grund ist ganz einfach, du brauchst bei einer höheren Anzahl an Einheiten natürlich auch deutlich mehr Durchsatz (Bandbreite), selbst inkl. Kompression (die nicht immer greift, siehe HPC) und für den professionellen Bereich ist das sowieso keine Frage mehr.

Mal schauen, ich erwarte doch etwas mehr als nur HBM2. AMD hat bis jetzt auch jährlich kleinere Architekturupdates gebracht und in der Perf/Watt Achse wandert Vega ja doch deutlich nach oben. Klar könnte man das auch nur mit dem HBM2 erklären, aber mal abwarten.

Zettabit
2016-03-15, 17:07:55
Und GCN Gen4 sagt mehr aus, als "Fermi", "Kepler" oder "Maxwell" :rolleyes:.
Was sagt mir denn "GCN Gen3" vs. "GCN Gen4" mehr, als "Kepler" vs. "Maxwell"?

Außer einer zeitlichen Komponente habe ich da jetzt nun nicht wirklich mehr Information. Und auf ner Keynote-Folie sieht "Maxwell" eben bessre aus als "GCN Gen4".

Siehe vorher verlinkte AMD-Folie.

Unicous
2016-03-15, 17:08:13
@N0Thing

Und welchen Vorteil ziehe ich daraus zu wissen, dass der 10. Polaris-Chip der erste ist?

dargo
2016-03-15, 17:09:15
Mal ins blaue geraten:
Polaris10 14nm FinFET GF < 150mm²
Polaris11 14nm FinFET GF ~220mm²
Vega10 16nm FinFET TSMC ~350mm²
Vega11 16nm FinFET TSMC >500mm²

Vega soll es 2x geben? Das ist an mir vorbei gegangen. Ok... dann habe ich Polaris 11 (wobei ich hier dachte der größere soll Polaris 10 heißen :confused:) mit Vega 10 verwechselt was das Leistungsniveau bei meiner Einschätzung... ähm Spekulation angeht. :tongue:

N0Thing
2016-03-15, 17:11:21
@N0Thing

Und welchen Vorteil ziehe ich daraus zu wissen, dass der 10. Polaris-Chip der erste ist?

Welchen Nachteil hast du denn dadurch, dass du dich da so sehr drüber echauffierst?
Auch jetzt muß man sich merken, was hinter Tonga, Hawaii und Tahiti steckt. Da sagt einem die Bezeichnung alleine gar nichts.