Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
Knuddelbearli
2016-02-16, 18:21:56
naja vor allem das gddr Interface kann man so gut wie gar nicht shrinken. mehr als Faktor 2 wirds wohl sicher nicht
fondness
2016-02-16, 19:04:38
Eines versteh ich nicht bei der Namensgebung: Wega ist in jedem Aspekt kleiner als Polaris. Warum also Polaris nicht als top dog ansiedeln? :|
Weil das Architekturnamen sind. Vega dürfte sich also von Polaris nicht nur in der Anzahl der Einheiten unterscheiden. AMD will von diesen inoffiziellen Bezeichnungen GCN 1.1, GCN 1.2, etc. weg kommen, deshalb bekommt jede Architekturänderung einen neuen Namen.
R.I.P.
2016-02-16, 19:48:26
AMD musss gegen "GP100 225W" (GTX980 Ti +80%) schon was ordentliches auf den Markt bringen.
Hab ich was verpasst? Wunschdenken oder seriöse Speku anhand von einigen Eckdaten?
Ailuros
2016-02-16, 19:49:05
Sorry fuer ot, aber darf ich fragen, wo du arbeitest bzw. woher du die Kontakte hast?
Nirgends das relevant waere zur Materie; sonst bin ich schon seit etlichen Jahrzehnten unterwegs und 3D war schon immer einer meiner beliebtesten Hobbies als Laie.
Eines versteh ich nicht bei der Namensgebung: Wega ist in jedem Aspekt kleiner als Polaris. Warum also Polaris nicht als top dog ansiedeln? :|
Wenn jemand Vega und HBM2 im gleichen Satz verwendet, kann es sich schwer um einen low end Furz handeln.
Der_Korken
2016-02-16, 19:54:50
naja vor allem das gddr Interface kann man so gut wie gar nicht shrinken. mehr als Faktor 2 wirds wohl sicher nicht
Bedenkt, dass Hawaii ein 512bit SI hat, während Polaris 11 bei 232mm² bei 256bit liegen sollte. Wenn die restlichen 90% um Faktor 2+x geshrinkt werden können, dürfte man auch insgesamt auf knapp 2+x rauskommen.
Bedenkt, dass Hawaii ein 512bit SI hat, während Polaris 11 bei 232mm² bei 256bit liegen sollte. Wenn die restlichen 90% um Faktor 2+x geshrinkt werden können, dürfte man auch insgesamt auf knapp 2+x rauskommen.
Wenn ich das so sehe, hat der doch kein GDDR5. Das ist doch genau die Problematik, die man mit HBM umgehen wollte. Auf 232mm² passt definitiv kein 384-Bit GDDR5-Interface und 256Bit sind für 2,5-3k Shader definitiv zu wenig, GDDR5X scheidet gänzlich aus, da zu neu. Bleibt eigentlich nur ein 1024Bit HBM-Interfaces mit höherem Takt als 500MHz. Das passt und die Bude rockt.
Undertaker
2016-02-18, 11:08:41
Warum müssen 256 Bit GDDR5 zu wenig sein? 2,5 bis 3k Shader entspricht etwa der Leistungsklasse einer GTX 980, die mit ihrer Bandbreite ganz gut klar kommt – das sollte AMD also auch schaffen können. Wenn der Aufpreis für HBM nicht gerade vernachlässigbar klein ist (unwahrscheinlich), ist ein solches SI imo sogar die wahrscheinlichste Lösung.
Ravenhearth
2016-02-18, 11:18:02
GDDR5X scheidet gänzlich aus, da zu neu.
Das ist immer noch Unsinn.
Thunder99
2016-02-18, 11:55:56
Wenn ich das so sehe, hat der doch kein GDDR5. Das ist doch genau die Problematik, die man mit HBM umgehen wollte. Auf 232mm² passt definitiv kein 384-Bit GDDR5-Interface und 256Bit sind für 2,5-3k Shader definitiv zu wenig, GDDR5X scheidet gänzlich aus, da zu neu. Bleibt eigentlich nur ein 1024Bit HBM-Interfaces mit höherem Takt als 500MHz. Das passt und die Bude rockt.
GDDR5X scheidet nicht aus denke ich. Zwischen offizieller Meldung und dem Fakt das Samples schon lange unterwegs sein könnten gibt es doch einen Unterschied ;). Sehe es daher schon als wahrscheinlich an, dass man GDDR5X sehen wird in der kommenden Generation, da deren Erscheinen ja nicht vor dem Sommer sein soll sondern eher Q3 oder sogar Q4
OBrian
2016-02-18, 13:36:20
dieser Umstand, daß GDDRX so spät in Serie gehen soll, ist auch kein Argument. Denn wer stellt denn was her, was niemand kauft? So ein Speicher wird doch eh nur von Kartenherstellern gekauft, sonst niemandem. Also geht der Serienverkauf zwangsläufig erst los, wenn Karten damit hergestellt werden. Die legen sich das doch nicht sinnlos auf Halde.
Also mit einem Stack HBM2 kriegt man die halbe Bandbreite wie bei Fiji hin, das reicht also für 2048 GCN-Shader. Die neue Architektur wird die Leistung sicherlich mit weniger Shadern erreichen, wg. höherer IPC und höherem Takt (FinFET!), also sagen wir mal grob 1500.
Alles darunter muß mit "normalem" RAM gefüttert werden, weil HBM übertrieben wäre. Aber ob man bei einem Chip, dem ein Stack reicht, auf HBM setzt ist, eine Preisfrage. Interposer/HBM ist sicherlich teurer als herkömmliche Konstruktionsweise, jedenfalls bis zu einem bestimmten Punkt. Mit einem 256bit SI ließen sich auch bisher günstig Karten bauen, siehe Pitcairn, Tonga.
Zudem kommt dazu, daß ein Stack nur 4 GB RAM ermöglicht, das bei einer Leistungsklasse irgendwo zwischen Tonga und Hawaii, das wird langfristig zu wenig sein, da will der Handel 8 anbieten können. Und was jetzt neu aufgelegt wird, wird sicherlich drei Jahre am Markt bleiben. Also ich denke nicht, daß wir Chips sehen, die mit nur einem Stack HBM kommen (jedenfalls als Grafikkarte, bei APUs mag das anders sein).
Leute ihr checkts nicht. Der Chip muss darauf angepasst werden. Die haben kein passendes Interface.
Was hast du fuer ein Problem? GDDR5X wird genausowenig einfach mal zum Spass entwickelt wie HBM, sondern weil man den DRAM so fuer diesen speziellen Anwendungsbereich brauchen kann. Micron hat da nur 2 Partner, die ein passendes SI bauen, weil eben auch nur die beiden es (vielleicht) brauchen koennen, und ohne Zusammenarbeit passiert da gar nichts. Dabei spielt es quasi keine Rolle, wann die JEDEC die Spezifikation letztendlich veroeffentlicht hat.
GDDR5X kann also hoechstens von der Fertigung her knapp werden, weil Micron erst im Sommer die Massenfertigung startet. Der grobe Zeitplan steht aber schon laenger und wenn es stimmt, dass der Polaris Chip schon im Sommer kommt, war er imho nie mit GDDR5X geplant.
Thunder99
2016-02-18, 16:31:17
Leute ihr checkts nicht. Der Chip muss darauf angepasst werden. Die haben kein passendes Interface.
Ich verstehe es schon, aber wir wissen es nicht seit wann AMD damit testet und bzw wann sie sich diese Option auch angeschaut haben :).
Ja der Chip muss angepasst werden aber weniger stark als man denkt (nachdem was ich gelesen habe). Es ist also einfacher als man vermutet, nur ob in der Phase des Chips es schon Samples gab weiß ich nicht.
Grabhopser
2016-02-18, 16:50:06
16-Feb-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO / GRAPHIC CARD)C98101 BAFFIN XT G5 4GB CHANNEL P/N 102-C98101-00 (FOC) Canada Hyderabad Air Cargo NOS 4 193,850 48,463
Das ist ja fast zu einfach. :biggrin:
Sieht mir nach keinen großen Überraschungen aus.
Sunrise
2016-02-18, 17:09:03
16-Feb-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO / GRAPHIC CARD)C98101 BAFFIN XT G5 4GB CHANNEL P/N 102-C98101-00 (FOC) Canada Hyderabad Air Cargo NOS 4 193,850 48,463
Das ist ja fast zu einfach. :biggrin:
Sieht mir nach keinen großen Überraschungen aus.
Ganz schön heftiger Preis, für den Baffin.
Ailuros
2016-02-18, 17:15:02
Ganz schön heftiger Preis, für den Baffin.
Wieviel ist denn das umgerechnet?
***edit: $707 fuer 4 chips? ok und nur 4GB?
Grabhopser
2016-02-18, 17:25:27
Der Preis Per Unit (INR) ist 48,463
$707 fuer 4 chips? ok und nur 4GB?
woher nimmst du die 707$ :confused:
und was heisst "nur 4"? Von der Inselgroesse wuerde ich mal nicht auf die Leistungsklasse schliessen, oder gibt es schon eine Einordnung welcher Chip der groessere sein soll?
Und selbst wenn Baffin schon ein "billig-Hawaii" waere, langten da 4 GiB imho. Die 8 waren ja eh nur ein Marketinggag zum Rebrand.
Ailuros
2016-02-18, 17:37:51
woher nimmst du die 707$ :confused:
und was heisst "nur 4"?
Weil 48463 INR momentan $707 entsprechen vielleicht? Wenn der Preis fuer 4 Stueck ist dann sind es $25 weniger als NV fuer ihren "GP104" angiebt.
Von der Inselgroesse wuerde ich mal nicht auf die Leistungsklasse schliessen, oder gibt es schon eine Einordnung welcher Chip der groessere sein soll?
Und selbst wenn Baffin schon ein "billig-Hawaii" waere, langten da 4 GiB imho. Die 8 waren ja eh nur ein Marketinggag zum Rebrand.
Siehe oben.
Ailuros
2016-02-18, 17:39:47
Der Preis Per Unit (INR) ist 48,463
Was? 707 fuer einen chip? Unmoeglich dann ist der Preis eine frei erfundene Zahl.
oops an die waehrung habe ich gar nicht gedacht, war schon laenger nicht mehr auf zauba :ugly:
https://www.zauba.com/import-video-graphic-card-hs-code.html
Rest ist schon etwas her, aber mir sind die Namen neu. Was fuer Kram ist das? Weston PRO/X3, Banks, anyone? :confused:
C72951WESTON X3 2GB 4.5GBPS GDDR5
C72951WESTON PRO S3 2GB 4.5GBPS GDDR5
C72851BANKS PRO S3 2GB 4.5GBPS GDDR5
Das waeren umgerechnet 145-175 usd, aber das heisst ja hier nichts.
Weston und Banks sind im Uebrigen wie auch Ellesmere und Baffin kanadische Inseln.
edit: auf videocardz wird auch schon wieder spekuliert... lt. denen: Hawaii=Ellesmere, Weston=Banks=Oland :ulol:
AffenJack
2016-02-18, 17:47:11
Was? 707 fuer einen chip? Unmoeglich dann ist der Preis eine frei erfundene Zahl.
Natürlich, dass sind die Preise doch schon immer. Das sind Engeneering Samples, da wird doch nicht der reale Preis draufgeschrieben. Bei Nv ebenso wenig.
Ansonsten bei den 4Gb kommts drauf an, welcher Chip es ist. Zum kleinsten Polaris passen 4GB auf jeden Fall locker. Beim größeren kann ichs mir kaum vorstellen, da man bei ähnlicher Geschwindigkeit wie Hawaii dann einen Marketingnachteil hat.
Nakai
2016-02-18, 17:53:43
Interessant.
C98 = Baffin = Polaris11
D00 = Ellesmere = Polaris10
C99 = Greenland = Vega10 (HBM)
?
€: Ich würde auf die Speichermenge nicht soviel geben erstmal.
Grabhopser
2016-02-18, 18:02:51
Weston und Co ist alles altes bzw. älteres Zeug.
1-Sep-2015 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO GRAPHIC CARD)AMDC72951 WESTON XT S3 2GB 4.5GBPS GDDR5P/N.102-C72952-00(FOC) Canada Hyderabad Air Cargo NOS 2 49,541 24,771
hm, also rebrandings ;(
Oder doch der kleine Polaris, der dann im Dezember in dem Demo System lief?!
Agent117
2016-02-18, 18:12:49
Leute ihr checkts nicht. Der Chip muss darauf angepasst werden. Die haben kein passendes Interface.
Es gab doch schon bei linkedIn Einträge von ehmaligen AMD Mitarbeitern, die im Jahr 2014 was mit GDR5X zu tun hatten. Die werden schon genug Zeit und auch Wissen gehabt haben ihren MC und die dazugehörigen PHYs für GDR5X zu designen auch wenn die endgültigen Specs vlt noch nicht feststanden.
Complicated
2016-02-18, 18:27:48
Zudem kommt dazu, daß ein Stack nur 4 GB RAM ermöglicht, das bei einer Leistungsklasse irgendwo zwischen Tonga und Hawaii, das wird langfristig zu wenig sein, da will der Handel 8 anbieten können. Und was jetzt neu aufgelegt wird, wird sicherlich drei Jahre am Markt bleiben. Also ich denke nicht, daß wir Chips sehen, die mit nur einem Stack HBM kommen (jedenfalls als Grafikkarte, bei APUs mag das anders sein).HBM2 bietet 8GB pro Stack
http://images.anandtech.com/doci/9969/sk_hynix_hbm2_implementations_575px.png
Grabhopser
2016-02-18, 18:30:26
hm, also rebrandings ;(
Oder doch der kleine Polaris, der dann im Dezember in dem Demo System lief?!
Das im Dezember war sicherlich BAFFIN, der tauchte um dieses Zeit auch auf Zauba auf.
Ich denke eher, dass das Embedded Codenamen sind, oder wieso schickt man im Abstand von 6 Monaten jeweils 2-3 Boards und sonst nichts ?
HBM2 bietet 8GB pro Stack
aber nur mit 8Hi-Stacks und die kommen noch nicht so schnell
Das im Dezember war sicherlich BAFFIN, der tauchte um dieses Zeit auch auf Zauba auf.
Ich denke eher, dass das Embedded Codenamen sind
Wo? So wie ich das sehe, ist der neue Eintrag der einzige zu Baffin.
Embedded? Mit AI-Codenamen?
AnarchX
2016-02-18, 18:43:33
Der Preis von Baffin XT spricht für eine 256-Bit Karte. Aber mit nur 4GiB ist das weiterhin GDDR5 ohne X, der geht erst ab 0,75GiB pro Modul los.
Da tut sich hoffentlich noch etwas bis zum Launch oder im 2. Halbjahr - Baffin XTX.
Hübie
2016-02-18, 20:33:27
Wenn jemand Vega und HBM2 im gleichen Satz verwendet, kann es sich schwer um einen low end Furz handeln.
Ich meinte in diesem Fall einfach nur die Logik hinter der Namensgebung. ;) Auch wenn ich tendenziell nicht viel auf Namen gebe.
Agent117
2016-02-18, 21:15:35
Der Preis von Baffin XT spricht für eine 256-Bit Karte. Aber mit nur 4GiB ist das weiterhin GDDR5 ohne X, der geht erst ab 0,75GiB pro Modul los.
Da tut sich hoffentlich noch etwas bis zum Launch oder im 2. Halbjahr - Baffin XTX.
Ist halt immer noch die Frage wie verlässlich die Preisangaben sind, einige sagen ja dass die da grundsätzlich Zollwerte angeben, wie sie wollen.
Sonst könnte es ja doch Polaris 10 mit mit 4 mal 1Gb und 128 Bit sein.
Ist denn bekannt, ob GDR5 Chips an einem GDR5X Speichercontroller funktionieren? Ähnlich sollen sie ja sein, aber ein GDR5X Chip hat dann doch ein par mehr Kontakte nach draußen; die Belegung kenn ich leider nicht.
Aber interessant, dass wir schonmal keine 256 Bit Karten mit nur 4Gb sehen werden die nächste Generation.
mczak
2016-02-18, 21:52:34
Der Preis von Baffin XT spricht für eine 256-Bit Karte. Aber mit nur 4GiB ist das weiterhin GDDR5 ohne X, der geht erst ab 0,75GiB pro Modul los.
Da tut sich hoffentlich noch etwas bis zum Launch oder im 2. Halbjahr - Baffin XTX.
GDDR5X soll doch mit 4/6/8/12/16 gbit Chips kommen, soweit steht's doch zumindest in der Spezifikation. Wer da aber was effektiv bauen wird weiss ich aber nicht - ich schätze mal die 16gbit Chips kommen eher später...
Wobei 4GB in der Performance-Klasse (ganz egal was für Speicher das ist) für next-gen schon eher knapp scheint. Vielleicht gibt's dann ja verschiedene Versionen.
GDDR5X soll doch mit 4/6/8/12/16 gbit Chips kommen, soweit steht's doch zumindest in der Spezifikation. Wer da aber was effektiv bauen wird weiss ich aber nicht
Ist doch "egal" was in der spec steht, es gibt ja auch noch keine HBM Stacks mit >1 GiB, weil Hynix als einziger Produzent keine gebaut hat. Bei GDDR5X ist es ja aehnlich oder hat jemand ausser Micron Interesse gezeigt, 5X zu bauen?
Micron baut jedenfalls zunaechst ausschliesslich 8 Gb Chips:
Our first generation GDDR5X is an 8Gb (1GB) density manufactured on our 20-nanometer process technology.
https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived
sicher kommen noch groessere, bei 4/6 Gb bin ich mir aber ehrlich unsicher, ob sich das dann noch lohnt.
btw: 256 Bit mit 4 GiB kommt daher aktuell auch nicht hin.
reaperrr
2016-02-19, 03:20:01
Der Preis von Baffin XT spricht für eine 256-Bit Karte. Aber mit nur 4GiB ist das weiterhin GDDR5 ohne X, der geht erst ab 0,75GiB pro Modul los.
Da tut sich hoffentlich noch etwas bis zum Launch oder im 2. Halbjahr - Baffin XTX.
Ich tippe eher auf 128-bit.
Vor allem wenn es sich um den 120-150mm² Chip handelt, denn da lässt sich ein 256 bit SI quasi nicht unterbringen.
Complicated
2016-02-19, 05:19:21
Ist doch "egal" was in der spec steht, es gibt ja auch noch keine HBM Stacks mit >1 GiB, weil Hynix als einziger Produzent keine gebaut hat.
Samsung baut auch HBM
http://www.heise.de/newsticker/meldung/Samsung-startet-Serienfertigung-superschneller-HBM2-Speicherchips-3075131.html
Nach HBM-Pionier SK Hynix mischt nun auch Samsung bei High Bandwidth Memory der zweiten Generation mit, das Grafikkarten mit AMD Polaris und Nvidia Pascal auf die Sprünge helfen soll.
Erst vor wenigen Tagen hat das Industriegremium JEDEC die Spezifikation für die zweite Generation von High Bandwidth Memory (HBM2) verabschiedet, nun meldet Samsung den Start der Serienfertigung von HBM2-Stacks mit 4 GByte Kapazität und einer Datentransferrate von 256 GByte/s.
Guten Morgen!
Das Perfekt und das Wort "noch" sind dir aber ein Begriff?
Interessant.
C98 = Baffin = Polaris11
D00 = Ellesmere = Polaris10
C99 = Greenland = Vega10 (HBM)
?
€: Ich würde auf die Speichermenge nicht soviel geben erstmal.
Würd eher sagen:
C981 -> Baffin = Polaris 10 (4GB GDDR5, für höhere Leistungsklassen wär das eindeutig zu wenig)
C99x -> Ellesmere = Polaris 11 (Speicher unbekannt, ich tippe immer noch auf HBM)
D000 -> Prototypboard für Vega10
Complicated
2016-02-19, 11:47:32
Guten Morgen!
Das Perfekt und das Wort "noch" sind dir aber ein Begriff?
Ich bezog mich auf den "einzigen" Produzent Hynix. Auch Samsung baut HBM. Mit oder ohne "noch" bleibt der Hinweis meinerseits gültig ;)
Hübie
2016-02-19, 11:49:54
Polaris 10 und 11 sind doch recht ähnliche Architekturen oder nicht? Dann denke ich nicht, dass eine GDDR5 und die andere direkt HBM einsetzt. Wenn dann GDDR5 und GDDR5X, da hier das PHY nicht so krass geändert werden muss, sondern lediglich erweitert. HBM dagegen erfordert eine komplett neue Anordnung (auch am backend?).
Und was, was ist, spielt keine Rolle.
Frosty
2016-02-19, 11:55:20
ich bin gespannt, ob ellesmere xt vielleicht mit 8 gb gddr5x kommt, und die gtx 980 (ti) in den boden stampft bei sehr geringem verbrauch.:D
Ailuros
2016-02-19, 12:23:10
Ich lass gerade dass Baffin angeblich bei 150W liegen soll. Kommt auch natuerlich an fuer welches metric es genau stehen soll, aber ich bezweifle dass wir irgendwelche besondere "Bodenstampferei" von irgend einer Seite sehen werden.
dildo4u
2016-02-19, 12:28:02
390X gehen häufig Richtung 340 Watt laut PCGH,wenn AMD also das Versprechen von 2X bessere Performance per Watt hält sind sie im Bereich der 980.Sobald also NV's 16nm Karten kommen ist AMD wieder weit hinten was Performance per Watt angeht.
980 laut PCGH 160 Watt unter Last.
http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/
Laut dem Test sind 390X und 980 ohne OC gleichauf.
http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-2560-1440-normale-qualitaet
Und ich übertreibe nicht es gibt sogar 390X die 400 Watt ziehen z.b MSI Gameing 390X ich setze also "unten" an.
Agent117
2016-02-19, 13:18:40
Und ich übertreibe nicht
Ganz sicher nicht, du nimmst nur die niedrigste je gemessene GTX 980 Angabe und vergleichst sie mit übertakteten 390X; mal davon abgesehen dass Computerbase den Gesamtsystemverbrauch misst. Von Übertreiben kann da keine Rede sein!;D;D
Mal etwas realistischer:
Launch Analyse 3D Center: GTX980 = 174W, 390X = 290W Meiner Beobachtung nach sieht es ein klein wenig besser für AMD aus.
GTX 980 = 180W, 390X = 270W.
Wenn Ailuros jetzt meint Polaris11 läge bei 150W dann passt das auch ziemlich genau, wenn Polaris11 Fury Leistung liefert, was wir hier spekuliert haben. Perf/W wäre dann ggü. Hawaii (leicht geschönt) 2,5x besser.
Sunrise
2016-02-19, 13:22:27
Bei 150W TDP wäre Baffin also der Fury-Ablöser, das wird dann Polaris 11 sein, das ist ziemlich sicher.
Wie schon geschrieben mit die wichtigste Karte von AMD, und im Preisbereich von 970-980 mit etwas Spielraum nach oben, wenn die Leistung stimmt (980Ti ist zu teuer, daher ist für AMD Spielraum).
Allerdings wird es sicher nicht einfach, wenn man bedenkt, wie hoch der Taktspielraum bei der 980 von NV ist. Das wird ein harter Kampf. AMD kann diesen dann allerdings problemlos mit (Video-)Features kontern, GM204 ist einfach zu alt. Da benötigt NV dann relativ zwingend GP104 oder eine brutal bessere GP106, aber da ist es ja sehr still geworden.
Der_Korken
2016-02-19, 13:44:30
Mit dem extremen Unterschied zwischen GTX 980 und 390X hat dildo4u schon nicht ganz Unrecht. Der Trick bei Maxwell liegt aber darin, dass er besonders bei Teillast extrem effizient ist, weil Takt und Spannungen im Sub-Millisekundenbereich angepasst werden. Beim Torture-Test schwindet der Vorteil dann etwas.
Ich hoffe, dass AMD eine ähnliche Steuerung auch bei Polaris einbaut. Man muss sich mal vor Augen führen, dass Nvidia mit Maxwell trotz gleicher Fertigung +50% Perf/W rausgeholt hat. AMD hat zusätzlich noch den Vorteil von 28nm auf 14nm runterzugehen. Wenn Polaris11 HBM benutzt, fände ich Fury-Leistung auf 150W fast schon dürftig. Bei GDDR5X wäre es OK, da der Speicher den Verbrauch in die Höhe treibt, dafür aber die Karte günstiger zu fertigen ist.
CB behautet, es handle sich bei Baffin um den kleinen Chip, also Pascal 10. Banks/Weston seien demnach dagegen Rebrands.
@Der_Korken: Eine "aehnliche Steuerung" hat AMD schon lange und eine vergleichbar gute mindestens seit Fiji, wahrscheinlich auch schon Tonga aber der war nicht interessant genug, so detailliert "auseinandergenommen" zu werden. Und dildos Vergleich ist purer Unsinn und hat hier auch nichts verloren, daher gehe ich jetzt auch nicht weiter darauf ein. Das wurde schon an anderer Stelle zur Genuege besprochen.
Wenn Polaris11 HBM benutzt, fände ich Fury-Leistung auf 150W fast schon dürftig. Bei GDDR5X wäre es OK, da der Speicher den Verbrauch in die Höhe treibt, dafür aber die Karte günstiger zu fertigen ist.
Die 150 Watt bezogen sich auf Baffin, wobei nicht klar ist, welcher Polaris Chip das nun genau sein soll bzw. wo er einzuordnen ist. Und Baffin hat lt. Zauba GDDR5.
Dass GDDR5 den Verbrauch in die Hoehe treibt, ist gewagt gesagt. Es kommt ganz darauf an, wie AMD die neuen Speichercontroller hinbekommt. Wenn sie mit weniger auskommen wie zuletzt Nvidia, haben sie auch mit GDDR5 noch ordentliches Einsparpotenzial. Und die naechste Iteration von HBM muessen sie auch deutlich besser hinbekommen. Fiji krankt da an irgendetwas und das SI wurde ja auch groesser als zunaechst prognostiziert.
Sunrise
2016-02-19, 13:55:25
...Wenn Polaris11 HBM benutzt, fände ich Fury-Leistung auf 150W fast schon dürftig. Bei GDDR5X wäre es OK, da der Speicher den Verbrauch in die Höhe treibt, dafür aber die Karte günstiger zu fertigen ist.
Das wird interessant werden. Vor allem weil es bis Sommer etwas knapp wird.
Ailuros
2016-02-19, 14:01:30
Nicht so eilig; wenn 150W ein TDP Wert sein sollte dann klingt es mir eher nach GP106 Konkurrenz. Sonst mach ich zwar oefters Fehler aber die paar Fetzen die ich habe erwaehnen HBM nur fuer Greenland.
Sunrise
2016-02-19, 14:15:27
Nicht so eilig; wenn 150W ein TDP Wert sein sollte dann klingt es mir eher nach GP106 Konkurrenz. Sonst mach ich zwar oefters Fehler aber die paar Fetzen die ich habe erwaehnen HBM nur fuer Greenland.
Hm, jetzt wo du es sagst...
Allerdings finde ich 150W ziemlich heftig, wenn das Polaris10 ist. Vor allem da AMD ja auf Power und Area gehen sollte. Das sieht dann aber schon gegen eine derzeitige 970-/980 TDP nicht gut aus.
Bist du dir da sicher? Entweder wir ordnen das bei beiden Seiten unter Midrange/Performance oder wir haben irgendwie keine Vergleichbarkeit mehr.
Die 150W TDP müssten dann absoluter Worst-Case mit stärker aufgedrehtem Takt sein, damit man bei der 980 in die Nähe kommt.
Wenn das stimmt, dann ist Polaris11 aber deutlich schneller als bisher vermutet und müsste ein gutes Stück über der Fury liegen, auch ohne HBM.
Das wäre ein ziemlicher krasser Sprung bei AMD, da etwa 980Ti-Konkurrenz. Nicht sicher, ob das Sinn ergibt oder meine Logik ist gerade etwas verbogen.
Das wäre eine ziemlich gute Geschichte für AMD, wenn es so kommen sollte.
Frosty
2016-02-19, 14:18:04
Nicht so eilig; wenn 150W ein TDP Wert sein sollte dann klingt es mir eher nach GP106 Konkurrenz. Sonst mach ich zwar oefters Fehler aber die paar Fetzen die ich habe erwaehnen HBM nur fuer Greenland.
hbm würde polaris 10/11 nur unnötig verteuern, von daher könnte man mit gddr5x speicherinterface gut leben. mit 980 ti leistung bei 150w tdp:love2: könnte amd wieder etwas für die masse bringen, für mich wäre das grund genug von meiner gtx 980 zu wechseln:)
X.Perry_Mental
2016-02-19, 14:50:05
Zu dem ganzen Namens-Durcheinander fällt mir noch etwas vermutlich völlig Nebensächliches ein: Polaris, also der Polarstern, ist bei genauerer Betrachtung (schon mit einem kleinen Teleskop möglich) ein deutlich erkennbarer Doppelstern. Mit bloßem Auge sieht er jedoch wie ein normaler, einfacher Stern aus.
Der_Korken
2016-02-19, 15:07:24
Wenn Polaris 11 wirklich nur 232mm² groß ist, dann kann der kleinere Polaris 10 imho nicht bei 150W TDP liegen. Wenn man davon ausgeht, dass letzterer höchstens 150mm² (sonst würde ein zweiter Chip ja keinen Sinn machen), würde Polaris 11 dann schon bei 220-250W liegen. Mit anderen Worten, AMD würde mit 300mm² ans Powerlimit von 14nm stoßen bzw. würde trotz 14nm etwa genauso viel Watt/Transistor brauchen wie mit ihren jetzt schon ineffizienteren 28nm-Chips. Das wäre imho ein absolutes Desaster für AMD.
Entweder beziehen sich 150W auf den größeren Chip oder die 232mm² beziehen sich auf Polaris 10, während Polaris 11 deutlich größer (und schneller) als bisher angenommen ist. Oder die Daten sind völlig falsch.
Nakai
2016-02-19, 15:16:50
Polaris10 wird etwa ~125mm² groß sein.
Polaris11 könnte die spekulierten 232mm² groß sein.
Die Wattage pro mm² ist auch ein wichtiger Aspekt. 150W für P11 ist vernünftig. P10 wird wohl so die Hälfte von dem verbraten, also 75W maximal.
Entweder beziehen sich 150W auf den größeren Chip oder die 232mm² beziehen sich auf Polaris 10, während Polaris 11 deutlich größer (und schneller) als bisher angenommen ist. Oder die Daten sind völlig falsch.
Sehe ich auch so. Die 150 Watt beziehen sich sicher nicht auf den Chip, der im Dezember gegen eine GTX 950 gestellt wurde. Wenn man das so gegenueberstellt, muss man auch grob in der entsprechenden Region verkaufen, sonst wird das im Nachhinein sehr laecherlich.
Dass man den Kleinen dann (~130mm²?) derart aufpumpen kann, dass er in Regionen einer 980 (~400mm²) vorstoesst, ist imho nicht mehr nur realitaetsfremd :wink:
fondness
2016-02-19, 15:28:33
Polaris10 wird etwa ~125mm² groß sein.
Polaris11 könnte die spekulierten 232mm² groß sein.
Die Wattage pro mm² ist auch ein wichtiger Aspekt. 150W für P11 ist vernünftig. P10 wird wohl so die Hälfte von dem verbraten, also 75W maximal.
Here we go...
N0Thing
2016-02-19, 15:36:42
Polaris 10 und 11 sind doch recht ähnliche Architekturen oder nicht? Dann denke ich nicht, dass eine GDDR5 und die andere direkt HBM einsetzt. Wenn dann GDDR5 und GDDR5X, da hier das PHY nicht so krass geändert werden muss, sondern lediglich erweitert. HBM dagegen erfordert eine komplett neue Anordnung (auch am backend?).
Und was, was ist, spielt keine Rolle.
Naja, Tonga und Fury haben auch recht ähnliche Architekturen, trotzdem ist das Speicherinterface unterschiedlich. Allein daraus würde ich nichts folgern.
Nakai
2016-02-19, 15:36:42
Auch die Preise auf Zauba, falls man diese Ernst nehmen könnte, sprechen eine gewisse Sprache.
Ein Finfet-Transistor kostet fast doppelt soviel, wie ein 28nm-Transistor. Nehmen wir mal 1,75x. Ailuros hat hier ein Diagramm oder woanders gepostet.
Kurz ein Polaris11 mit 232mm² sollte in Kostenregionen von Hawaii vordringen. Natürlich sollte das PCB einfacher sein, die Stromversorgung weniger ausgeprägt und natürlich die Kühlung kleiner ausfallen. Dementsprechend sollte das C98-Board am ehesten einem Polaris11 entsprechen.
Polaris10 könnte tatsächlich C91/92 sein, welcher etwa halb so teuer wie Polaris11 sein könnte, aber in Regionen leicht unter Tonga vordringt.
€2: Polaris10 kann man am ehesten auf C92 setzen. Aufkommen im August klingt sehr gut. Was das D00-Board ist, kA. Ein Salvage P11? Oder eher ein Desktop P10?
€3: Ahja, wir sollten den Unterschied zwischen GDDR5 und GDDR5X bei den Boards nicht außer Acht lassen. GDDR5X wird definitiv ein anderes Board benötigen.
€4: Baffin ist größer als Ellesmere. Baffin auf Zauba scheint eben P11 zu sein. Aber das nur als weiterer Hint.
Vega10 ist dann tatsächlich der ganz fette Chip. Ahja, falls mit HBM dauert das noch locker 9 Monate+ bis zum Release. Siehe Fiji, welcher auch etwa ein Jahr vor Launch auf Zauba erschien.
Wie gesagt, wenn man Zauba hierbei ernst nehmen könnte.
€:
Naja, Tonga und Fury haben auch recht ähnliche Architekturen, trotzdem ist das Speicherinterface unterschiedlich. Allein daraus würde ich nichts folgern.
Ja, da ist nahezu alles identisch, bis auf die Backend-Blöcke. Laut Treiber, war das IP-Level ziemlich identisch, nur die MCs hatten ein anderes Level.
Ailuros
2016-02-19, 17:10:58
Hm, jetzt wo du es sagst...
Allerdings finde ich 150W ziemlich heftig, wenn das Polaris10 ist. Vor allem da AMD ja auf Power und Area gehen sollte. Das sieht dann aber schon gegen eine derzeitige 970-/980 TDP nicht gut aus.
Du machst wie viele den fundamentalen Fehler dass die Watt Werte fuer 970/980 erstmal mit default Frequenzen sind die selten bis nie in realen SKUs angewendet werden und es handelt sich auch NICHT um TDP. Wie ich heute bei B3D schrieb fueher als NV TDP stand in den Spezifikationen auf NV's Seite Maximum Graphics Card Power. Heute steht fuer 970/980 und dergleichen nur noch Graphics Card Power drin.
Sonst kann 150W fuer board form factor, TDP oder einem von NV erfundenen power-metric entsprechen. Im ersten Fall haben fuer mit aller Wahrscheinlichkeit 1*6pin welches fuer SKUs genauso fuer eine 960 als auch einen 970 heute gilt; fuer eine 980 dann nicht mehr.
Bist du dir da sicher? Entweder wir ordnen das bei beiden Seiten unter Midrange/Performance oder wir haben irgendwie keine Vergleichbarkeit mehr.
Ist zwar schon eine Ewigkeit her dass ich mit AMD Kerlen geplaudert habe, aber in der Vergangenheit meinten sie meistens board form factor wenn sie einen trockenen Watt Wert angaben. Muss aber heute nicht mehr stimmen.
Wenn das stimmt, dann ist Polaris11 aber deutlich schneller als bisher vermutet und müsste ein gutes Stück über der Fury liegen, auch ohne HBM.
Das wäre ein ziemlicher krasser Sprung bei AMD, da etwa 980Ti-Konkurrenz. Nicht sicher, ob das Sinn ergibt oder meine Logik ist gerade etwas verbogen.
Das wäre eine ziemlich gute Geschichte für AMD, wenn es so kommen sollte.
Alle frisch durchgesickerte Daten ueber Polaris betreffen hauptsaechlich die hw die hinter geschlossenen Tueren vorgestellt wurden. Ich behalte fuer mich im Hinterkopf dass AMD im Bereich perf/W relativ im Nachteil stand; sie muessen als den Unterschied ueberholen und koennen sowohl mit einer effizienteren Architektur und neuem Prozess punkten. Die brennende Frage duerfte sein ob sie mit nenneswertem Abstand besser dastehen als die Pascal GPUs.
Im Hintergrund scheinen die roten die hard fans nur darueber zu murmeln dass sich NV verspaeten wird; von einem jeglichen Pascal Killer scheint niemand zu reden. Mag durchaus sein dass die grosse Ueberraschung toll versteckt ist und noch kommt aber beim Bogen zur obrigen live Polaris Vorstellung mit welcher Frequenz wurden die GPUs genau benutzt? Finale oder fast finale Frequenzen? Wenn nicht und sie steigen um einiges noch mit den Frequenzen wird das perf/W ratio nicht unbedingt besser und schon gar nicht mit einem FF Prozess.
Uebrigens wenn Dir Dein smartphone etwas gezeigt haben sollte ist dass der Herstellungsprozess fuer den SoC eine gewisse Allergie gegen variierenden voltages zu haben scheint; will hoffen dass es bei LPP gravierend besser ist, mit voltages/Frequenzen waere ich nach wie vor vorsichtiger bei FF Prozessen (siehe auch meinen B3D link im Pascal thread).
So und jetzt muss ich mich wohl selber in Teer und Federn waelzen bevor mich die AMD fans wieder lynchen :weg: *spuck hust*
horn 12
2016-02-19, 17:12:03
Nun, also weitaus unspannender als noch vor Monaten angenommen wurde wird wohl das Jahr 2016 werden.
Wenn alles klappt sehen wir wohl im April - Mai etwa Fiji Performance + - 5% in etwa bei AMD und bei NV im August bis September GTX 980TI 1200 bis 1250 Mhz in etwa.
Sunrise
2016-02-19, 17:21:08
Um das mal festzuhalten:
1) 150W TDP für Chip X
2) Preis etwa auf Hawaii-Niveau (zur Vorstellung)
3) Geschätzte Größe etwa 200-250mm^2
4) Eine min. Verdopplung von Effizienz und auch Halbierung der Chip-Fläche bei 14nm ggü. 28nm - bei bereits eingerechneter (starker) Modifikationen der GCN-Architektur
5) 256bit GDDR5X-Interface / HBM (unwahrscheinlich)
6) State-of-the-Art Video-IP (Encoder/Decoder) mit Ultra HD Blu-Ray-Zertifizierung und stark verbessertem Display-Support (auch FreeSync)
Egal ob jetzt Polaris 10 oder 11, das Ding ist relativ gut abschätzbar. Fragt sich, wie flexibel AMD hier bestücken kann. Sicher ist aber, dass man damit auch auf evtl. kommende Preisanpassungen gut vorbereitet ist.
Da AMD noch einen kleinen Chip benötigt (deutlich weniger TDP) und Apple davon einen großen Batzen erhalten wird, ist der obere Chip definitiv _nicht_ der kleine Polaris. Ich denke das sollte (falls die 150W TDP stimmen) klar zu erkennen sein. Der große Polaris hätte sonst >350mm^2, da haben wir bisher aber keine Hinweise (nur von Vega).
@Ailuros
Ich lasse das mal bewusst offen, auch wenn du ein paar gute Punkte nennst, sonst wird es mir zu langweilig. Bitte nicht im Teer stecken bleiben, der wird hart! :D
Nakai
2016-02-19, 17:44:24
Im Hintergrund scheinen die roten die hard fans nur darueber zu murmeln dass sich NV verspaeten wird; von einem jeglichen Pascal Killer scheint niemand zu reden. Mag durchaus sein dass die grosse Ueberraschung toll versteckt ist und noch kommt aber beim Bogen zur obrigen live Polaris Vorstellung mit welcher Frequenz wurden die GPUs genau benutzt? Finale oder fast finale Frequenzen? Wenn nicht und sie steigen um einiges noch mit den Frequenzen wird das perf/W ratio nicht unbedingt besser und schon gar nicht mit einem FF Prozess.
Es wird 850 Mhz gemurmelt, aber das muss nicht zwangsläufig etwas heißen, da noch V-Sync Cap verwendet wurde. Reinher von dem Gezeigten, kann man ungefähr 40W für P10 annehmen. Wenn man ungefähr 75W für P10 schätzte, also Capeverde-Niveau, dann hätte man noch etwas Luft nach oben.
Sieht stark nach etwas aus, was zwischen Tonga und Pitcairn angesiedelt ist.
Wenn man Faktor 2 für P11 annimmt, kommt man gut bei Fiji heraus.
Und ja, das ist Best-Case. Worst-Case wäre, wenn das Ding kaum mehr Takt mitmacht.
Complicated
2016-02-19, 17:47:13
Der Trick bei Maxwell liegt aber darin, dass er besonders bei Teillast extrem effizient ist, weil Takt und Spannungen im Sub-Millisekundenbereich angepasst werden. Beim Torture-Test schwindet der Vorteil dann etwas.
Ich hoffe, dass AMD eine ähnliche Steuerung auch bei Polaris einbaut.
@Der_Korken: Eine "aehnliche Steuerung" hat AMD schon lange und eine vergleichbar gute mindestens seit Fiji, wahrscheinlich auch schon Tonga aber der war nicht interessant genug, so detailliert "auseinandergenommen" zu werden.
Hier scheint AMD aktuell tatsächlich noch eine Schippe drauf gelegt zu haben wenn man schaut was bei Bristol Ridge bis zu 1 GHz mehr Takt ermöglicht:
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Bristol-Ridge-Spezifikationen-Taktraten-1185593/
Interessant ist derweil ein Blick auf die Taktraten im Vergleich zu Carrizo. Die CPU-Basisfrequenzen stiegen selbst im Falle der 15-Watt-Grenzen um 600 bis 700 MHz, bei 35 Watt sogar um bis zu 1 GHz - das mache im Falle des A10-9630P 63 Prozent aus. Die Turbo-Taktraten stiegen noch um rund 10 Prozent an. Ebenfalls höher fielen die GPU-Frequenzen mit einem Plus von maximal 13 Prozent aus. "Dresdenboy" zitiert einen älteren Bericht, wonach die höhere Leistung durch ein "aggressiveres Power Management im 28-nm-Design" erzielt werde. Bristol Ridge sei eine Machbarkeitsstudie, um zu sehen, wie das Power Management Hitze-, Spannungs- und Stromstärkelimitierungen umgehen kann.
Originalquelle: http://dresdenboy.blogspot.de/2016/02/more-amd-bristol-ridge-opns-leaked.html
Sehe keinen Grund zu murmeln, zur Taktrate gab es schliesslich offizielle Angaben (850 MHz). Wie viel Spielraum noch war, ist aber voellig offen.
Die brennende Frage duerfte sein ob sie mit nenneswertem Abstand besser dastehen als die Pascal GPUs.
Im Hintergrund scheinen die roten die hard fans nur darueber zu murmeln dass sich NV verspaeten wird; von einem jeglichen Pascal Killer scheint niemand zu reden. Mag durchaus sein dass die grosse Ueberraschung toll versteckt ist und noch kommt aber beim Bogen zur obrigen live Polaris Vorstellung mit welcher Frequenz wurden die GPUs genau benutzt?
Verstehe ich nicht. Wieso sollte auch jemand von einem "Pascal-Killer" sprechen, wenn es ueberhaupt keinen Anlass dazu gibt? Und ob Pascal sich verspaetet steht ja auch noch voellig in den Sternen.
In meinen Augen ist das Rennen voellig offen. AMD hat vielleicht mehr Potenzial, was Nvidia vielleicht bei Maxwell schon teilweise ausgeschoepft hat, aber es gibt da ja einige Baustellen, die angegangen werden koennen. Problematisch ist auch, dass AMD eigentlich deutlich besser sein muesste, um ueberhaupt gekauft zu werden.
@Complicated: Carrizo hat stark von HDL profitiert, das wird bei GPUs schon lange benutzt. Dazu hat Carrizo ebenso GCN1.2 wie Tonga und Fiji. Ohne ein finales Produkt laesst sich BR momentan nicht abschaetzen, die Diskussion um CPU Taktraten hat hier aber auch null Bezug zum Thema.
R.I.P.
2016-02-19, 18:36:51
Nun, also weitaus unspannender als noch vor Monaten angenommen wurde wird wohl das Jahr 2016 werden.
Wenn alles klappt sehen wir wohl im April - Mai etwa Fiji Performance + - 5% in etwa bei AMD und bei NV im August bis September GTX 980TI 1200 bis 1250 Mhz in etwa.
Wieso unspannend? So etwas Schönes hat es schon lange nicht mehr gegeben. Die Latte wird bei beiden Fraktionen endlich wieder höher gestellt. Ich will endlich AM4 haben..auch mit ner Excavator Apu, hauptsächlich endlich ne Ddr4 Plattform :) von Amd natürlich
fondness
2016-02-19, 18:37:38
Es wird 850 Mhz gemurmelt, aber das muss nicht zwangsläufig etwas heißen, da noch V-Sync Cap verwendet wurde. Reinher von dem Gezeigten, kann man ungefähr 40W für P10 annehmen. Wenn man ungefähr 75W für P10 schätzte, also Capeverde-Niveau, dann hätte man noch etwas Luft nach oben.
Sieht stark nach etwas aus, was zwischen Tonga und Pitcairn angesiedelt ist.
Wenn man Faktor 2 für P11 annimmt, kommt man gut bei Fiji heraus.
Und ja, das ist Best-Case. Worst-Case wäre, wenn das Ding kaum mehr Takt mitmacht.
875Mhz waren es, offiziell von AMD.
Ailuros
2016-02-19, 18:57:10
Verstehe ich nicht. Wieso sollte auch jemand von einem "Pascal-Killer" sprechen, wenn es ueberhaupt keinen Anlass dazu gibt? Und ob Pascal sich verspaetet steht ja auch noch voellig in den Sternen.
In meinen Augen ist das Rennen voellig offen. AMD hat vielleicht mehr Potenzial, was Nvidia vielleicht bei Maxwell schon teilweise ausgeschoepft hat, aber es gibt da ja einige Baustellen, die angegangen werden koennen. Problematisch ist auch, dass AMD eigentlich deutlich besser sein muesste, um ueberhaupt gekauft zu werden.
Egal welche Seite, sobald es klar wird dass man einen deutlichen Vorteil hat, sprengen sehr schnell die Champagne-Korken (metaphorisch gemeint), egal wie kindisch es Dir klingen mag.
Complicated
2016-02-19, 20:02:44
Ohne ein finales Produkt laesst sich BR momentan nicht abschaetzen, die Diskussion um CPU Taktraten hat hier aber auch null Bezug zum Thema.
Es geht auch nicht um CPU-Taktraten sondern darum:
Bristol Ridge sei eine Machbarkeitsstudie, um zu sehen, wie das Power Management Hitze-, Spannungs- und Stromstärkelimitierungen umgehen kann. Das bedeutet von Carrizo->BR gibt es Optimierungen die eben schon in einer APU 13% mehr GPU-Takt erlauben, obwohl die CPU schon 1 GHz höher taktet und das innerhalb des selben Power-Budgets. Legt man das in eine diskrete GPU um, wo keine CPU sich das Wärme-Budget teilt, dann bin ich sicher dass ich da eine Verbesserung sehe die erstmalig mit Polaris ihre Auswirkungen zeigt.
Hübie
2016-02-19, 20:11:31
Naja, Tonga und Fury haben auch recht ähnliche Architekturen, trotzdem ist das Speicherinterface unterschiedlich. Allein daraus würde ich nichts folgern.
Beide hatten jedoch entsprechend eigene Evaluierungsphasen und sind nicht mal ebenso entstanden. Glaube Fiji hat man 2011 angefangen (gab da mal ein Interview). Tonga ist in vielerlei Hinsicht ein gut gehütetes oder kaum beachtetes Geheimnis, schätze aber die haben damit etwa zeitgleich begonnen. Long story short: Not gonna happen. :D
N0Thing
2016-02-19, 20:19:35
Beide hatten jedoch entsprechend eigene Evaluierungsphasen und sind nicht mal ebenso entstanden. Glaube Fiji hat man 2011 angefangen (gab da mal ein Interview). Tonga ist in vielerlei Hinsicht ein gut gehütetes oder kaum beachtetes Geheimnis, schätze aber die haben damit etwa zeitgleich begonnen. Long story short: Not gonna happen. :D
Dein Argument war, dass die Polaris GPUs das gleiche Speicherinterface haben, weil sie auf ähnlicher Architektur basieren. Man hat aber bei Tonga und Fury gesehen, dass dies keine gültige Schlussfolgerung ist.
Polaris 10 und 11 entstehen auch nicht mal eben so und durchlaufen genauso Evaluierungsphasen.
Es ist gut möglich, dass Polaris 10 und 11 den gleichen Speichertyp nutzen, der Grund dafür ist aber sicher nicht eine ähnliche Architektur.
aufkrawall
2016-02-19, 20:53:20
Mit dem extremen Unterschied zwischen GTX 980 und 390X hat dildo4u schon nicht ganz Unrecht. Der Trick bei Maxwell liegt aber darin, dass er besonders bei Teillast extrem effizient ist, weil Takt und Spannungen im Sub-Millisekundenbereich angepasst werden. Beim Torture-Test schwindet der Vorteil dann etwas.
Völliger Humbug. Trine 2 hat einen extrem hohen Stromverbrauch und bei dem Spiel ist der Abstand zwischen GM204 und GK104 so groß wie bei fast bei keinem anderen Spiel.
Auch sehr fordernde Compute-Szenarien haben einen sehr hohen Stromverbrauch und auch hier ist GM204 trotz wesentlich geringerem Verbrauch häufig deutlich schneller als GK110.
Bitte richtig informieren und nicht Halbwissen verbreiten, danke!
Edit: Etwas harsch reagiert, sorry!
Knuddelbearli
2016-02-19, 21:26:27
Es geht auch nicht um CPU-Taktraten sondern darum:
Das bedeutet von Carrizo->BR gibt es Optimierungen die eben schon in einer APU 13% mehr GPU-Takt erlauben, obwohl die CPU schon 1 GHz höher taktet und das innerhalb des selben Power-Budgets. Legt man das in eine diskrete GPU um, wo keine CPU sich das Wärme-Budget teilt, dann bin ich sicher dass ich da eine Verbesserung sehe die erstmalig mit Polaris ihre Auswirkungen zeigt.
Das stimmt so leider nicht. die GPU und CPU teilen sich ja das Powerlimit.
Es geht auch nicht um CPU-Taktraten sondern darum:
Das bedeutet von Carrizo->BR gibt es Optimierungen die eben schon in einer APU 13% mehr GPU-Takt erlauben, obwohl die CPU schon 1 GHz höher taktet und das innerhalb des selben Power-Budgets. Legt man das in eine diskrete GPU um, wo keine CPU sich das Wärme-Budget teilt, dann bin ich sicher dass ich da eine Verbesserung sehe die erstmalig mit Polaris ihre Auswirkungen zeigt.
Doch, genau darum geht es bei der APU.
Und wie schon gesagt - du ziehst hier Schluesse, wo es absolut nicht angebracht ist. Hoehere Basis- und Turbotaktraten bedeuten erstmal rein gar nichts. Die sind nur fuers Datenblatt. In der Wirklichkeit taktet der Chip irgendwo in den Turbo-Raten und wenn es zu viel wird auch mal unter dem Basistakt. Was zaehlt, ist was insgesamt an realen Taktraten rum kommt. Und Leistungsangaben sind heute schwammig, es gibt keine harte Grenze (TDP) mehr, Turbo/Throttling und anderen Power Management Mechanismen sei Dank. Durch bessere Kuehler kann nochmal viel gehen.
"xy% hoehere Taktraten" muss also nicht heissen, dass diese dauerhaft anliegen, sowieso wenn schon ein aggressiveres power management genannt wird.
Ich glaube immer noch nicht daran, dass BR andere Chips sind als CZ, es sei denn, BR waere doch noch ein Shrink. Das war aber eher mal (m)ein Wunschdenken als dass wirklich was dran sein koennte.
Und jetzt ist wirklich genug, fuer Carrizo gibt es einen Thread.
y33H@
2016-02-19, 23:43:15
Hier scheint AMD aktuell tatsächlich noch eine Schippe drauf gelegt zu haben wenn man schaut was bei Bristol Ridge bis zu 1 GHz mehr Takt ermöglicht:Erst mal die Praxis abwarten, Carrizo mit 15W etwa schafft bei GPU-Last nicht mal ansatzweise die von AMD genannten CPU-Basis-Taktraten.
Complicated
2016-02-20, 03:43:31
Daher schrieb ich, dass eben die selben Stromspartechniken in einer diskreten GPU eine größere Wirkung erzielen als in einer APU, wo sie sich das Powerbudget teilen. Dies erwarte ich eben für Polaris. Ich sehe da durchaus eine vertretbare Schlußfolgerung. Ihr dürft das gerne anders sehen.
Du meinst dass die GPU insgesamt mehr Watt einsparen kann, weil sie eben auch insgesamt 10x so viel verbrauchen darf? :ugly:
Darum geht es nicht. Bei der APU geht es darum, dass die GPU hoeher takten kann, waehrend die CPU untaetig ist und vice versa. Und die Stromsparmechanismen, die der GPU Part von Carrizo hat sind auch in Tonga/Fiji. Du brauchst also nichts von Carrizo bei Polaris erwarten, was sowieso keinen Sinn macht.
Die Lastanpassung funktioniert bereits sehr gut, schau dir doch mal Igors Test zu Fiji an. Bei Polaris muessen die Recheneinheiten selbst aber effizienter werden. Fiji landet meist nur 10-20% vor Hawaii, hat aber 45% mehr Recheneinheiten. Hawaii skaliert dagegen ggue. Tahiti nahezu linear, teils auch etwas besser. Tahiti ist aber GCN 1.0 und ueber 4 Jahre alt. Wenn die Recheneinheiten effizienter arbeiten und besser ausgelastet werden, koennen sie sich auch einige davon sparen. Das hat Nvidia auch mit Maxwell so gemacht.
Complicated
2016-02-20, 11:35:18
Du meinst dass die GPU insgesamt mehr Watt einsparen kann, weil sie eben auch insgesamt 10x so viel verbrauchen darf? :ugly:
Darum geht es nicht. Bei der APU geht es darum, dass die GPU hoeher takten kann, waehrend die CPU untaetig ist und vice versa. Und die Stromsparmechanismen, die der GPU Part von Carrizo hat sind auch in Tonga/Fiji. Du brauchst also nichts von Carrizo bei Polaris erwarten, was sowieso keinen Sinn macht.
Zum einen ist dein erster Satz absoluter Nonsens und du solltest nicht versuchen mich hier für blöd zu verkaufen.
Zum anderen sprichst du von Carrizo und ich von Bristol Ridge das weitere Verbesserungen gegenüber Carrizo erhalten hat, wie Dresdenboy in seinem Blog ausführt. (Link auch mal lesen, oder zumindest den Teil den ich zitiert habe, und dann noch mal Fett gemacht habe für dich)
Nun kannst du weiter an dem vorbei schreiben was ich schrieb, oder besser du sparst dir auf [meine] Beiträge zu antworten.
Nakai
2016-02-20, 15:25:31
https://twitter.com/GChip/status/700420476070301697
Capsaicin anyone? ;)
Einige spekulieren nun mit 8,6 Milliarden Transistoren für P11.
Das würde eine Packdichte von 37 Millionen Transistoren/mm2 für Polaris ergeben. Folgerichtig wäre damit auch P10 bei ~4,6 Milliarden Transistoren.
Damit wäre P10 näher an Tonga und P11 sehr nahe an Fiji.
Sunrise
2016-02-20, 15:36:39
Dichte und Effizienz vs. Takt
8,6 Milliarden Transistoren bei ca. 232mm^2, klingt verdammt konkurrenzfähig.
Nakai
2016-02-20, 16:25:55
Ich hätte nicht mit mehr als 35Mio Transen/mm² gerechnet. Das ist eine 2.67 höhere Packdichte. Und falls man den Takt dementsprechend nicht sonderlich anfasst, und wenn man die letzten Informationen bezüglich dem Finfet-Prozesses berücksichtigt, wird die Taktbarkeit dadurch eingeschränkt. Es kommt einfach drauf an, was unten dabei rauskommt.
Der_Korken
2016-02-20, 16:35:41
Spräche eine so hohe Packdichte nicht auch gegen ein GDDR5(X)-Interface? Zumindest habe ich das so verstanden, dass diese (mehr oder weniger) konstant viel Fläche benötigen, egal wie fein der Fertigungsprozess ist.
Agent117
2016-02-20, 17:16:08
Das mit der Fläche stimmt schon. Da limitiert quasi das "Rastermaß" der Platine, an dem sich das Pinout orientiert. Den Ausgang des Interfaces bilden ja Punkt zu Punkt Verbindungen (Eine Verbindung über eine Leiterbahn überträgt logischerweise 1 Bit pro Takt). Dort kann man überhaupt nichts verkleinern.
Weiter vorne in Richtung der Rops hat man dann auch zunehmend normale Logik und kann ggf. , -natürlich abhängig vom Layout - dichter packen.
AMD sprach ja mal davon dass man "nur" eine 2x höhere Packdichte erricht.
Demgegenüber wurden für GP100 17Mrd Transistoren auf weniger als 600mm² genannt, was einer Steigerung von deutlich mehr als der 2 fachen Packdichte entspricht. Das Interface mit seiner Größe von vlt 20% des Chips bremst eine Steigerung dann auch nicht so stark aus.
fondness
2016-02-20, 17:19:36
https://twitter.com/GChip/status/700420476070301697
Capsaicin anyone? ;)
Einige spekulieren nun mit 8,6 Milliarden Transistoren für P11.
Das würde eine Packdichte von 37 Millionen Transistoren/mm2 für Polaris ergeben. Folgerichtig wäre damit auch P10 bei ~4,6 Milliarden Transistoren.
Damit wäre P10 näher an Tonga und P11 sehr nahe an Fiji.
Für den Samsung Prozess wohl durchaus möglich. Da AMD eben auch die Stärken des FinFET Prozesses bei moderaten Taktraten sieht, überrascht die hohe Pacdichte umso weniger. Man ist für maximale Effizienz wohl mehr in die Breite bei möglichst hoher Packdichte statt höheren Taktraten gegangen. Die Transistorenanzahl verwundert auch wenig, wenn P11 ~Fiji Performance erreichen soll.
AffenJack
2016-02-20, 17:26:04
Ich hätte nicht mit mehr als 35Mio Transen/mm² gerechnet. Das ist eine 2.67 höhere Packdichte. Und falls man den Takt dementsprechend nicht sonderlich anfasst, und wenn man die letzten Informationen bezüglich dem Finfet-Prozesses berücksichtigt, wird die Taktbarkeit dadurch eingeschränkt. Es kommt einfach drauf an, was unten dabei rauskommt.
Zumindest im Vergleich zum alten 28nm Prozess bei GF soll die 14LPP Dichte deutlich mehr als 2 sein. Aber ist natürlich die Frage wie TSMC da im Vergleich zu steht. Aber solche Dinge wie hier machen zumindest Hoffnung auf einiges:
http://i.imgur.com/I9s2ur3.jpg
http://www.planet3dnow.de/vbulletin/threads/397613-Spekulationen-zu-aktuellen-und-zukuenftigen-Prozessen-bei-GlobalFoundries-/page102
Das da soll nur nen A9 sein, bei nem größeren Chip wird man natürlich nicht solch gute Ergebnisse bekommen, aber trotzdem denke ich können wir alleine vom Prozess einiges erwarten.
Vergleicht man den A9 bei Samsung und TSMC, dann könnte AMD durch die Wahl von GF da zumindest platzmäßig einen deutlichen Vorteil haben.
Nakai
2016-02-20, 17:34:01
Der Cortex A9 ist relativ unkompliziert. Es gibt noch viele andere Sachen, die berücksichtigt werden müssen. PHYs, Place&Route und Prozessbibliotheken, welche für bestimmte Strukturen weniger optimal sind. AMD hat bei Carrizo einfach mal HD-Libs verwendet und man sieht was möglich ist. SRAM-Zellen scheinen auch besser zum packen zu sein, als andere Strukturen.
Falls diese Andeutung real ist, mit den 8,6 Milliarden Transistoren, dann Hut ab. Ich hätte nicht mehr als 35 Mio Transistoren/mm² erwartet. Eher 30, als 37.
Ahja, würde man anhand der Folie gehen, und ausgehend von der Packdichte von AMD bei 28HP hochskalieren, wäre man bei 50 Mio Transen/mm².
Die Transistorenanzahl verwundert auch wenig, wenn P11 ~Fiji Performance erreichen soll.
Ich sehe Fiji als Skalierungs"problem" an. Wenn man CP und Primitive/Geometry-Engines umgekrempelt hat, sollte man schon mehr Effizienz erreichen. Es muss ja einen Grund geben, wieso größere GCNs eine schlechtere Effizienz haben. Sachen wie CP skalierten dabei niemals mit. Außerdem zeigen Sachen wie AsyncCompute, dass GCN noch verstecktes Potential hat.
fondness
2016-02-20, 17:45:02
Das stimmt natürlich ja. Aber Polaris bekommt ja wohl auch neue Features, etc. was auch Transistoren kostet.
Brillus
2016-02-21, 15:35:25
Hallo,
da ich öfters unterwegs bin interesieren mich eher die mobil Varianten.
Aktuell habe ich eine GTX 860M im System. Habe aktuell vor mit den 14/16nm Generation(GPU und CPU) mir einen neuen Laptop zuzulegen.
Was könnte man da ca. an Performance verbsserungen in Prozent bei den GPUs erwarten, bei Polaris 10 bzw. Polaris 11(soll davon überhaupt was mobiles geben?).
Gruß Brillus
PS: Jo momentan reicht mein Laptop noch aus, sind eher so kleine macken die mich stören, kann also gut sein das ich erst so um/nach Weihnachten kaufe, je nachdem wie die Angebote sind.
R.I.P.
2016-02-21, 16:36:19
Rein ins Blaue geraten: kann man mit Polaris 10 und 11 im Juni 2016 schon rechnen? Früher, später? Git es Anhaltspunkte für den Termin des Launches?
Knuddelbearli
2016-02-21, 16:52:11
Hallo,
da ich öfters unterwegs bin interesieren mich eher die mobil Varianten.
Aktuell habe ich eine GTX 860M im System. Habe aktuell vor mit den 14/16nm Generation(GPU und CPU) mir einen neuen Laptop zuzulegen.
Was könnte man da ca. an Performance verbsserungen in Prozent bei den GPUs erwarten, bei Polaris 10 bzw. Polaris 11(soll davon überhaupt was mobiles geben?).
Gruß Brillus
PS: Jo momentan reicht mein Laptop noch aus, sind eher so kleine macken die mich stören, kann also gut sein das ich erst so um/nach Weihnachten kaufe, je nachdem wie die Angebote sind.
+163,7693% Leistung bei selben Verbrauch
Rein ins Blaue geraten: kann man mit Polaris 10 und 11 im Juni 2016 schon rechnen? Früher, später? Git es Anhaltspunkte für den Termin des Launches?
Am 31 Juni
Der_Korken
2016-02-21, 17:29:15
Da noch keiner weiß wann die Desktop-GPUs kommen, hat man logischerweise auch keine Infos zu mobilen GPUs. Prinzipiell würden sich die Polaris GPUs für den Mobilbereich schon eignen, da (zumindest Polaris 10) eher fürs untere Midrange kommen dürfte. Da es aber keine Infos über Leistung, Verbrauch und benutzte Technologien gibt (HBM, GDDR5X, etc.), kann man nicht sagen wie sehr es sich lohnt auf Polaris zu warten.
horn 12
2016-02-21, 18:31:54
Polaris wird früher kommen als Juni, Gehe von Ende April bis Mitte Mai aus!
AnarchX
2016-02-21, 18:53:59
Mal sehen ob der GDC Hinweis etwas mit Polaris zu tun hat oder sich nur auf Dual-Fiji bezieht. Für 140/230mm² + GDDR5 wäre ein Launch im 1. Halbjahr durchaus denkbar, wenn man auch die Sample-Verfügbarkeit bei Zauba berücksichtigt.
Hallo,
da ich öfters unterwegs bin interesieren mich eher die mobil Varianten.
Aktuell habe ich eine GTX 860M im System. Habe aktuell vor mit den 14/16nm Generation(GPU und CPU) mir einen neuen Laptop zuzulegen.
Was könnte man da ca. an Performance verbsserungen in Prozent bei den GPUs erwarten, bei Polaris 10 bzw. Polaris 11(soll davon überhaupt was mobiles geben?).
Beide GPUs sollten sich für Mobile anbieten. Polaris 10 wurde ja schon einem solchen Szenario gezeigt: GTX 950 Leistung @ ~30W.
Frosty
2016-02-21, 18:55:25
Polaris wird früher kommen als Juni, Gehe von Ende April bis Mitte Mai aus!
das ist aber sehr optimistisch;)
wäre schön wenn amd mal vor nvidia die neue generation auf den markt schmeissen würde.:)
Ailuros
2016-02-21, 18:58:25
Polaris wird früher kommen als Juni, Gehe von Ende April bis Mitte Mai aus!
Ja in laptops die aber auch wohl so frueh auf Regalen erscheinen werden.
Beide GPUs sollten sich für Mobile anbieten. Polaris 10 wurde ja schon einem solchen Szenario gezeigt: GTX 950 Leistung @ ~30W.
Es wurde auch klar von AMD kommuniziert, dass der Chip fuer mobile ist. Er wurde aber im dem Testaufbau auf ein desktop Board gebaut.
Mit der Angabe "GTX 950 Leistung @ ~30W" waere ich vorsichtig. Wir wissen nicht, wie viel Reserven beide Chips noch hatten und beide waren mit 60 Hz Vsync nicht voll ausgelastet, also mehr oder weniger deutlich am sparen. Hat denn endlich mal jemand die 950 in dem Szenario ohne Vsync vermessen? Das kann doch nicht so schwer sein :P
Terminangaben, die hier schon gefallen sind, sind ohne spezifischen Anhaltspunkt voellig geraten ,bitte nicht darauf verlassen. AMD hat aber gesagt, dass diesmal die mobilen und desktop-Produkte zeitlich dicht hintereinander kommen sollen, ohne Angabe, was zuerst da ist.
Agent117
2016-02-21, 20:24:17
https://twitter.com/GChip/status/700420476070301697
Capsaicin anyone? ;)
Einige spekulieren nun mit 8,6 Milliarden Transistoren für P11.
Das würde eine Packdichte von 37 Millionen Transistoren/mm2 für Polaris ergeben. Folgerichtig wäre damit auch P10 bei ~4,6 Milliarden Transistoren.
Damit wäre P10 näher an Tonga und P11 sehr nahe an Fiji.
Glaube aber der meinte eher TFlop Rechenleistung wenn er schreibt: "nothing less than the 8-methyl-N-vanillyl-6-nonenamide-infused Carolina Reaper will do"
Das entspricht genau Fiji bei 1,05Ghz und würde heißen, dass Polaris 11, sofern der Takt nicht deutlich steigt, auch ca. 4096SP hat.
Vlt meinte er aber auch einfach doch Fiji^^
Flusher
2016-02-21, 20:32:04
Man munkelt, dass es zur Computex soweit sein wird.
Undertaker
2016-02-22, 10:06:28
Ja in laptops die aber auch wohl so frueh auf Regalen erscheinen werden.
Größtes Problem bei Laptops ist, das die ganzen Skylake-Neuauflagen durch sind und bis Kaby Lake in der Masse nicht mehr viel passieren wird. Wie man hinter den Kulissen so hört, ist man bei einem gewissen GPU-Riesen darum relativ entspannt was die 14nm-Generation angeht (bezogen auf das Notebook-Geschäft), eben weil man die Chips frühestens Ende H2/16 in nennenswerten Stückzahlen abgesetzt bekommt.
R400M Serie startet im April; R5 M430, R7 M460 bei Lenovo: http://www.computerbase.de/2016-02/mobile-gpu-amd-nvidia-lenovo/
Nur rebrands oder mit Polaris? :D
M4xw0lf
2016-02-22, 15:36:22
R400M Serie startet im April; R5 M430, R7 M460 bei Lenovo: http://www.computerbase.de/2016-02/mobile-gpu-amd-nvidia-lenovo/
Nur rebrands oder mit Polaris? :D
So niedrig angesetzte Brandings? Umbenannt.
Wenn sie bei der Strategie bleiben, wohl ja.
230M-265M, 330M-360M = Oland
Wenn sie das Schema umstellen, koennte die 460 auch Polaris 10 sein. Tonga dann z.B. 470 und Polaris 11 480. Aber ich denke, dass es vor allem noch zu frueh ist.
Das sind ganz bestimmt Rebrandings. Sollte der 460 wirklich Polaris10 sein, wird auch der 470 definitiv Polaris sein. Grad im Mobile ist Tonga total unsinnig platziert. Aber ich glaub nicht dran. Das sind Oland und Oland oder Oland und Bonaire. Ich rechne damit, dass Polaris10 stark gesalvaged der 470 und zusätzlich noch 480er wird und Polaris11 wird zum 490(X).
AnarchX
2016-02-22, 18:40:18
Die M430 wird wohl Iceland sein und damit immerhin eine GCN3-GPU.
Die M460 soll laut AMD Polaris sein und zur Jahresmitte erscheinen: https://twitter.com/Thracks/status/701786083969794049
victore99
2016-02-22, 19:10:39
Vorweg: ich bin neu hier und kein Experte. Deshalb sorry, falls ich gelegentlich stuss labere.
However:
Ich weiß nicht ob ihr das wisst, aber bei einem Bekannten mit GTX 950 konnte ich das CES-System halbwegs nachstellen - sofern das mit einem i5 4460 eben möglich ist. Er kam auf rund 86fps, dh auf der CES dürfte sich die 950er doch stark gelangweilt haben. der Ausbau von dem kleinen Polaris kann sich also - je nach Takt - als Ersatz von allem ab der 360er bis eventuell 380X herausstellen - bei geringer Auslastung drosseln kann AMD ja recht gut.
Auch ist mir aufgefallen, dass GM200 über einen größeren Cache verfügt - wo doch Fiji deutlich mehr Cachebedarf haben dürfte, da der Speicher so niedrig taktet und eine schnellere GPU versorgen muss. oder irre ich mich da?
Hübie
2016-02-22, 21:42:58
Hallo und willkommen an Bord victore99.
Jeder, ob Experte, selbsternannter Allwisser oder einfach nur Fan von Hardware ist hier willkommen. :) Hohe Leistung vom Cache erreicht man durch Takt, Latenz und Anbindung. Fiji hat breit angebundenen VRAM (HBM mit 4096 Bit Busbreite und pro Stack eben ein 1024 Bit IMC, welcher an 512 KB Cache und 16 ROPs). Das passt also mMn. Was nicht passt ist die Größe vom Cache, da man immer offchip gehen muss wenn der voll ist - und bei der blend power passiert das wahrscheinlich oft, weshalb Fiji gut auf VRAM-OC reagiert.
Die Nachstellung, welche du angesprochen hast bezieht sich wahrscheinlich auf Star Wars Battlefront, oder? Da gebe ich erst mal nichts drauf, da die Präsentation von keinem unabhängigen war und auch keinerlei Details kommuniziert wurden. Aber danke für den Hinweis. ;)
victore99
2016-02-22, 22:55:15
Hallo und willkommen an Bord victore99.
Jeder, ob Experte, selbsternannter Allwisser oder einfach nur Fan von Hardware ist hier willkommen. :)
danke dir!
Die Nachstellung, welche du angesprochen hast bezieht sich wahrscheinlich auf Star Wars Battlefront, oder? Da gebe ich erst mal nichts drauf, da die Präsentation von keinem unabhängigen war und auch keinerlei Details kommuniziert wurden. Aber danke für den Hinweis. ;)
ja, ich meine das Battlefront-System. und mir ist bewusst, dass Techdemos nie neutral sind. ich wollte nur zeigen, dass eine 950er in der Referenz absolut nichts mit dem gezeigten kleinen Polaris zu tun hat - der vielleicht bis wahrscheinlich noch gecuttet oder gethrottlet sein wird. noch dazu in einem DX12-Game...
zum Thema caches fällt mir ein: wie platz / wattintensiv sind die?
Hübie
2016-02-22, 23:27:31
Puh. Es gab mal eine Projektion wo gezeigt wurde, dass eine Zelle etwa 0,3 mm² in 28 HPC belegt. Aber die Zahl ist jetzt mal ohne Gewähr und wieviel KiB nun eine Zelle entsprechen weiß ich auch nicht mehr. Grundsätzlich ist SRAM (6T) nicht so komplex, aber hier möge man mich korrigieren. Eine Leistungsangabe ist widerum schwer zu machen, da die Datenübertragung selber Energie benötigt.
N0Thing
2016-02-23, 10:48:24
Die M460 soll laut AMD Polaris sein und zur Jahresmitte erscheinen: https://twitter.com/Thracks/status/701786083969794049
Da steht aber nur, dass Polaris Mitte des Jahres kommen wird und dass er keine Ahnung hat, was sich hinter der M460 versteckt.
Die M460 soll laut AMD Polaris sein und zur Jahresmitte erscheinen: https://twitter.com/Thracks/status/701786083969794049
Nein, das interpretierst du falsch.
Er sagt, dass Polaris Mitte des Jahres kommt. Das Notebook mit 460M ist von Lenovo aber fuer April angekuendigt -> 460M != Polaris
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/AMD-Teaser-Twitter-1186966/
Hm
Polaris11:
- 8 und 16GB HBM2 (vermutlich in 2 Stacks)
- 48-56CUs bei entsprechendem Takt
- 232mm² in >8Mia Transistoren und >8 TFlops
- 150W TDP
Klingt für mich nach einem extrem guten Produkt...
Polaris10 würde dann mit folgenden Specs Sinn machen:
- 4GB GDDR5
- 128Bit Anbindung, 7-8GB/sec, für 256Bit ist der Chip zu klein
- 24-32 CUs bei entsprechendem Takt
- 160mm², ca. 4TFlops
- 75W TDP
M4xw0lf
2016-02-23, 15:27:31
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/AMD-Teaser-Twitter-1186966/
Hm
Polaris11:
- 8 und 16GB HBM2 (vermutlich in 2 Stacks)
- 48-56CUs
- 1GHz+ Takt (vielleicht signifikant mehr)
- 232mm² in >8Mia Transistoren und >8 TFlops
- 150W TDP
Klingt für mich nach einem extrem guten Produkt...
Wer sagt überhaupt, dass es da um die Polaris-Generation geht? Mal von den anderen abenteuerlichen Interpretationen der paar kümmerlichen Zahlen abgesehen. :D
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/AMD-Teaser-Twitter-1186966/
Den Tweet hatten wir vor 3 Tagen hier
https://twitter.com/GChip/status/700420476070301697
Capsaicin anyone? ;)
War auch auf der Hauptseite. Hast du die News auf PCGH eigentlich gelesen? Dann wuesstest du, dass sie auf genau diesem Thread basiert.
imho ist es voellig unsinnig, da irgendetwas hineininterpretieren zu wollen.
16-08-06 koennte im uebrigen auch ein Datum sein *scnr*
Die 16 Millionen wird indes auch keine zufällige Zahl sein
Ist sie auch nicht, Capsaicin -> 16 Mio scu
Davon ab verstehe ich nicht, wieso sich alle auf Polaris stuerzen. Wenn was zur GDC kommt, dann ja wohl die FuryX2
horn 12
2016-02-23, 15:39:11
Falls dies stimmen sollte, dann sollte klar sein dass:
Dafür dann aber auch Teurer als Fiji , sprich Fury X und zumindest gleiche bis höhere Leistung als jene
Zu Teuer für den Massenmarkt und kaum Marktanteile verwirklichbar mit Polaris 11
victore99
2016-02-23, 16:24:05
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/AMD-Teaser-Twitter-1186966/
Hm
Polaris11:
- 8 und 16GB HBM2 (vermutlich in 2 Stacks)
- 48-56CUs bei entsprechendem Takt
- 232mm² in >8Mia Transistoren und >8 TFlops
- 150W TDP
Klingt für mich nach einem extrem guten Produkt...
für mich kommt das weniger hin. 3072 oder gar 3584 Recheneinheiten sind zwar nett, aber in 232mm² - niemals. das ist - bei 3072 Einheiten - ein um etwa 1,85 (!!!) verkleinerter Hawaii. wenn die Struktur (mit 1,7 geschätzt) da was ausmacht, dann der HBM noch etwas spart - trotzdem sehr schwer, da noch Luft zu lassen für die Polaris-Verbesserungen.
Gleichzeitig diese TDP - niemals bei der Größe. Schon eine Verdoppelung des Chips auf nur etwa Hawaii-Größe brächte 300W ein (na klar, deutlich schneller) - aber einen richtigen Bigchip sehe ich bei der TDP und bei der Größe nicht, auch da AMD sich nicht mit einer neuen Speichertechnik einen 600mm²-Bigchip herausarbeiten kann, wie das bei Fiji grad noch ging.
aber da die Rechenleistung ja quasi bestätigt ist, sehe ich drei Optionen:
1. Fläche größer
2. TDP falsch
3. keine (platzfressenden) Verbesserungen in der Architektur
Polaris10 würde dann mit folgenden Specs Sinn machen:
- 4GB GDDR5
- 128Bit Anbindung, 7-8GB/sec, für 256Bit ist der Chip zu klein
- 24-32 CUs bei entsprechendem Takt
- 160mm², ca. 4TFlops
- 75W TDP
passt überhaupt nicht zur Techdemo von Battlefront, egal wie heftig man diese auslegt. Dort dürfte dieser Chip Löcher in den Stromverbrauch geschlagen haben. selbst runterthrotteln ginge nur schwer - man müsste den Stromverbrauch mehr als halbieren.
aber immerhin die Fläche halte ich hier im Bereich des Möglichen.
Nakai
2016-02-23, 16:57:59
AMD nutzt wohl den GF/Samsung Finfet-Prozess. Und es wurde schon öfter behauptet und angedeutet, dass Finfet eine extreme Divergenz bzgl Packdichte und Takt hat. Bedeutend, wenn ich Takt haben möchte, dann muss ich die Packdichte senken. Wenn ich Packdichte haben möchte, kann man keinen hohen Takt fahren. GCN war bisher deutlich weniger Taktfreudig als konkurrierende NV-Designs.
Wieso das so ist? Es liegt wohl am generellen Design. Zum Beispiel besitzen die SPs 4 Stages, ergo 4 Takte Latenz. NV hat hier 6 Takte. Eine Stage ist ein Block mit Ausführungslogik.
http://vhdlguru.blogspot.de/2011/01/what-is-pipelining-explanation-with.html
Dadurch, dass man die Operationen aufteilt, kann man einen höheren Takt fahren. Es mag komisch klingen, aber AMD sollte bei Finfet eher auf Packdichte gehen, als den Takt hochzudrehen.
AMD hat P10 auch mit nur 875MHz gefahren. Womöglich war genau dort ein schöner Sweetspot. Eventuell sind auch nicht alle CUs aktiviert gewesen.
Der volle Chip wird wohl dann etwas mehr Strom verbrauchen. 75W ist eine Annahme welche daher kommt, dass eine Diesize bei etwa 100~150mm² gut bei 75W liegen sollte. Wattage/mm² ist eine sehr wichtige Aussage bzgl der Kühlungsfähigkeit des Designs.
NV macht es ähnlich. GK110 und GM200 haben eine ähnliche Diesize und ähnliche Verbrauchswerte, was sich gut durch das gesamte Lineup zieht. Im Grunde sollte man eine bestimmte Grenze nicht überschreiten.
Kurz, Polaris10 mit 100~150mm² passt hervorragend zu 75W Verbrauch. Und Polaris11 mit den spekulierten 232mm² zu den 150W Verbrauch. Wie es genau kommt, werden wir dann sehen.
horn 12
2016-02-23, 17:15:02
Und die Performance bei Polaris 11 maximal Fury X, oder doch geringfügig besser.
Jedoch Ohne den ganzen Verbesserungen wie mehr Speicher, überarbeitetes Front-End udg.
[MK2]Mythos
2016-02-23, 20:12:47
Und die Performance bei Polaris 11 maximal Fury X, oder doch geringfügig besser.
Jedoch Ohne den ganzen Verbesserungen wie mehr Speicher, überarbeitetes Front-End udg.
Und das hat dir wer verraten? Mal wieder deine Glaskugel?
Nakai
2016-02-24, 02:04:25
Der näheste Hint für eine Packdichte, minimum für eine GPU, wären die Apple A9/X-SOCs, welche einen Samsung Prozess verwenden.
Der APL0898 ist 96mm² groß und hat über 2 Milliarden Transistoren (Speku).
Worstcase: ~20 Mio. Transistoren/mm² (ungefähr bei 2 Milliarden Transistoren)
Bestcase: ~26 Mio. Transistoren/mm2 (ungefähr bei 2,5 Milliarden Transistoren)
Eine GPU sollte noch eine höhere Packdichte drauflegen. Gibt es Vergleichmöglichkeiten? Kaveri und Carrizo.
Kaveri: ~9,8 Mio. Transistoren/mm² (GF)
Carrizo: ~12,6 Mio. Transistoren/mm² (GF)
Hawaii: ~14,1 Mio. Transistoren/mm² (TSMC)
GFs Prozess dürfte eine leicht höhere Grundpackdichte haben mit Gate First Transistoren. Jedoch sollte man niemals Prozesse vergleichen. Im Endeffekt sollte der Vergleich nur suggerieren, dass eine Packdichte bei einer GPU ein Stück höher liegt, als bei einem SOC o.Ä.
Ich hab keine Ahnung, aber ich denke dass die 30 Mio. Transistoren/mm² erreicht werden können. Anhand dessen sollte man schon mehr als Hawaii Performance für P11 und für P10 mehr als Pitcairn erwarten dürfen. Und da Fji wirklich kein großes Stück vor Hawaii ist und selbst Pitcairn kratzt sehr nahe an Tahiti.
Es sollte logisch sein, wo wohl die Chips liegen könnten. Wenn jetzt noch der Takt stimmen sollte.
OBrian
2016-02-25, 13:00:06
Die 8,6 paßt aber nicht zu einer Dual-Fiji. Naja, mal sehen, in drei Wochen sind wir schlauer, es hieß ja, das Capsaicin solle zum Würzen der GDC genutzt werden, 14.-18. März.
AMD nutzt wohl den GF/Samsung Finfet-Prozess. Und es wurde schon öfter behauptet und angedeutet, dass Finfet eine extreme Divergenz bzgl Packdichte und Takt hat. Bedeutend, wenn ich Takt haben möchte, dann muss ich die Packdichte senken. Wenn ich Packdichte haben möchte, kann man keinen hohen Takt fahren. GCN war bisher deutlich weniger Taktfreudig als konkurrierende NV-Designs.
Wieso das so ist? Es liegt wohl am generellen Design. Zum Beispiel besitzen die SPs 4 Stages, ergo 4 Takte Latenz. NV hat hier 6 Takte. Eine Stage ist ein Block mit Ausführungslogik.
http://vhdlguru.blogspot.de/2011/01/what-is-pipelining-explanation-with.html
Dadurch, dass man die Operationen aufteilt, kann man einen höheren Takt fahren. Es mag komisch klingen, aber AMD sollte bei Finfet eher auf Packdichte gehen, als den Takt hochzudrehen.ja, aber wenn das der Prozeß ist, womit auch die CPUs gebaut werden (die mehrere GHz takten), dann ist der Takt doch kein Problem der Fertigung, sondern nur der Architektur (Timingprobleme usw.). Also selbst bei maximaler Packdichte gehen die Transistoren dann eben nicht auf 8 GHz, sondern nur 1,5 oder so, aber das wäre auch schon mehr als jede GPU bisher, also weit mehr als ausreichend.
AMD wird sicherlich versuchen, den durchschnittlichen Takt zu erhöhen, jedes bißchen ergibt mehr Leistung pro Fläche für praktisch umsonst.
Ach die 8,6 ist jetzt schon ein fester Wert? :rolleyes:
reminder: es ging um "8-methyl-N-vanillyl-6-nonenamide", nicht von "8,6 irgendwas"
Dural
2016-02-25, 15:44:50
naja wenn der chip wirklich 240mm2 gross ist darf man schon rund 8 Milliarden in 14nm erwarten. Da man beim GP100 derzeit von 17 Milliarden ausgeht, kann man das für ein 14nm Chip in der Grösse schon erwarten. Da 16nm wahrscheinlich etwas "schlechter" in dem Bereich ist und NV generell nicht so eng Packt.
2phil4u
2016-02-25, 15:51:03
Weiss jemand hier, wieviel ein gleicher Chip an Strom verbraucht in 14 nm gegenüber dem alten Prozess ?
Auch wüsste ich gerne ob wenn ein Chip in der neuen Technik eine Frequenz mit weniger Spannung schafft nur die niedrigere Spannung in die Berechnung einfliesst oder noch andere Größen.
Ein Chip der x MHZ mit 0.5 V schafft würde 4 mal weniger verbrauchen als der mit 1 Volt, oder ändern sich noch andere Dinge ?
Der Widerstand müsste gleich bleiben damit Uhoch 2/R rauskommt.
Und der Widerstand wird immer kleiner, desto mehr Frequenz anliegt, Frequenz müsste mit der Stromstärke korrelieren.
Aber könnte ein neuer Prozess auch bei der gleichen Anzahl von Transistoren bei der gleichen Voltzahle mehr Frequenz schaffen, ohne das der Stromverbrauch deswegen steigt.
ßIch meine wäre es möglich das bei gleich vielen Tranistoren der eine Chip mit 1 Volt 2 GHZ schafft statt 1 Ghz und nicht doppelt so viel Energie verbrät
Weiss jemand hier, wieviel ein gleicher Chip an Strom verbraucht in 14 nm gegenüber dem alten Prozess ?
Auch wüsste ich gerne ob wenn ein Chip in der neuen Technik eine Frequenz mit weniger Spannung schafft nur die niedrigere Spannung in die Berechnung einfliesst oder noch andere Größen.
[...]
Aber könnte ein neuer Prozess auch bei der gleichen Anzahl von Transistoren bei der gleichen Voltzahle mehr Frequenz schaffen, ohne das der Stromverbrauch deswegen steigt.
TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.
bei 14 LPP sollte es aehnlich ausfallen, evtl zu einer Tendenz zu mehr Dichte.
Bis zu -70% Verbrauch. Es wird weniger sein, weil man enger packt. Den 1:1 selben Chip, also einen reinen Shrink wird es aber nicht geben.
Natuerlich sind theoretisch hoehere Taktraten moeglich, das kommt aber auch stark auf das individuelle Design und die Packdichte an.
Ailuros
2016-02-25, 19:01:17
Man muss den Ideal-Fall den foundries angeben von Design-bedingten Kostanten ausseinanderhalten koennen. Nur weil foundry X bis zu 2.0x Mal so viel Transistoren/mm2 angiebt als Beispiel, heisst noch lange nicht dass es fuer alle Faelle eine gute Idee ist so viel anzuwenden.
Und ja wir wissen dass der maximale theoretische Unterschied zwischen 28HPm und 16FF+ bei 2.0x liegt, der Haken ist aber dass alle heutigen chips auf 28HP TSMC hergestellt wurden und es gibt auch keinen einfachen Vergleich zwischen 28HP TSMC und Samsung LPP.
Wer jetzt glaubt dass ein IHV es schaffen wird die optimale/maximale Steigerung der Transistoren/mm2 zu erreichen und gleichzeitig auch noch Frequenzen erhoehen werden kann unter FF Prozessen sollte erstmal wieder auf den Teppich kommen.
OBrian
2016-02-25, 22:56:54
Ach die 8,6 ist jetzt schon ein fester Wert? :rolleyes:
reminder: es ging um "8-methyl-N-vanillyl-6-nonenamide", nicht von "8,6 irgendwas"
das mein ich ja, aus dem verklausulierten Gequatsche kann man nichts ableiten, oder alles. Das ist doch reine Verkackeierung der gesamten Spekulationsforen-Community! Ich würde an deren Stelle bei der GDC einfach eine Gulaschkanone mit "chön charfem" Chili con Carne hinstellen.
horn 12
2016-02-26, 11:42:01
Duch DX12 bleibt vor Allem Fiji doch weitaus stärker als im Anfangsstadium (DX11)
Somit sollte sich eine Fury X mit HBM2 bis Polaris im Absolutem High End Sektor spruchreif ist vielleicht gar ausgehen durch die stolzen 4096 Shader
Dazu gibt es noch zu wenige Daten. Bei AotS trifft das auch nur zu, wenn die ACEs eingesetzt werden und bis sich das durchsetzt - was an sich schon fraglich ist - dauert es noch. Ohne AC skaliert Fiji unter DX12 nicht besser als sonst. So viel zur hauseigenen Konkurrenz... und ggue. Nvidia muss sich ueberhaupt erst noch zeigen, ob AMD durch die fehlenden Features (CV, ROVs) keine gravierenden Nachteile hat.
Ich verstehe deine staendige Lobhudelei auf Fiji einfach nicht. Zudem bringt das hier im Polaris Thread wieder mal nichts Neues.
horn 12
2016-02-26, 12:02:27
OK, dies schon :-)
Warten wir die ersten DX12 Spiele ab, bis Ende April sollten 3 bis 4 Games releast sein.
Dann sehen wir ja wie es kommen könnte.
Complicated
2016-02-26, 13:02:35
Dazu gibt es noch zu wenige Daten. Bei AotS trifft das auch nur zu, wenn die ACEs eingesetzt werden und bis sich das durchsetzt - was an sich schon fraglich ist - dauert es noch.
Stand April 2015: http://www.redgamingtech.com/asynchronous-shaders-analysis-their-role-on-ps4-xbox-one-pc-according-to-amd/
Switching to the console side of things – the PS4 is already taking advantage of Asynchronous Shaders (well, a handful of games are at least), but the Xbox One seemingly isn’t. It’s possible that the frame rate for games which use a lot of Post-Process effects could therefore rise on consoles in the future. It’ll also likely benefit the PC too – since when DX12 Asynchronous shaders work on the X1, porting them to the PC won’t be too much of a chore.
Man sollte mal Thief mit den neuen Treibern nachtesten, da dort auch schon ACEs im Einsatz sind laut AMD (wird im selben Artikel erwähnt)
Vor allem könnte es verstärkt zum Einsatz vom Postprocessing kommen, wo ja die ACE ihre Vorteile stark auspielen kann. Weniger Belastung durch AA und damit mehr FPS. Das Demo sollte ja noch bekannt sein aus März letzten Jahres: https://www.youtube.com/watch?v=Dfv4JQSCQvU
Ich bin gespannt ob die Redaktion dies auch mit testen werden in Zukunft und die errreichbare Qualität als Referenz nutzen.
Edit: Wundert mich sowieso warum noch keiner die Mantle Spiele mit den neuen AMD Treibern getestet hat ob es auch da Unterschiede gibt.
Screemer
2016-02-26, 13:05:36
Man sollte mal Thief mit den neuen Treibern nachtesten, da dort auch schon ACEs im Einsatz sind laut AMD (wird im selben Artikel erwähnt)wurde das nicht recht schnell rausgepatched? Kann sein, dass ich mich da aber auch falsch erinnere.
Complicated
2016-02-26, 13:10:21
Das habe ich dann verpasst....mir ist nichts dergleichen bekannt.
Edit: Diesen Absatz noch ergänzend, den hatte ich überlesen zwischen den Bildern:
These functions are already being more widely used on the consoles – AMD state the Playstation 4 is running asynchronous shaders in a variety of its games – including the rather impressive looking Infamous: Second Son. When we conducted our analysis of the Second Son Engine (Part 1 – CPU & RAM | Part 2 – Graphics & Compute Scheduling) it was clear that Sucker Punch were indeed inter-splicing compute tasks with pixel tasks.
This allowed Sucker Punch to push a staggering number of particles – 30K particles per frame of animation on average, though their engine can handle up to 120K. Considering the main character (Delsin) uses smoke and various neon powers throughout the game, this is vital.
Tasächlich erwähnt ein weiter führender Artikel, dass wohl Sony massgeblich die ACEs gepusht hat für die PS4:
http://www.redgamingtech.com/infamous-second-son-post-mortem-part-2-ps4-performance-compute-particle-system/
Sony’s specific requirements for the modifications made on the Playstation 4 have driven major improvements to the discrete graphics card market too. One of the members (3dcgi) of the forum Beyond3d works for AMD, and has spoken candidly on this subject.
“I worked on modifications to the core graphics blocks. So there were features implemented because of console customers. Some will live on in PC products, some won’t. At least one change was very invasive, some moderately so. That’s all I can say.
Since Cerny mentioned it I’ll comment on the volatile flag. I didn’t know about it until he mentioned it, but looked it up and it really is new and driven by Sony. The extended ACE’s are one of the custom features I’m referring to. Also, just because something exists in the GCN doc that was public for a bit doesn’t mean it wasn’t influenced by the console customers. That’s one positive about working with consoles. Their engineers have specific requirements and really bang on the hardware and suggest new things that result in big or small improvements.”
So according to this member, it was Sony’s vision which has actually changed the development of GPU’s for PC as well. If this is true – then it’s certainly very… hell let’s use the word, cool.
y33H@
2016-02-26, 17:53:01
Ich bin gespannt ob die Redaktion dies auch mit testen werden in Zukunft und die errreichbare Qualität als Referenz nutzen.Welche Qualität? Async Compute verbessert die BQ ja nicht prinzipiell, sondern liefert "nur" Leistung für zB mehr Post-Processing. Oder wovon sprichst du?
EDIT
Auch wenn's hier und da erwähnt wurde, auch The Tomorrow Children für PS4 nutzt Async Compute, ca 15 % weniger ms/frame laut Q-Games.
DinosaurusRex
2016-02-26, 18:41:19
Auch wenn's hier und da erwähnt wurde, auch The Tomorrow Children für PS4 nutzt Async Compute, ca 15 % weniger ms/frame laut Q-Games.
30 Prozent
dargo
2016-02-26, 19:02:05
Dazu gibt es noch zu wenige Daten. Bei AotS trifft das auch nur zu, wenn die ACEs eingesetzt werden und bis sich das durchsetzt - was an sich schon fraglich ist - dauert es noch. Ohne AC skaliert Fiji unter DX12 nicht besser als sonst.
Das ist doch Unsinn, siehe CB-Test mit Fury X (1080p, Extreme-Preset).
http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/2/#diagramm-ashes-of-the-singularity-beta-2-1920-1080-extreme-preset
http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/
DX11 = 47,8 avg.fps
DX12 AC Off = 61,0 avg.fps
DX12 AC On = 67,9 avg.fps
Je höher die Auflösung umso kleiner natürlich der Vorteil von DX12. Zudem sagte der Entwickler, das AotS bei weitem nicht Worst Case für AC ist.
aufkrawall
2016-02-26, 19:09:13
30 Prozent
Es sind ca. 15-20%:
http://fumufumu.q-games.com/archives/TheTechnologyOfTomorrowsChildrenFinal.pdf
Quellen sind gut, oder?
DinosaurusRex
2016-02-26, 19:16:32
Es sind ca. 15-20%:
http://fumufumu.q-games.com/archives/TheTechnologyOfTomorrowsChildrenFinal.pdf
Quellen sind gut, oder?
Diese PDF hab ich letztes Jahr schon im Konsolen-Thread verlinkt. Q Games hat später ein Update gegeben, dass sie durch weitere Optimierungen 10ms mit AC einsparen.
aufkrawall
2016-02-26, 19:23:21
Quelle bitte.
y33H@
2016-02-26, 22:01:03
Ich kenne nur das 15-%-PDF.
Unicous
2016-02-26, 22:46:49
I prefer to think in milliseconds rather than percentages. On a 33.333 ms frame, we saved roughly 6ms by using the async compute pipes. Thats where the 18% comes from. Those savings went up to 10ms on our stress test level. Really if you're working on a AMD GCN GPU, I can't recommend looking into async compute enough!
http://www.neogaf.com/forum/showpost.php?p=156106777&postcount=60
https://twitter.com/okonomiyonda
Q-Games SPU whisperer, physics enthusiast, GCN fanboy, low-level optimizationist.
@aufkrawall
Ja, Quellen sind gut.(y)
aufkrawall
2016-02-26, 23:17:00
Da spricht er allerdings nicht von weiteren Optimierungen, sondern von einem Stresstest-Szenario, was DinosaurusRex etwas widerspricht.
Unicous
2016-02-27, 00:06:55
Nö. Das sind "up to"-Werte, wie so oft. Dass die nicht in jedem Szenario auftreten oder unter Umständen auch künstlich erzeugt werden tut erst mal nichts zur Sache.:wink:
Fakt ist: Async Compute ist nicht nur ein Checklisten-Feature...aber auch nicht der heilige Performance-Gral.
All denen, die bei den AotS Werten mal wieder feuchte Höschen bekommen haben sollten mal ihre Füße still halten und erst einmal abwarten. Nur weil ein "Benchmark-Spiel" mal Vorteile der GCN-Architektur+DX12 zeigt, muss man nicht zwangsläufig auch den Niedergang von Nvidia prophezeihen. Nvidia hat genug Marktmacht, Async Compute als Nichtigkeit abzustempeln bis sie es entweder selbst in Hardware anständig implementiert haben und dann zur wichtigsten Neuerung seit geschnitten Brot deklarieren (siehe Tesselation) oder das next best thing für GameWorks ankündigen.:wink:
aufkrawall
2016-02-27, 00:17:23
Nö. Das sind "up to"-Werte, wie so oft. Dass die nicht in jedem Szenario auftreten oder unter Umständen auch künstlich erzeugt werden tut erst mal nichts zur Sache.:wink:
Ein Stresstest muss nicht zwangsläufig den bestmöglichen Wert in der Realität darstellen. Er kann auch ein künstliches Szenario sein, etwa, wenn ein Entwickler einfach mal sehen will, wie viel er theoretisch aus der Hardware rausholen kann.
Was jetzt hier Fall ist, ist überhaupt nicht gesagt (sofern du nicht noch einen entsprechenden anderen Kommentar findest).
Fakt ist: Async Compute ist nicht nur ein Checklisten-Feature...aber auch nicht der heilige Performance-Gral.
All denen, die bei den AotS Werten mal wieder feuchte Höschen bekommen haben sollten mal ihre Füße still halten und erst einmal abwarten. Nur weil ein "Benchmark-Spiel" mal Vorteile der GCN-Architektur+DX12 zeigt, muss man nicht zwangsläufig auch den Niedergang von Nvidia prophezeihen. Nvidia hat genug Marktmacht, Async Compute als Nichtigkeit abzustempeln bis sie es entweder selbst in Hardware anständig implementiert haben und dann zur wichtigsten Neuerung seit geschnitten Brot deklarieren (siehe Tesselation) oder das next best thing für GameWorks ankündigen.:wink:
Natürlich ist es für GCN der heilige Gral, ungedrosselt bringt es auf Hawaii XT mal eben 20% und die Fury X läuft quasi zur Maxwell-Effizienz auf.
Complicated
2016-02-27, 06:29:57
Welche Qualität? Async Compute verbessert die BQ ja nicht prinzipiell, sondern liefert "nur" Leistung für zB mehr Post-Processing. Oder wovon sprichst du?
Ich soll dir erklären was Post-Processing mit Bildqualiät zu tun hat?
Locuza
2016-02-27, 06:41:42
Du sollst "Qualität" konkret definieren und was es genau mit Async Compute zu tun hat.
Wenn Qualität = Grafik/Bildqualität darstellt, fasst Async Compute nichts direkt an, da es die Sachen "nur" schneller berechnet.
Complicated
2016-02-27, 06:49:39
Wieso nicht einfach den Link zu dem Video klicken den ich gepostet habe?
Das ist dort bestens erklärt.
Locuza
2016-02-27, 06:59:08
Es ist ein klassisches Werbebeispiel, wo dank Async Compute ein Effekt kostengünstig auf GCN gegenüber ohne gerendert werden kann.
Was sollen Redakteure mit testen und was sollen Redakteure denn als Referenz nehmen?
Unter Spielen wird bisher letztendlich bei jedem IHV das gleiche Zeug berechnet.
Async Compute war bei Fable Legends immer auf on im Benchmark, im Gegensatz zu Ashes of the Singularity hatte man da keine Wahl, aber bei Ashes hat ja auch jeder mit On bei Radeons gebenched.
Jetzt braucht man aber auch nicht so zu tun, als wenn das so ein riesiges Desaster wär, dass das auf on ist per Default, es kostet bei NV derzeit ja nur wenig Leistung (kaum merkbar) und wird in künftigen Treibern bei NV sicherlich keine tragende Rolle spielen ob das an ist oder nicht. Und natürlich werden es die Spielehersteller nutzen, da Maxwell ja nicht allein auf der Welt ist. Man muss ja eher damit rechnen, dass da alle künftigen Grafikchipgenerationen was mit anfangen können. Und ich zweifel auch ganz drasdisch an der "Demotheorie". Ich denke eher, dass Stardock da zwar Geld für bekommen hat, aber eher, um frühzeitig DX12 konsequent umzusetzen als alles andere. Ob das jetzt besonders AMD-freundlich umgesetzt ist kann man schwer sagen, dafür ist NV bei DX11 zu gut, von daher wär ich da vorsichtig mit solchen Behauptungen. Ich bin immer wieder erstaunt, dass man das NV mit beispielsweise Gameworks durchgehen lässt und bei AMD ist das dann plötzlich nicht repräsentativ und wird dann plötzlich als kritikwürdig erachtet. Ganz schöne Doppelmoral, die da oft angewendet wird.
Und noch was: Quellen sind immer so ne Sache. Nur, weil jetzt ein ausgewiesener AMD-Freund etwas postet, was AMD-freundlich ist, heißt das weder automatisch, dass das gelogen ist, noch, dass da irgendein Interesse verfolgt wird.
Wir werden ja schon recht bald an Quantum Break und GoW sehen, was dran ist, an der "GCN ist bei DX12 besser als Maxwell"-Story. Grade bei Quantum Break sollten ja DX12-technisch wirklich alle Register gezogen werden. Ich warte lieber, bis da noch mehr Fakten vorliegen, ob sich meine Vermutung bestätigt oder eben nicht.
dargo
2016-02-27, 10:41:59
Fakt ist: Async Compute ist nicht nur ein Checklisten-Feature...aber auch nicht der heilige Performance-Gral.
All denen, die bei den AotS Werten mal wieder feuchte Höschen bekommen haben sollten mal ihre Füße still halten und erst einmal abwarten. Nur weil ein "Benchmark-Spiel" mal Vorteile der GCN-Architektur+DX12 zeigt, muss man nicht zwangsläufig auch den Niedergang von Nvidia prophezeihen. Nvidia hat genug Marktmacht, Async Compute als Nichtigkeit abzustempeln bis sie es entweder selbst in Hardware anständig implementiert haben und dann zur wichtigsten Neuerung seit geschnitten Brot deklarieren (siehe Tesselation) oder das next best thing für GameWorks ankündigen.:wink:
Bei +11% (siehe Fury X AC Off vs. AC On) bekomme ich noch kein feuchtes Höschen. ;) Netter Zuwachs Bonus, mehr nicht. Bei +42% (DX11 vs. DX12 AC On) schon eher. Schließlich bezahlst du für solche Performancesteigerungen gerne mal mehrere Hundert Euro Aufpreis im oberen Grafikkarten-Segment. Und AotS ist sowohl bei AC als auch im CPU-Limit zwischen DX11 und DX12 noch lange kein Worst Case. Die DX11 Performance im CPU-Limit ist für "AMD-Verhältnisse" bei diesem Spiel bzw. Benchmark gar nicht mal so übel gegenüber Nvidia. Hier zahlt sich wohl die enge Zusammenarbeit mit Oxide aus. Und was soll der Seitenhieb eigentlich mit dem Niedergang von NV? Es geht dabei hauptsächlich um Performancesteigerungen bei GCN.
Wir werden ja schon recht bald an Quantum Break und GoW sehen, was dran ist, an der "GCN ist bei DX12 besser als Maxwell"-Story. Grade bei Quantum Break sollten ja DX12-technisch wirklich alle Register gezogen werden. Ich warte lieber, bis da noch mehr Fakten vorliegen, ob sich meine Vermutung bestätigt oder eben nicht.
Da habe ich noch meine Zweifel ob du da was sehen wirst. Beide Spiele sollen nur im Windows-Store kaufbar sein und keinen exklusiven Vollbildmodus bieten. Somit hast du dauerhaft Vsync an. Microsoft on the best. :freak:
Edit:
Kein Spieler mit gesunden Menschenverstand wünscht sich weder den Niedergang von Nvidia noch AMD. Gesunder Wettbewerb (im besten Fall 50/50) kann nur ohne Monopol funktionieren. Mittlerweile haben wir leider nur zwei Größen bei Grafikkarten, vielleicht schließt "bald" Intel auf. Früher waren noch Matrox und 3DFX dabei. Was ein quasi Monopol anrichtet sieht man doch seit Jahren wunderbar an Intel. Scheibchenweise wirst du im Abstand von 1-2 Jahren bedient. Willst du mal einen größeren Performanceschub genießen musst du zum Octacore und S2011-3 greifen. Erstens kostet die CPU deutlich mehr als ein Quadcore im Performance-Segment. Zweitens zahlst du beim Mainboard deutlich drauf. Klar... die X99 Chipsätze bieten auch einige Features mehr. Aber wieviele Leute brauchen zb. zig PCIe Lanes wenn sie eh kein SLI/CF fahren? Selbst im Performancesegment versucht Intel schon länger sich von den OC-CPUs nicht nur bei der CPU selbst sondern auch beim Chipsatz abzugrenzen. Erstens lassen sich die non K CPUs kaum bis nicht übertakten (den One-Core-Turbo konnte man ab und an inoffiziell ausnutzen) und zweitens begrenzt Intel beim Skylake non Z Chipsatz den Speicher auf mickrigen DDR4-2133. :uup: Seit Sandy-Bridge bezahlen wir (außer man nimmt nen Xeon) im Performancesegment die Entwicklung der iGP mit obwohl ein Großteil diese ebenfalls nicht braucht. Soviel zum Thema Monopol.
Kriton
2016-02-27, 12:18:14
Jetzt braucht man aber auch nicht so zu tun, als wenn das so ein riesiges Desaster wär, dass das auf on ist per Default, es kostet bei NV derzeit ja nur wenig Leistung (kaum merkbar) und wird in künftigen Treibern bei NV sicherlich keine tragende Rolle spielen ob das an ist oder nicht. Und natürlich werden es die Spielehersteller nutzen, da Maxwell ja nicht allein auf der Welt ist. Man muss ja eher damit rechnen, dass da alle künftigen Grafikchipgenerationen was mit anfangen können. Und ich zweifel auch ganz drasdisch an der "Demotheorie". Ich denke eher, dass Stardock da zwar Geld für bekommen hat, aber eher, um frühzeitig DX12 konsequent umzusetzen als alles andere. Ob das jetzt besonders AMD-freundlich umgesetzt ist kann man schwer sagen, dafür ist NV bei DX11 zu gut, von daher wär ich da vorsichtig mit solchen Behauptungen. Ich bin immer wieder erstaunt, dass man das NV mit beispielsweise Gameworks durchgehen lässt und bei AMD ist das dann plötzlich nicht repräsentativ und wird dann plötzlich als kritikwürdig erachtet. Ganz schöne Doppelmoral, die da oft angewendet wird.
Und noch was: Quellen sind immer so ne Sache. Nur, weil jetzt ein ausgewiesener AMD-Freund etwas postet, was AMD-freundlich ist, heißt das weder automatisch, dass das gelogen ist, noch, dass da irgendein Interesse verfolgt wird.
Wir werden ja schon recht bald an Quantum Break und GoW sehen, was dran ist, an der "GCN ist bei DX12 besser als Maxwell"-Story. Grade bei Quantum Break sollten ja DX12-technisch wirklich alle Register gezogen werden. Ich warte lieber, bis da noch mehr Fakten vorliegen, ob sich meine Vermutung bestätigt oder eben nicht.
Kein Spieler mit gesunden Menschenverstand wünscht sich weder den Niedergang von Nvidia noch AMD. Gesunder Wettbewerb (im besten Fall 50/50) kann nur ohne Monopol funktionieren. Mittlerweile haben wir leider nur zwei Größen bei Grafikkarten, vielleicht schließt "bald" Intel auf. Früher waren noch Matrox und 3DFX dabei. Was ein quasi Monopol anrichtet sieht man doch seit Jahren wunderbar an Intel. Scheibchenweise wirst du im Abstand von 1-2 Jahren bedient. Willst du mal einen größeren Performanceschub genießen musst du zum Octacore und S2011-3 greifen. Erstens kostet die CPU deutlich mehr als ein Quadcore im Performance-Segment. Zweitens zahlst du beim Mainboard deutlich drauf. Klar... die X99 Chipsätze bieten auch einige Features mehr. Aber wieviele Leute brauchen zb. zig PCIe Lanes wenn sie eh kein SLI/CF fahren? Selbst im Performancesegment versucht Intel schon länger sich von den OC-CPUs nicht nur bei der CPU selbst sondern auch beim Chipsatz abzugrenzen. Erstens lassen sich die non K CPUs kaum bis nicht übertakten (den One-Core-Turbo konnte man ab und an inoffiziell ausnutzen) und zweitens begrenzt Intel beim Skylake non Z Chipsatz den Speicher auf mickrigen DDR4-2133. :uup: Seit Sandy-Bridge bezahlen wir (außer man nimmt nen Xeon) im Performancesegment die Entwicklung der iGP mit obwohl ein Großteil diese ebenfalls nicht braucht. Soviel zum Thema Monopol.
+1
OBrian
2016-02-28, 01:17:55
Jedenfalls fände ich es schade, wenn sowas wegen irgendwelcher produktpolitischen Spielchen in der Versenkung verschwindet, ich hab lieber AMD und Nvidia beide 20% schneller als beide nicht. Aber es sind ja schon genug gute Dinge nichts geworden, weil es der andere nicht wollte, somit nie eine breite Hardwarebasis erreicht wurde und es folglich kaum ein Entwickler genutzt hat, wenn er dafür nicht bezahlt wurde. Man kann also nur hoffen, daß Nvidia das in den nächsten Chips hinkriegen wird und es deshalb auch nicht versucht bei den Entwicklern zu blockieren. Daß sie bis dahin im Marketing erzählen, es sei ja ganz unnötig und sowieso voll doof, sei ihnen erlaubt.
Ajo nvidia muss ja dem Kunden ihre nexte Generation Schmackhaft machen. Zur üblichen Ram Knappheit bei nvidia Karten(Titan außen vor) kommt jetzt noch schlechte Direct X 12 Performance inkl. nicht vorhandenes Async Compute. Ich wette in einem Jahr wenns dann mehr Direct X 12 Spiele gibt, siehts für Maxwell übel aus im Gegensatz zum jeweiligen Konkurrenz Produkt aus dem gleichen Jahrgang.
Dural
2016-02-28, 08:39:08
Nv zuwenig speicher? Hab ich was verpasst? Amd hat in dieser generation klar einen speicher nachteil. Weder nv noch amd karten sind aktuell "dx12" ready.
woodsdog
2016-02-28, 08:43:11
einzig die furys sind knapp dran.
4GB 380er, 8GB 390er haben keinerlei probleme mit VRAM in ihrer Klasse.
4GB für die 980 würde ich bezogen auf die Leistung auch als knapp bezeichnen, die 6GB der TI sind aber OK.
Dural
2016-02-28, 08:47:15
4gb für 980 und 390 würde ich als ok bezeichnen, 4gb für fiji jedoch sicherlich nicht.
Ausnahmen bestätigen die Regel, siehe Vergangenheit. Fiji 4 GB ist wegen HBM Speicher ein Sonderfall, dafür kann AMD leider nichts.
4gb für 980 und 390 würde ich als ok bezeichnen, 4gb für fiji jedoch sicherlich nicht.
4GB für Nano und Fury sind nicht ok aber 4GB für 980? :freak:
Aha...
Nein Mann, 4GB sind überhaupt nicht ok bei 500€.
dargo
2016-02-28, 11:48:32
Amd hat in dieser generation klar einen speicher nachteil. Weder nv noch amd karten sind aktuell "dx12" ready.
Ja, das sieht man besonders eindrucksvoll aktuell an AotS. :D
Kartenlehrling
2016-02-28, 12:11:40
Was mich ärgert ist das Nvidia mit seiner agresiven AMD Negativ Werbung immer wieder durch kommt.
@Dildo würde zwar schreiben eine 550€ GTX580 ist es nicht mehr Wert DX12 zu können,
aber vor 2 Jahren hat Nvidia behaupte das 100% aller ihre DX11 Grafikkarten auch von DX12 profitieren.
Und eine gtx580 ist immer noch auf dem Leistunglevel einer gtx960 .
Sie lügen ihre Aktionäre und Kunden an,
in dem Sie behaupte das "Ihr Produkt" Moderner und Zukunftsicher sind,
das schlimmer ist sie kommen mit dieser Art durch.
Die Investition zahlt sich aus
the investment pays off
fragt sich nur wer da gemeint ist.
http://image.slidesharecdn.com/driver337dxperformanceupdate-140414054819-phpapp02/95/nuevo-driver-nvidia-337-mejoras-17-638.jpg?cb=1398655165http://image.slidesharecdn.com/driver337dxperformanceupdate-140414054819-phpapp02/95/nuevo-driver-nvidia-337-mejoras-12-638.jpg?cb=1398655165http://
http://de.slideshare.net/revolutioncomputer/nuevo-driver-nvidia-337-mejoras
Mandalore
2016-02-28, 12:20:30
Was mich ärgert ist das Nvidia mit seiner agresiven AMD Negativ Werbung immer wieder durch kommt.
@Dildo würde zwar schreiben eine 550€ GTX580 ist es nicht mehr Wert DX12 zu können,
aber vor 2 Jahren hat Nvidia behaupte das 100% aller ihre DX11 Grafikkarten auch von DX12 profitieren.
Und eine gtx580 ist immer noch auf dem Leistunglevel einer gtx960 .
Sie lügen ihre Aktionäre und Kunden an,
in dem Sie behaupte das "Ihr Produkt" Moderner und Zukunftsicher sind,
das schlimmer ist sie kommen mit dieser Art durch.
fragt sich nur wer da gemeint ist.
http://image.slidesharecdn.com/driver337dxperformanceupdate-140414054819-phpapp02/95/nuevo-driver-nvidia-337-mejoras-17-638.jpg?cb=1398655165http://image.slidesharecdn.com/driver337dxperformanceupdate-140414054819-phpapp02/95/nuevo-driver-nvidia-337-mejoras-12-638.jpg?cb=1398655165http://
http://de.slideshare.net/revolutioncomputer/nuevo-driver-nvidia-337-mejoras
Jen Hsun Huang aka Der Biker-Held ist Schuld an diesem Drecksmarketing. Würde mich net wundern, dass wenn die Zeit kommt und er abtreten muss, dass sich so ziemlich vieles ändern wird.
Blediator16
2016-02-28, 12:24:09
Jen Hsun Huang aka Der Biker-Held ist Schuld an diesem Drecksmarketing. Würde mich net wundern, dass wenn die Zeit kommt und er abtreten muss, dass sich so ziemlich vieles ändern wird.
Dann kann man aber keine 30 Macbooks mehr in seinen Kofferraum packen :frown:
R.I.P.
2016-02-28, 15:34:09
Jen Hsun Huang aka Der Biker-Held ist Schuld an diesem Drecksmarketing. Würde mich net wundern, dass wenn die Zeit kommt und er abtreten muss, dass sich so ziemlich vieles ändern wird.
Wieso Drecksmarketing? Wenn es sich die Kunden 1, 2, 3x gefallen lassen und keine Konsequenzen daraus ziehen, dann ist das Marketing vom Feinsten
Gipsel
2016-02-28, 17:07:32
Falscher Thread, Leute, falscher Thread.
Korvaun
2016-02-29, 13:16:36
Man muss da genauer auf die Wortwahl achten. Wenn AMD/NV schreiben "support DX12" heißt das es läuft, nicht das es besser oder schneller läuft... ;)
Das ist so unfassbar idiotisch, denn da fließen ja offensichtlich auch alle VLIW-Produkte wie Caicos und Trinity/Richland mit hinein, bei denen DX12 sowieso irrelevant ist. Zusätzlich kann man sich Fermi schönrechnen, der zwar DX12 dann unterstützt, aber trotzdem scheisse langsam ist heutzutage. Das agiert ja irgendwo auf Pitcain-Niveau wenns hoch kommt - schonmal AotS auf Pitcairn probiert? Hab ich am Freitag spasseshalber mal probliert - da muss man den Detailgrad schon krass herunterschrauben, da ist die API vollkommen wurscht.
Das ist sicherlich ein Versuch des Marketings was dem momentan verspürbaren DX12-Gegenwind ggü. Maxwell entgegenzusetzen.
Nakai
2016-02-29, 23:48:51
https://twitter.com/Roy_techhwood/status/704022817478569984
Ist das wirklich eine Fury X2 hinterm Fenster?
Ich will ja nicht nörgeln, aber zwei Fury Nanos fressen trotzdem 300W+. Evtl ist es keine Fury X2 sondern nur eine Fury VR-Edition. Eine Wasserkühlung für eine Fury X2 sollte doch notwendig sein?
Polaris wird wohl nur hinter verschlossenen Türen gezeigt werden.
Hübie
2016-03-01, 00:13:13
Auch wenn ich nicht glaube, dass dies eine X2 ist: Wakü und radialer Lüfter schliessen sich nicht aus.
http://abload.de/img/msi_seahawkd2un6.png (http://abload.de/image.php?img=msi_seahawkd2un6.png)
Nakai
2016-03-01, 00:21:22
http://www.tomshardware.de/amd-fury-x2-luftkuhlung-dual-gpu,news-254954.html
Nein, es schließt sich nicht aus, keine Frage.
http://www.overclock3d.net/gfx/articles/2015/06/16165802842l.jpg
Und das PCB der Fury X2. Die Stromstecker sind vorne und das PCB-Design orientiert sich eher an eine Wasserkühlung. Evtl gibts ein neues PCB mit Luftkühlung und dafür auch eben weniger als 300W TDP. Oder das ist keine Fury X2, sondern eine Fury VR-Edition, eine Hawaii VR-Edition. Es könnte auch, was extreeemst unwahrscheinlich ist, ein P11 sein. ;)
Habt ihr euch verlaufen? Arctic Islands / Polaris: Greenland, Baffin, Ellesmere - 14/16nm FinFET - 2016
Wenn das hier eh verschoben werden muss; auf zauba war am 23. wieder Tobermory / dual Fiji (P/N 102-C88801-00 (FOC))
War mir gar nicht bekannt der Name. Anscheinend sind mGPUs da aktuell einfach kanadische Orte, dachte bei vesuvius erst an den Vulkan
Kartenlehrling
2016-03-01, 03:47:13
Und das PCB der Fury X2. Die Stromstecker sind vorne und das PCB-Design orientiert sich eher an eine Wasserkühlung.
Ich sehen das genauso.
Das PCB welches damals in der "Machbarkeitsstudie" Quatum eingesetzt wurde wird es bestimmt nicht sein,
weil dann würden die 2x 8pin Stromanschlusse falsch verbaut sein und mit dem Radiatorlüfter in Konflikt geraten.
Auch waren die Spannungwandler wie Streusel auf einem Kuchen verteilt das man sowas nur mit einer Wasserkühlplatte sicher kühlen kann.
in der Handvoll Project Quantum kam doch iirc gar keine x2 zum Einsatz?!
die x2 hat man nur auf renderings gesehen, die echten hatten nureinen Fiji: http://www.ixbt.com/news/2015/08/28/pc-world-amd-project-quantum-amd-fury-x2.html
horn 12
2016-03-02, 23:53:55
Ob Polaris 11 die Fiji Karte alias Fury X unter DX12 schlagen werden wird, sei mal dahingestellt
Denke es wird ein Kopf an Kopf Rennen mit den eben beiden Besseren Verhältnissen der Polaris GPU zwecks mehr Speicher (KEIN HBM-2) und den besseren Stromverbrauchs.
Dennoch wird die Fury Karte wohl tapfer dagegentreten, vor Allem bei DX12 Games da die Shaderanzahl stolze 4096 beträgt.
Wohl erst Ende dieses , wenn gar nicht Anfang nächsten Jahres, sollte - dürfte Fiji ersetzt werden im Absoluten High End Berich.
y33H@
2016-03-02, 23:57:47
Und bei D3D11 sind's nur 3072 ALUs oder wie? :ulol:
horn 12
2016-03-03, 00:15:30
Da Polaris 11 eben wohl weniger Shader verbaut bekommt und für DX12 die Shader recht ausschlaggebend sein sollten.
Je AC Lastiger eine Game wird, desto mehr setzt sich Fiji von Polaris , Maxwell und Pascal wohl ab.
Frosty
2016-03-03, 00:18:19
wenigstens fiji pro zu knacken sollte für polaris 11 kein riesen problem darstellen.:)
horn 12
2016-03-03, 00:23:33
Nun, Fiji Pro auf Fiji Full in etwa knappe bis gute 10%
Polaris sollte wohl in die Nähe von Fiji XT kommen, sprich näher an Fury X als an Fury.
Viele vergessen wohl was Polaris werden soll, eine NEUE GTX 970 diesmal von AMD´s ´Seite mit dem Vorteilen des nicht abgespeckten Speichers (3,5GB) und eben enormer Effizienzsteigerung seitens AMD.
----> Dies und nix anderes muss AMD 2016 liefern!
Achill
2016-03-03, 01:09:32
Nun, Fiji Pro auf Fiji Full in etwa knappe bis gute 10%
Polaris sollte wohl in die Nähe von Fiji XT kommen, sprich näher an Fury X als an Fury.
Viele vergessen wohl was Polaris werden soll, eine NEUE GTX 970 diesmal von AMD´s ´Seite mit dem Vorteilen des nicht abgespeckten Speichers (3,5GB) und eben enormer Effizienzsteigerung seitens AMD.
----> Dies und nix anderes muss AMD 2016 liefern!
Sie müssen auch vor NV auf dem Markt sein und es muss lieferbar sein. Nicht wie die letzten Male immer erst ein paar Monate nach NV.
Ailuros
2016-03-03, 06:17:34
Wenn alles nach Plan laeuft duerften sie schon ein Quartal vor NV schaffen koennen. Wenn aber Polaris keinen sehenswerten Vorsprung gegen seine direkte Konkurrenten liefern wird, dann wird sich an der Landschaft auch nichts besonderes aendern.
horn 12
2016-03-03, 07:13:59
Nun, Performance mässig wohl kaum , effizienz und Speichermässig muss nachgebessert werden!
Dies sollte schaffbar sein.
Ailuros
2016-03-03, 07:20:59
"Vorsprung" stand nicht steril fuer Leistung sondern fuer Effizienz. Wenn die beiden Gegner irgendwo bei Gleichstand ankommen sollten, dann aendert sich das Bild in der Landschaft wohl schwer um ein nennenswertes Prozentual.
an der Landschaft wird sich imho so schnell eh nichts aendern. Das passiert nicht mal eben in so kurzer Zeit. Pascal kommt ja nur wenig spaeter, Nvidia Kaeufer werden eben warten und auch weiterhin Nvidia kaufen. AMD hatte nichts neues gegen Maxwell zu stellen, da war die Situation anders.
Dass Polaris 11 die neue 970 wird, ist ueberzogen. Die 970 war nicht nur fuer NV Verhaeltnisse auch preislich von Anfang an sehr konkurrenzfaehig platziert. Wir haben erst spaeter erfahren, wieso aber das spielt jetzt auch keine Rolle mehr.
AffenJack
2016-03-03, 09:48:09
Ich glaube schon, dass es sich deutlich ändern wird, aber auch deshalb weil wir gerade eine Ausnahmesituation mit ~20% Marktanteil bei AMD haben. Mit Polaris wird sich das bestimmt wieder bei den traditionellen 35-40% AMD sein.
Hübie
2016-03-03, 09:56:54
Abwarten. Ich verfolge ja aktiv die Entwicklungen und bin einfach noch nicht überzeugt. Solang der Treiber in dieser Übergangsphase ist bleibe ich skeptisch.
Es kommt leider immer wieder vor, dass AMD den längeren Balken hat, aber schlechtere Frametimes. Ich vergleiche jeweils nur HighEnd, da alles drunter Schrott für mich ist. :D
Ich habe die letzte Zeit zugegebenermassen nicht so intensiv Frametimes betrachtet, kann das aber nicht nachvollziehen. Ich kenne schlechtere Frametimes aus dem Gedaechtnis eher von Nvidia, vielleicht haengt das aber mit der 970 zusammen. Wenn du nur High End vergleichst ist das etwas "unfair" und aktuell nicht besonders aussagekraeftig, da Fiji einfach zu wenig Speicher hat. Vor allem laesst das ja keinen Schluss auf die naechste Generation zu.
Ich meinte auch nicht, dass sich gar nichts aendert. Sicher wird sich das Verhaeltnis der Verkaeufe etwas verschieben aber auf die Gesamtheit der Verteilung aller im Einsatz befindlicher Karten hat das halt kurzfristig wenig Einfluss.
M4xw0lf
2016-03-03, 10:26:53
Heute Abend gibts ja hoffentlich die eine oder andere neue Erkenntnis zu Polaris.
Hübie
2016-03-03, 11:13:16
Der 03.03.2016 :D SCNR!
Hübie
2016-03-03, 11:20:13
:P Ich warte jetzt ebenfalls auf ne Antwort, da ich nicht weiß was uns die Katze mit dem G sagen will.
M4xw0lf
2016-03-03, 12:26:52
vmtl. das AMA auf reddit
Genau dieses. ;)
Nakai
2016-03-03, 13:30:24
Erwartet nicht zuviel. Das ist eine geballte Ladung an Dummheit auf Reddit unterwegs. Die wichtigen Fragen werden bestimmt nicht gestellt werden bzw. durchkommen. ;D
und die andere Sache ist, ob die "wichtigen Fragen" dann ueberhaupt beantwortet werden und das darf auch bezweifelt werden.
Wir koennten aber ja theoretisch ein paar Fragen zusammenstellen und diesen mit etwas Nachdruck mehrerer Nutzer etwas Prominenz verschaffen ;) :ulol:
Robert Hallock hat jetzt angefangen, Fragen zu beantworten. Wer das ganze verfolgen will (ist nicht im /r/ama):
https://www.reddit.com/r/Amd/comments/48e8rl/radeon_technologies_group_qa_is_happening_here_on/
https://www.reddit.com/user/AMD_Robert
"Every node has its little foibles, but I am not quite in a position where I can disclose the level of information you're probably looking for. I like keeping my job. ;) However, we know that people are very interested in the process tech and we intend to publish a lot more information on the architecture and the process before Polaris parts arrive mid-2016. I know this isn't quite as good as getting an answer today, but I hope you can see we're thinking about questions like this already. :)"
https://www.reddit.com/r/Amd/comments/48e8rl/radeon_technologies_group_qa_is_happening_here_on/d0m4r4c
Meh, aber immerhin ...
Nakai
2016-03-03, 17:45:44
Einfach mal abwarten was kommt. Man sollte nicht wirklich etwas erwarten dürfen.
Unicous
2016-03-03, 17:46:48
Was erwartet ihr euch von dem AMA? Robert Hallock gibt da Standardantworten ... auf Standardfragen. Allein die Frage nach dem Yield ist doch völlig Banane. Als würde das jemand bei Verstand beantworten.:rolleyes:
M4xw0lf
2016-03-03, 18:16:58
Nuja, da kommt wohl doch nichts wirklich verwertbares bei rum.
Ailuros
2016-03-03, 18:23:05
Was erwartet ihr euch von dem AMA? Robert Hallock gibt da Standardantworten ... auf Standardfragen. Allein die Frage nach dem Yield ist doch völlig Banane. Als würde das jemand bei Verstand beantworten.:rolleyes:
Selbst wenn....wie genau kann man yields einschaetzen bevor man mit den eigentlichen dies erstmal zur Massen-Produktion kommt? Alle Voegel zwitschern von einem Juni-launch und er sagt auch selber Mitte 2016.
fondness
2016-03-03, 21:15:27
Zumindest ein kleiner Hinweis:
We are using the more advanced 14nm node. NVIDIA is 16nm.
Polaris is 14nm. Plain and simple.
14nm GlobalFoundries.
Wenn der Big-Chip jetzt natürlich Vega10 heißt, wären die Aussagen nicht direkt falsch und man könnte trotzdem 16nm TSMC verwenden. Aber zumindest die beiden Polaris-Chips sind damit auf 14nm GF bestätigt, womöglich auch das ganze Lineup.
Tatsaechlich.
Irgendwer hier hatte ja mal genau das spekuliert: dass Vega anders heisst, weil er von tsmc ist.
dann wird es interessant wie auch der groessere Polaris gegen den Pascal/tsmc Gegenspieler konkurriert. Darauf bin ich gespannt
Lupin III
2016-03-03, 23:35:00
Gibt es eigentlich schon irgendwelche gesicherten Informationen/Vergleiche über die beiden Fertigungsarten, also 14nm GF und 16nm TSMC und ihre jeweiligen Stärken und Schwächen? Also was die Taktbarkeit, Packdichte, Leckströme usw angeht?
OBrian
2016-03-04, 00:19:19
Selbst wenn....wie genau kann man yields einschaetzen bevor man mit den eigentlichen dies erstmal zur Massen-Produktion kommt? Alle Voegel zwitschern von einem Juni-launch und er sagt auch selber Mitte 2016.
Da man vor einem Launch einige Zeit vorproduzieren muß, um was Verkaufbares zu haben, und weil damit ja auch noch Boards gebaut werden müssen, was auch dauert, und weil die Bearbeitungszeit eines Wafers einige Wochen dauert (wie war das, 10 bis 12 oder so?), läuft die Serienproduktion also schon längst auf Hochtouren, wahrscheinlich spätestens seit Jahresanfang. Und da man die Serienproduktion in großem Stil noch nicht anleiert, wenn der Yield ganz übel ist, kann man wohl davon ausgehen, da der Yield annehmbar ist. Muß ja noch nicht im Bereich sein, wo man Gewinn scheffelt, aber zumindest kurz davor mit absehbarer Verbesserung in die Gewinnzone hinein.
D.h. alleine der Umstand, daß sie klar und deutlich sagen "das Ding kommt Mitte 2016" sollte die Frage nach dem Yield mit "ist ok" beantwortet haben.
maximus_hertus
2016-03-04, 01:10:01
Gibt es eigentlich schon irgendwelche gesicherten Informationen/Vergleiche über die beiden Fertigungsarten, also 14nm GF und 16nm TSMC und ihre jeweiligen Stärken und Schwächen? Also was die Taktbarkeit, Packdichte, Leckströme usw angeht?
Bzgl. (High-End) GPUs?
Nein, da würde ich mir auch erstmal für die nähere Zukunft keine Hoffnung machen, dass man aus dieser Richtung genaue Infos bekommen wird.
Es wird vor allem noch schwieriger, da AMD bei Polaris GF only und nV (wenn ich das nicht falsch im Kopf habe) mit Pascal auf TSMC-only setzt. Man hat dann nicht nur unterschiedliche Fertigungsverfahren, man muss auch verschiedene Architekturen "vergleichen".
Aber warten wir mal ab, vor Polaris LAunch wird es ja noch eine Menge offizieller Infos geben, laut AMD. Bisher geht man ja von einem Juni-Launch aus, so dass man in Richtung Mai mit Vorabinfos rechnen könnte. ISt ja nicht mehr sooo lange hin ;)
horn 12
2016-03-04, 04:55:27
Dies alles zum Thema das Jahr 2016 wird sooo geil!
An der Langen Stange gehalten werden schlussendlich die Leute im Jahr 2016, Wetten!
Ailuros
2016-03-04, 06:28:20
Da man vor einem Launch einige Zeit vorproduzieren muß, um was Verkaufbares zu haben, und weil damit ja auch noch Boards gebaut werden müssen, was auch dauert, und weil die Bearbeitungszeit eines Wafers einige Wochen dauert (wie war das, 10 bis 12 oder so?), läuft die Serienproduktion also schon längst auf Hochtouren, wahrscheinlich spätestens seit Jahresanfang. Und da man die Serienproduktion in großem Stil noch nicht anleiert, wenn der Yield ganz übel ist, kann man wohl davon ausgehen, da der Yield annehmbar ist. Muß ja noch nicht im Bereich sein, wo man Gewinn scheffelt, aber zumindest kurz davor mit absehbarer Verbesserung in die Gewinnzone hinein.
D.h. alleine der Umstand, daß sie klar und deutlich sagen "das Ding kommt Mitte 2016" sollte die Frage nach dem Yield mit "ist ok" beantwortet haben.
Nein zum ersten; es gab Geruechte im Hintergrund dass Polaris sogar April/Mai in notebooks auftauchen sollte aber ich sehe bis jetzt nur rebrands. Sonst ist alles relativ zu dem was Dir jeweiliges marketing genau vorgeigen will; ein "launch" kann ein hard launch sein, muss es aber nicht sein und "akzeptablen" yields fehlt erstmal die Definierung von akzeptabel. Dass soll jetzt gar nichts heissen fuer AMD, aber ich wuerde momentan noch gar nichts als garantiert ansehen.
Ja sie haben einen Vorsprung gegenueber den Gruenen so wie es momentan aussieht, wobei NV womoeglich einfach die falsche foundry fuer alles gewaehlt hat.
Also Polaris 10 und 11 sind GloFo. Dann ist Vega auch GloFo. Warum sollte man da jetzt TSMC machen? Zumal man 14nm offensichtlich deutlich besser findet - das wär doch nur teuer...
TSMC ist nur für Konsolen und ARM interessant für AMD offenbar, GPUs und CPUs sind jetzt alle GloFo, das kann man daraus finde ich entnehmen.
Gibt es eigentlich schon irgendwelche gesicherten Informationen/Vergleiche über die beiden Fertigungsarten, also 14nm GF und 16nm TSMC und ihre jeweiligen Stärken und Schwächen? Also was die Taktbarkeit, Packdichte, Leckströme usw angeht?
Es gibt nur die Erkenntnisse vom Apple A9, das ist aber nicht auf grosse GPUs uebertragbar. Zudem war das noch 14 LPE und 16 FF, wir werden bei AMD/NV 14 LPP und 16 FF+ sehen.
Zumal man 14nm offensichtlich deutlich besser findet - das wär doch nur teuer...
TSMC ist nur für Konsolen und ARM interessant für AMD offenbar, GPUs und CPUs sind jetzt alle GloFo, das kann man daraus finde ich entnehmen.
Da wuerde ich nichts drauf geben. Hallock sagt das als AMD Marketing guy. 14 ist eine kleinere Zahl als 16, also sagt man, dass es fortschrittlicher ist. Harte Fanboys machen das genauso und werden die dadurch auch getriggert. Darauf, welcher Prozess am Ende besser ist, laesst sich aus der Zahl aber nicht schliessen.
Ailuros
2016-03-04, 10:10:15
Es gibt KEIN 16FF, nur noch 16FF+.
tm0975
2016-03-04, 10:10:18
amd wird genug infos haben zu den beiden prozessen um den besseren zu wäühlen bzw. die bessere gesamtsituation (waferpreis, prozessverfügbarkeit, taktbarkeit, leckströme, ...).
ich habe mich schon gewundert, warum amd so penetrant auf dem tollen neuen finfet-prozess rumreitet. evtl. ist es doch möglich, dass glofo/samsung diesmal die besseren technischen argumente haben und das amd mit in ihre marketing-argumentation mit aufnimmt. nvidia wird für einmalig einen etwas schlechteren prozess nicht die foundry wechseln. wahrscheinlich hat tsmc auch mit zukünftigen prioritäten bei 10 nm nvidia bei der stange gehalten. da soll ja tsmc wieder etwas flotter dabei sein aus zeitlicher sicht.
Ailuros
2016-03-04, 10:13:27
Apple's A9 ist eine Indizie dass 16FF+ fuer den spezifischen SoC leicht besser ist als 14LPE; persoenlich erwarte ich dass 16FF+ und 14LPP ziemlich vergleichbar sind. Uebrigens wird bis jetzt nur Polaris 14LPP zugesprochen; ausser sie haben etwas geaendert war Greenland fuer 16FF+ ausgelegt.
NV hat nicht den schlechteren Prozess gewaehlt, sondern die foundry mit den kleineren Kapazitaeten fuer Zeitraum X und da GloFo diesbezueglich bei weitem nicht so beschaeftigt ist, ist es auch kein Wunder dass AMD's marketing auf dem Zeug herumreitet.
Es gibt KEIN 16FF, nur noch 16FF+.
Ist der A9 auch schon in 16FF+? sorry, wusste ich nicht :redface:
Habe schon wieder vergessen, sind die Strukturen bei LPP eigentlich nochmal weiter geschrumpft? metal und gate pitch sind bei FF+ fast gleich wie LPE laut der Quelle (http://pc.watch.impress.co.jp/video/pcw/docs/670/675/p6.pdf).
Apple's A9 ist eine Indizie dass 16FF+ fuer den spezifischen SoC leicht besser ist als 14LPE; persoenlich erwarte ich dass 16FF+ und 14LPP ziemlich vergleichbar sind. Uebrigens wird bis jetzt nur Polaris 14LPP zugesprochen; ausser sie haben etwas geaendert war Greenland fuer 16FF+ ausgelegt.
NV hat nicht den schlechteren Prozess gewaehlt, sondern die foundry mit den kleineren Kapazitaeten fuer Zeitraum X und da GloFo diesbezueglich bei weitem nicht so beschaeftigt ist, ist es auch kein Wunder dass AMD's marketing auf dem Zeug herumreitet.
Das seh ich auch so. 16FF+ und 14LPP sind vergleichbar. Das wird mehr ne Wirtschaftlichkeitsfrage sein, warum Apple TSMC macht und AMD GloFo. AMD wird bei GloFo einfach die besseren Konditionen bekommen haben.
Complicated
2016-03-04, 12:55:08
Es scheint Unterschiede beim Sweespot zu geben bzgl. der Taktraten. Da scheint TSMC bei höherem Takt effizienter und GF bei niedrigerem Takt. Allerdings fällt mir gerade nicht mehr ein wo ich das gelesen habe.
Wenn AMD sich entschieden hat bei absolutem Highend TSMC zu nutzen, dann könnte sich auch ein Vorteil bei der Effizienz im Midrange ergeben, da besser darauf optimiert werden konnte im Design. Das könnten alle möglichen Abweichungen oder sogar eine ganz neue Architektur bedeuten wenn die erst 2017 kommt.
Es scheint Unterschiede beim Sweespot zu geben bzgl. der Taktraten. Da scheint TSMC bei höherem Takt effizienter und GF bei niedrigerem Takt. Allerdings fällt mir gerade nicht mehr ein wo ich das gelesen habe.
Vmtl. wieder im Zusammenhang mit dem A9. Ein iPhone mit TSMC SoC hat etwas mehr Akkulaufzeit wenn es voll belastet wird.
Wie schon gesagt, laesst das aber noch keine Schluesse auf "unsere" GPUs zu.
Knuddelbearli
2016-03-04, 17:18:08
dafür war aber der Samsung A9 deutlich kleiner wenn ich mich recht erinnere. Diese Dichte kann man entweder für mehr Transistoren nutzen, oder doch weniger Dicht packen wodurch Verbrauch sinkt, oder einfach als Kostenersparnis mitnehmen.
fondness
2016-03-04, 17:50:15
Ja sie haben einen Vorsprung gegenueber den Gruenen so wie es momentan aussieht, wobei NV womoeglich einfach die falsche foundry fuer alles gewaehlt hat.
Ich würde das erstmal nicht auf die Foundry schieben, NV war schon immer später dran bei neuen Prozessen, auch als beide TSMC verwendeten.
Complicated
2016-03-04, 17:55:38
Und diesmal sind keine Erkenntnissgewinne durch AMDs Vorarbeit zu erwarten. Bin gespannt ob Nvidia das hin bekommt als erster in einem neuen Prozess eine GPU zu releasen und alle nötigen Anpassungen an den Prozess hinbekommen hat. Zudem noch HBM, 2.5-Interposer...also die Herausforderungen waren glaub ich noch nie so groß verbunden mit dem Druck der schon angekündigten Polaris in 14nm. Keiner kann abschätzen wie viel der jeweilige Prozess Vorteile oder Nachteile bringt bei diesen Highend-Chips. Nur AMD könnte ein cleveres Ass im Ärmel haben wenn sie ausser Polaris in 14nm auch noch Vega in 16nm in der Pipeline hätten um direkt auf Pascal antworten zu können wenn es um die Leistungskrone geht.
Nakai
2016-03-04, 18:09:34
dafür war aber der Samsung A9 deutlich kleiner wenn ich mich recht erinnere. Diese Dichte kann man entweder für mehr Transistoren nutzen, oder doch weniger Dicht packen wodurch Verbrauch sinkt, oder einfach als Kostenersparnis mitnehmen.
Und da ist das Problem.
Apple A9 wurde bei TSMC und Samsung hergstellt. Welche Prozesse genau? kA, aber 16FF+ bei TSMC ist sehr naheliegend bzw. unausweichlich. Der Samsung Chip könnte 14LPE sein und nicht 14LPP. Es wird immer 14LPE erwähnt, aber es könnte auch 14LPP sein.
Derzeit kann man sagen, dass der Samsung A9 eine höhere Packdichte und dafür schlechtere Energieeffizienz-Charakteristiken hat. Wenn Samsungs A9 in 14LPE gefertigt wurde, und Polaris in 14LPP, dann existiert einfach keine gute Vergleichsbasis.
Und, dass Vega10 in 16FF+ kommt, kann viele Gründe haben.
1. Volumen bei GF auch nur begrenzt
2. Anderes Designziel benötigt anderen Prozess
3. Es gibt eine HBM und TSV-Pipeline mit TSMC, aber nicht mit GF
4. Verteilung der Fertigung, auch um Volumen für Zen oÄ zu haben.
Ailuros
2016-03-04, 19:02:02
Ich würde das erstmal nicht auf die Foundry schieben, NV war schon immer später dran bei neuen Prozessen, auch als beide TSMC verwendeten.
Ich schiebe gar nichts; es sind Hintergrund-Geruechte die sehr spezifisch zu viele Kapazitaeten u.a. an fruitco zuschreiben. Sonst sehe ich keinen Greenland vor GP100 unter dem gleichen Prozess und bei hoher Komplexitaet und wenn sie genauso viele spins und Treiber-Turnereien wie bei Fiji brauchen sollten dann gute Nacht.
Ailuros
2016-03-04, 19:09:50
Und da ist das Problem.
Apple A9 wurde bei TSMC und Samsung hergstellt. Welche Prozesse genau? kA, aber 16FF+ bei TSMC ist sehr naheliegend bzw. unausweichlich. Der Samsung Chip könnte 14LPE sein und nicht 14LPP. Es wird immer 14LPE erwähnt, aber es könnte auch 14LPP sein.
Da ich bei zwei Quellen erst vor Tagen nachgefragt habe:
1. Es gibt kein 16FF; TSMC hat es storniert und es wurde auch offiziell angekuendigt.
2. A9X , ein Teil von A9, Parker, GP1xx, Greenland sind alle 16FF+ TSMC
3. A9 bei Samsung ist definitiv 14LPE genauso wie der Exynos7420. Exynos8890 und Polaris unter anderen werden auf 14LPP hergestellt.
Derzeit kann man sagen, dass der Samsung A9 eine höhere Packdichte und dafür schlechtere Energieeffizienz-Charakteristiken hat. Wenn Samsungs A9 in 14LPE gefertigt wurde, und Polaris in 14LPP, dann existiert einfach keine gute Vergleichsbasis.
Es sind Probleme mit irgendwelchen voltage-Variationen die daran schuld sein sollen bei LPE, soll LPP aber afaik nicht geerbt haben.
Und, dass Vega10 in 16FF+ kommt, kann viele Gründe haben.
1. Volumen bei GF auch nur begrenzt
2. Anderes Designziel benötigt anderen Prozess
3. Es gibt eine HBM und TSV-Pipeline mit TSMC, aber nicht mit GF
4. Verteilung der Fertigung, auch um Volumen für Zen oÄ zu haben.
Greenland hat HBM2; GloFo hat keine Kapazitaetsprobleme momentan und auch nicht bis Ende des Jahres. Wer soll den alles vollbuchen genau?
Bei maessiger Komplexitaet Samsung hin und her wuerde ich es auch wagen an Stelle von AMD. Fuer komplizierteres Zeug wuerde ich aber auch auf Nummer Sicher gehen.
von Richthofen
2016-03-04, 20:29:30
Derzeit kann man sagen, dass der Samsung A9 eine höhere Packdichte und dafür schlechtere Energieeffizienz-Charakteristiken hat. Wenn Samsungs A9 in 14LPE gefertigt wurde, und Polaris in 14LPP, dann existiert einfach keine gute Vergleichsbasis.
Diesen "Glücksfall" der direkten Vergleichbarkeit des Apple SoC's unter den beiden Fertigungsverfahren wird man doch im GPU-Bereich nicht haben.
Selbst nach Erscheinen der neuen AMD- und nV-Generation ändert das doch nicht die Informationslage, da jeder Chip in (nur) einem Fertigungsprozess bei (nur) einem Fertiger hergestellt wird.
Alles andere bleibt doch weiterhin Spekulation.
horn 12
2016-03-05, 08:57:37
http://www.golem.de/news/high-bandwidth-memory-sk-hynix-produziert-4-gbyte-stapel-ab-dem-dritten-quartal-1603-119580.html
Gut möglich das Polaris 11 mit HBM-2 4x 2GB Stacks kommt, sprich 8GB
Billig wird das Teil somit nicht, mindestens Fiji XT Preisklasse!
dargo
2016-03-05, 09:07:22
Jetzt sind schon bis zu 2 TB/s Bandbreite möglich? Ich hatte noch 1 TB/s in Erinnerung. Dachte bei 4 Stacks wäre Schluss. Wahnsinn welchen Sprung die Bandbreite durch HBM macht. :eek:
Locuza
2016-03-05, 09:45:09
Schluss ist dort, wo es aufhört Sinn zu machen.
Samsung hat als fiktives Beispiel auch 6 Stacks präsentiert:
http://www.cnews.cz/sites/default/files/styles/epc-galerie-clanek-700-nowatermark/public/pictures/novinky/2015/08srpen/samsung-chysta-pameti-hbm2-na-zacatek-pristiho-roku-%28idf-2015%29/samsung_chysta_pameti_hbm2_na_zacatek_pristiho_roku_idf_2015_02.jpg?itok=OlrN7fC e
Greenland/Vega 10 wird wahrscheinlich 2 Stacks und insgesamt 512 GB/s verwenden.
Das ist kein Monster und könnte im Laufe der Zeit, wie Tahiti oder später Hawaii eher in die Performance/Mittelklasse rutschen.
Wie gesagt, es ist einfach eine haltlose Speku, dass Greenland TSMC sein soll. Vielleicht existiert das Projekt schon längst gar nicht mehr. Und Vega10 muss doch nicht Greenland sein, das kann auf etwas sein, womit man Greenland ersetzt, weil Greenland einfach nichts dolles war.
fondness
2016-03-05, 10:32:46
Wenn AMD für High-End auf TSMC wechselt, muss es dafür jedenfalls einen guten Grund geben. Denn zwei Fertigungsprozesse bedeuten natürlich mehr Aufwand und das macht man nicht zum Spaß.
BTW, auf der GDC am 14-18. März dürfte von AMD so einiges kommen, womöglich schon zu Polaris, die Andeutung von hochrangigen AMD-Mitarbeitern häufen sich jedenfalls.
Keiner sagt dass sie das tun, ich denke nicht, dass da irgendeine GPU von TSMC kommt. Das ist doch auch ne Kostenfrage. Die werden alle GPUs und CPUs bei einem Fertiger produzieren. Man muss sich mal von dieser idiotischen Read-Doktrin trennen. AMD wird in erster Linie 14LPP nutzen, ich würd da TSMC erst mal einfach vergessen.
Sunrise
2016-03-05, 12:30:56
Jetzt sind schon bis zu 2 TB/s Bandbreite möglich? Ich hatte noch 1 TB/s in Erinnerung. Dachte bei 4 Stacks wäre Schluss. Wahnsinn welchen Sprung die Bandbreite durch HBM macht. :eek:
Jup, Samsung hatte es übrigens schon vorher bekanntgegeben, dass 1TB/s auf jedenfall recht schnell überschritten werden, es waren glaube ich bis zu 1,6TB/s im Gespräch.
Der_Korken
2016-03-05, 13:28:20
http://www.golem.de/news/high-bandwidth-memory-sk-hynix-produziert-4-gbyte-stapel-ab-dem-dritten-quartal-1603-119580.html
Gut möglich das Polaris 11 mit HBM-2 4x 2GB Stacks kommt, sprich 8GB
Billig wird das Teil somit nicht, mindestens Fiji XT Preisklasse!
Mit vier HBM2 Stacks erreicht man zwischen 512GB/s und 1TB/s. Wenn die 230mm² für Polaris 11 stimmen, bekommt man dort optimistisch vielleicht 3072SP unter. Die Bandbreite wäre somit imho völlig übertrieben für so einen kleinen Chip. 2 HBM Stacks mit 1,6 Gbps hätte schon mehr Bandbreite als Hawaii und TitanX und sollten eigentlich dicke reichen. Notfalls muss AMD eben auf die 4GB-Stacks warten (2x2GB wäre zu wenig).
Als ob Polaris 11 ein 4k Bit SI hat. So klein wie der Chip prognostiziert wird doch nicht (Vega/Greenland muss ja drueber auch noch kommen). Ich glaube, der hat gar keinen HBM, wenn er schon Mitte des Jahres kommen soll kommt HBM2 nicht hin und 2 GiB HBM1 werden es sicherlich auch nicht.
fondness
2016-03-05, 13:33:33
Keiner der beiden Polaris-Chips wird HBM verwenden IMO. Das wird erst Ende des Jahres / Anfang nächsten Jahres mit Greenland/Vega10 der Fall sein.
Bleibt nur die Frage welchen midrange Chip Hynix dann angesprochen hat.
edit: muss mich korrigieren. Hatte wieder vergessen, dass Samsung schon in Serie (https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface) (Meldung vom 19. Jan) produziert. Damit waeren 2 Stacks mit 8 GiB bei Polaris 11 zur Jahresmitte immer noch drin. Samsung wird ja auch einfach nicht ohne Bedarf produzieren...
Nakai
2016-03-05, 14:18:38
Da ich bei zwei Quellen erst vor Tagen nachgefragt habe:
1. Es gibt kein 16FF; TSMC hat es storniert und es wurde auch offiziell angekuendigt.
Keine Sorge, ich schrieb auch deswegen unausweichlich. 16FF gibt es nicht mehr, es muss nicht mehr erwähnt werden.
2. A9X , ein Teil von A9, Parker, GP1xx, Greenland sind alle 16FF+ TSMC
3. A9 bei Samsung ist definitiv 14LPE genauso wie der Exynos7420. Exynos8890 und Polaris unter anderen werden auf 14LPP hergestellt.
Das ist gut zu wissen. 14LPP sollte wohl keine höhere Packdichte mit sich bringen, jedoch bis zu 15% mehr Geschwindigkeit und bis zu 15% weniger Stromverbrauch mit sich bringen. Der Finfet-Prozess bei Samsung/GF sollte eine leicht höhere PAckdichte mit sich bringen, wenn man die SRAM-Cell-Area miteinander vergleicht.
Greenland hat HBM2; GloFo hat keine Kapazitaetsprobleme momentan und auch nicht bis Ende des Jahres. Wer soll den alles vollbuchen genau?
Greenland und HBM2 ist auch klar. Mir ging es eher darum, dass AMD nur über TSMC derzeit eine TSV/HBM/HBM2 Produktionskette aufgebaut hat.
Soweit ich weiß hat Glofo nur eine Fabrik für Finfet. Insgesamt haben GloFo und Samsung vier Fabs für Finfet. Meine Aussage bezog sich darauf, falls AMD nur bei GloFo produziert, ob das nicht zu Engpässen führen könnte.
Deine Antwort suggeriert jedoch, dass es hierbei keinerlei Probleme gibt. Und wenn Apple nur bei Samsung und TSMC fertigt, dann wird es hierbei bei GloFo genug Kapazitäten geben.
Mit vier HBM2 Stacks erreicht man zwischen 512GB/s und 1TB/s. Wenn die 230mm² für Polaris 11 stimmen, bekommt man dort optimistisch vielleicht 3072SP unter. Die Bandbreite wäre somit imho völlig übertrieben für so einen kleinen Chip. 2 HBM Stacks mit 1,6 Gbps hätte schon mehr Bandbreite als Hawaii und TitanX und sollten eigentlich dicke reichen. Notfalls muss AMD eben auf die 4GB-Stacks warten (2x2GB wäre zu wenig).
Eine SRAM-Zelle (6T; 215-0821060) unter 28HP ist 0.16 µm2 groß.
Eine SRAM-Zelle unter 16FF+ sollte etwa 0.07 μm2 groß sein.
Bei 14 LPP sind es noch etwas weniger, also 0.0645 μm2.
Ich weiß nicht genau, ob die Zahlen stimmen. Ich habe diese schnell "ergoogelt". Womöglich gibt es noch dramatische Abweichungen. Und klar, SRAM-Zellgröße hat nicht unbedingt viel mit der finalen Chipgröße zu tun.
Man könnte jedoch schon von 30~35Mio Transistoren/mm² ausgehen und da liegt man definitiv ein gutes Stück vor Hawaii.
€: Polaris11 wird kein HBM in irgendeiner Form besitzen.
€2: Alles was auf Zauba geleakt wurde derzeit, spricht eindeutig gegen HBM für P10 und P11.
C92; Polaris10
C98: Polaris11
C99: Vega10
D00: Lowend?
Warum soll P11 kein HBM besitzen? Das ist doch bisher überhaupt nicht klar... Wir wissen nur:
P10 -> 14nm, kein HBM, recht klein (ca. 150mm², geschätzt aber nur, kann auch größer sein)
P11 -> 14nm, vermutlich 232mm² (oder es war ein anderer Chip)
Vega10 -> 0 Information
Complicated
2016-03-05, 15:24:00
Das SI auf der GPU ändert sich nicht bei HBM Speicher ob da nun 1024 oder 4096 bit Bandbreite vorhanden sind hängt einzig und alleine von den HBM Stacks ab, da dort das jeweilige SI verbaut ist. Auch würde die überschüssige Bandbreite bei 4 HBM Stacks keinesfalls stören da auch keine zusätzlichen Transistoren auf der GPU dafür verbaut werden müssen.
Complicated
2016-03-05, 15:31:33
Mir ging es eher darum, dass AMD nur über TSMC derzeit eine TSV/HBM/HBM2 Produktionskette aufgebaut hat.
Wie ist das gemeint?
Warum sollte AMD hierzu keinen Zugang haben? http://www.amkor.com/go/2-5D
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
http://scr3.golem.de/screenshots/1505/AMD-HBM/AMD-HBM-07.png
Auf dieser Folie werden die Partner der Interposer-Technologie genannt mit UMC, Amkor und ASE.
UMC ist als Foundry bekannt, doch die beiden andere sind nicht so geläufig.
Amkor ist Partner von Globalfoundries bei der Zulieferkette für 2.5 Stacking Technologie: (http://www.amkor.com/go/2-5D)
ASE ist der weltweit größte "assembly and test service Provider" was soviel wie ein Dienstleister rund um Zusammenbau und Tests von Halbleitern ist. (http://www.inotera.com/English/Press_Center/Press_Releases/2014-04-07+Inotera+and+ASE+Joint+Press+Release.htm)
Das SI auf der GPU ändert sich nicht bei HBM Speicher ob da nun 1024 oder 4096 bit Bandbreite vorhanden sind hängt einzig und alleine von den HBM Stacks ab, da dort das jeweilige SI verbaut ist. Auch würde die überschüssige Bandbreite bei 4 HBM Stacks keinesfalls stören da auch keine zusätzlichen Transistoren auf der GPU dafür verbaut werden müssen.
Also zunaechst mal geben 1024/4096 bit die Busbreite, nicht die Bandbreite an.
Und der Rest ist natuerlich Unsinn. Selbstverstaendlich hast du auf der GPU ein PHY. Wie stellst du dir das denn vor? Dass der Bus einfach mal beliebig breit ist und du je nach Belieben 1024-n*1024 Leitungen dran packen kannst? Und wo willst du den Kram ueberhaupt anschliessen? Und weil man einfach beliebig viele HBM Stacks an eine GPU (ohne SI!) packen kann, ist Fiji auch auf 4 GiB limitiert. Ergibt alles 1A Sinn, selbst wenn man nicht mit den Grundlagen vertraut ist :rolleyes:
Complicated
2016-03-05, 16:11:16
Du liest wieder nicht richtig und interpretierst falsch. Es können nicht beliebig viele Stacks angeschlossen werden, doch mit der Hi-Zahl ändert sich das SI pro Stack. 2-Hi und 8 Hi-HBM Stacks haben unterschiedliche SIs mit unterschiedlicher Bandbreite die am selben PHY an der GPU angeschlossen werden. Lies die HBM Spezifikationen bitte.
Fiji hat 4 PHYs für 4 Stacks. Jedes hat 1024 bit. Da sind 4 GB verbaut. Es reicht auch locker für mehr.
http://cdn.wccftech.com/wp-content/uploads/2015/11/AMD-Fiji-Tonga-Die-shots-2.jpg
;D
Das man am SI nichts aendern muss, wenn man hoeher stackt ist voellig klar, hat mit deinem urspruenglichen Post aber rein gar nichts zu tun. Dort hast du ausdruecklich von "Bandbreite" (wobei offensichtlich die Busbreite gemeint war) und der Anzahl von stacks gesprochen. Anstatt dich jedes mal rechtfertigen zu wollen koenntest du auch einfach mal akzeptieren dass du Quatsch geschrieben hast oder von vorne herein ueberlegen, was du denn schreiben willst und dich ordentlich ausdruecken. Dann sparen wir uns hier naemlich eine Menge Posts
Complicated
2016-03-05, 17:12:44
Du diskutierst um völlige Nebensächlichkeiten weil dir der Zusammenhang nicht klar ist.
Fiji hat immer die selbe Anzahl PHYs: 4.
Ein HBM Stack auf einer Fury hat 1 GB RAM in 4-Hi. Jedes Hi der ersten Generation HBM enthält 2 Speicher-Channels. Das macht bei diesen Stacks 8 Channels x 128 bit= 1024 pro Stack und GB. Die Bandbreite variiert durch den Speichertakt, welcher für HBM der ersten Generation jedoch mit 500 MHz vorgegeben ist. Wenn ich nun schreibe, dass mit unterschiedlichem Hi, z.B. 8 Hi die Bandbreite größer wird, so ist dies ein Schluß aus eben diesen Faktoren und bezieht sich auf den HBM-Speicher der jeweiligen Generation (bei HBM2 könnten 1GHZ als Taktbasis dienen) zu Vergleichszwecken und zur Erläuterung der Anbindung. Nur wird dafür nicht auf der GPU das PHY geändert sondern der Logic-Die der auf dem HBM Stack den Interposer anbindet übernimmt dies. Dort machen die zusätzlichen Transistoren den Kohl nicht fett.
Ich kann dir nur erneut raten, dass du es unterlässt auf meine Beiträge einzugehen. Das ist wirklich langsam nervig und ich mag nicht dauernd solche unnötigen Provokationen begegnen müssen wenn ich mich über Technik austauschen will. Erneut muss ich dies der Moderation melden, da sich das anscheinend bei dir nicht abstellen lässt.
Gipsel
2016-03-05, 17:33:01
Mir ging es eher darum, dass AMD nur über TSMC derzeit eine TSV/HBM/HBM2 Produktionskette aufgebaut hat.
TSMC hat mit TSVs, dem Interposer und HBM bei Fiji nicht viel zu tun. Die steuern lediglich die Wafer mit den GPU-Dies bei (die besitzen keine TSVs, das sind stinknormale GPU-Dies nur eben mit HBM-PHYs, die nichts Besonderes sind), mehr nicht. Der HBM wird von Hynix zugekauft (die TSVs da drin und auch das Stacking des HBMs selber machen die in eigener Verantwortung) und der Interposer (der braucht auch TSVs) kommt von UMC. Das Dicing der Fiji-Wafer und das Stacking von Fiji-Die und HBM-Stacks auf dem Interposer sowie das finale Assembly desselben auf dem Package liegen völlig außerhalb von TSMC unter der Ägide von ASE und Amkor (sogenannte OSATs). Das Wichtige (und eventuell Schwierige) ist die Koordination des Ganzen, also daß Alles am Ende auch wirklich zusammenpaßt. Das ist das Problem (außer den technischen Neuerungen wie TSVs und Stacking, was TSMC bei Fiji aber gar nicht macht), TSMC spielt da eher eine sehr kleine Rolle. Die GPU kann da auch aus jeder anderen Fab kommen.
===============================
Du liest wieder nicht richtig und interpretierst falsch. Es können nicht beliebig viele Stacks angeschlossen werden, doch mit der Hi-Zahl ändert sich das SI pro Stack. 2-Hi und 8 Hi-HBM Stacks haben unterschiedliche SIs mit unterschiedlicher Bandbreite die am selben PHY an der GPU angeschlossen werden. Lies die HBM Spezifikationen bitte.Mach das bitte selber!
Ein 2 Hi-Stack hat exakt das gleiche Interface mit identischer Bandbreite und Spezifikation wie ein 8 Hi-Stack, also jeweils acht 128bit breite Kanäle, mithin insgesamt 1024 Datenleitungen. Ob man an ein HBM-Interface einen 2Hi-, 4Hi- oder 8Hi-Stack lötet, sollte also für die Bandbreite keine Rolle spielen.
Zumindest solange keiner Stacks mit reduzierter Channel-Anzahl anbietet, was bisher nicht auf den Roadmaps steht.
Complicated
2016-03-05, 17:49:53
Nein hat er nicht. 2-Hi kann nur 512bit Bus haben. Wo sollen denn die selben Anzahl Kanäle her kommen wenn jedes Hi 2 Kanäle hat? 4-Hi=1024bit, 8-Hi=2048bit
Siehe:
http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf
Seite 9 zeigt den Aufbau detailliert und eindeutig.
Nakai
2016-03-05, 17:53:01
@Gipsel: Das ist mir alles klar. Mir ging es nur darum, dass AMD mit Fiji bereits eine Fertigungslinie, wie du sie beschrieben hast, aufgebaut hat. AMD hat das mit Fiji bereits gemeistert. Womöglich ist es leichter mit einem weiteren HBM Design bei TSMC gleich zu bleiben.
Brillus
2016-03-05, 18:06:20
Nein hat er nicht. 2-Hi kann nur 512bit Bus haben. Wo sollen denn die selben Anzahl Kanäle her kommen wenn jedes Hi 2 Kanäle hat? 4-Hi=1024bit, 8-Hi=2048bit
Siehe:
http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf
Seite 9 zeigt den Aufbau detailliert und eindeutig.
Wenn du 2-Hi stacks verbaust musst du stacks mti 4 channeln haben, hatte wir schon hier im thread und bei (-Hi hat jeder nur 1 Channel (Deswegen ist auch bei 8 Schluss)
Complicated
2016-03-05, 18:36:13
@Brillus
Das war für mich nicht verständlich, wie das gemeint ist.
Wenn ein Stack aus 2 Lagen DDR-Slices besteht, wird er 2-Hi genannt. Dann ergibt es sich ganz von alleine dass nur 4 Channels vorhanden sind. Jeder Slice hat 2 Channel mit je 128-bit.
y33H@
2016-03-05, 19:32:55
Ist dem so, ja? Da sagt SK Hynix aber was anderes - nämlich 1.024 Bit auch bei 2Hi:
http://scr3.golem.de/screenshots/1603/SK-Hynix-HBM2/thumb620/2016-01-21_101631_cr.png
EDIT
Ich kann dir nur erneut raten, dass du es unterlässt auf meine Beiträge einzugehen.Ich rate dir, einfach nicht zu posten, wenn du Unfug erzählst und dabei auch noch anderen Leuten auf die Füße trittst. Was zuletzt bei vielen deiner Posts der Fall war/ist.
Botcruscher
2016-03-05, 20:32:56
€2: Alles was auf Zauba geleakt wurde derzeit, spricht eindeutig gegen HBM für P10 und P11.
http://www.3dcenter.org/dateien/abbildungen/AMDs-Baffin-Chip-in-Zaubas-Importliste.png
Aus der News vom 21.2 verstehe ich nicht wo Leo da den GDDR5 her nimmt.
Für mich steht da G5 4GB Channel während der Rest klar anders beschriftet ist. Die G5 gehört da klar zum Namen und ist nicht der Speicher.
Hübie
2016-03-05, 20:37:58
Ist dem so, ja? Da sagt SK Hynix aber was anderes - nämlich 1.024 Bit auch bei 2Hi:
http://scr3.golem.de/screenshots/1603/SK-Hynix-HBM2/thumb620/2016-01-21_101631_cr.png
EDIT
Ich rate dir, einfach nicht zu posten, wenn du Unfug erzählst und dabei auch noch anderen Leuten auf die Füße trittst. Was zuletzt bei vielen deiner Posts der Fall war/ist.
Mir fällt gerade zum ersten Mal auf, dass bei den 2-GB-Stacks "Cache" mit dran steht. Könnte ja indirekt bestätigen was schon die Runde macht (HBM als Cache auf einer APU). :smile:
@Brillus
Das war für mich nicht verständlich, wie das gemeint ist.
Wenn ein Stack aus 2 Lagen DDR-Slices besteht, wird er 2-Hi genannt. Dann ergibt es sich ganz von alleine dass nur 4 Channels vorhanden sind. Jeder Slice hat 2 Channel mit je 128-bit.
Jeder Slice hat genau so viele Channel, wie der Hersteller Lust hat da drauf zu bauen. Niemand kann also verhindern, dass jemand 2Hi- oder 1Hi-Stacks mit acht Kanälen baut. Wie hoch die ganze Geschichte ist, obliegt nur dem Hersteller. Spezifiziert ist nur das PinOut und demzufolge die maximale Kanalzahl, nicht wie diese erreicht wird.
maguumo
2016-03-06, 03:12:27
Das jedes DRAM Die mit 1, 2 oder 4 Channels angesteuert werden kann steht übrigens auch explizit so in der Einleitung der Spezifikation. Lohnt sich da mal rein zu schauen.
Leonidas
2016-03-06, 08:21:57
Für mich steht da G5 4GB Channel während der Rest klar anders beschriftet ist. Die G5 gehört da klar zum Namen und ist nicht der Speicher.
Die Hersteller benutzen die Abkürzung "G5" sehr gern für DDR5. "D3" dann für DDR3.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.