PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

N0Thing
2015-05-28, 12:14:22
Was genau hat NV direkt mit einer vendor-spezifischen Vermarktungs-Entscheidung zu tun? Oder glaubt Ihr vielleicht dass Zotac oder jegliches Zotac nicht zu dieser Variante gegriffen haette selbst wenn sie ein Monopol im Markt haetten?

Wie viel hat Nvidia denn mit den Vermarktungsentscheidungen, bei der ursprünglichen Titan zu tun? Haben die Hesteller da einfach keinen Nutzen in einer eigenen Lösung gesehen, obwohl ihnen das freigestellt war?

Sunrise
2015-05-28, 12:14:56
Hat das NVidia schon mal gemacht? Custom-Versionen einer Titan zugelassen?
Es lebe die Konkurrenz.

Loeschzwerg
2015-05-28, 12:18:19
Könnte also auch einfach nur ein Photoshop-Fake des Kartons sein und es bleibt bei der Custom 980Ti. Wäre auch nicht verwunderlich, wenn diese mit Custom-Kühler und freigegeben Taktraten und Powerbudget eine TitanX schlagen, war bei der 780Ti und der Titan ja auch schon so.

Scheinbar doch kein Fake, findet sich so auf der Zotac-Seite: http://www.zotac.com/products/graphics-cards/geforce-titan-series/product/geforce-titan-series/detail/geforce-gtx-titan-x-arcticstorm-zt-90402-10p.html
http://www.zotac.com/de/z-zone/arcticstorm.html

Was Zotac da an Bilder zeigt ist mit Photoshop gebastelt... sieht man doch ;) Ändert aber nix daran dass es ein reales Produkt ist.

Einzig der "fun fact" von videocardz ist lächerlich.

mironicus
2015-05-28, 12:22:25
Wie sieht es wohl mit den Hawai-Refreshes aus? Neue Revision, ausgereifterer 28 nm-Prozess, niedrigere Spanung so das der Verbauch der GPU auf 200 Watt sinken könnte? Kommen Chps auch von Global Foundries?

Dawn on Titan
2015-05-28, 12:22:51
Bestimmt wie bei Tahiti...

Ailuros
2015-05-28, 12:33:13
Wie viel hat Nvidia denn mit den Vermarktungsentscheidungen, bei der ursprünglichen Titan zu tun? Haben die Hesteller da einfach keinen Nutzen in einer eigenen Lösung gesehen, obwohl ihnen das freigestellt war?

Weiss der Geier ob es mit einem originalen Referenz-design verbunden war. Ist aber nicht der springende Punkt hier. Es ist eher dass manche bereit sind jeglichen Scheiss gedankenlos anzunehmen.

R.I.P.
2015-05-28, 13:01:05
Weiss der Geier ob es mit einem originalen Referenz-design verbunden war. Ist aber nicht der springende Punkt hier. Es ist eher dass manche bereit sind jeglichen Scheiss gedankenlos anzunehmen.

Nvidia-brainwashed-Jünger :ulol2:

Hübie
2015-05-28, 13:17:15
OMG :rolleyes: Ja. Jensen rief Zotac an: "Du, wir sind am Arsch. Fiji ist so schnell, dass wir nicht mehr verkaufen werden. Schnell. Bastelt eine beschissene Lösung für 1500 Eier. Wir machen fifty, fifty." :freak:
Liebe Leute, bleibt doch mal bodenständig. Das ist nichts weiter als das übliche "im Gespräch bleiben". Wahrscheinlich muss man den Kühler wie bei Gigabyte selber dran klatschen X-D
Sieht mir nach einen Alleingang seitens Zotac aus...

Kartenlehrling
2015-05-28, 13:26:03
GPU-Z wurde auch schonmal auf Fiji vorbereite,
das es sie wenigsten erkennt und was mit dem Speicher anfangen kann.

TechPowerUp GPU-Z v0.8.3

Added VGA BIOS UEFI support indicator
Added support for NVIDIA GTX 980 Ti, GTX 965M, GTX 950M, NVS315, GT 750 (GK106)
Added support for AMD Fiji, Radeon R2/R3 Graphics (Mullins APU)
Added support for various Intel Broadwell SKUs
Fixed missing NVIDIA PerfCap sensor in some cases
Added support for HBM memory
Fixed GT200B die size
Fixed some NV42 specs
Improved OpenCl detection code

Timbaloo
2015-05-28, 13:35:52
OT:
Ich frage mich überhaupt was solche Hybrid-Kühler bringen sollen. Eine reine LuKü wäre besser als der Hybrid-Kühler mit Luft betrieben, eine reine Wakü (egal ob AIO oder custom) wäre besser als der Hybrid-Kühler mit Wasser betrieben. Sorry, das ist doch Käse...

y33H@
2015-05-28, 13:49:00
https://instagram.com/p/3OWPbmNDaD/

Bisher gab's nur Essen ;D

SchinkenSpicker
2015-05-28, 13:50:49
Nvidia erlaubt doch seit jeher bei den Titan Karten Wasserkühler im weitesten Sinne, aber keine Custom-Luftkühler. Inno3D hat immer ihr Modell mit Hybridkühler rausgebracht und EVGA ihre Hydro Copper. Das ist kein Zeichen, dass man sich vor Fiji fürchtet.
Zotac hat diese Beschränkung offenkundig ausgenutzt und Alibi-mäßig einen kleinen Wasserkühler verbaut um dann ihren riesigen Luftkühler draufschrauben zu dürfen. So gilt es halt als Hybridkühler anstatt als reiner Custom-Luftkühler.

Loeschzwerg
2015-05-28, 13:53:13
https://instagram.com/p/3OWPbmNDaD/

Bisher gab's nur Essen ;D

Inkl. Freibier?

yamo
2015-05-28, 13:59:49
Für Fiji single GPU mit 4GB HBM habe ich wenig Hoffnung im Breich 699, MSRP.
Das lang nicht, Max ans Bein zu Pinkeln.
Ich habe zwar den Thread verfolgt, aber, könnte Dual-Fiji als eine verpinnte GPU erscheinen und deshalb 8GBHBM im SFR nutzen?
Allerdings würde AMD so einen Kracher auch leaken, leider ist das Gegenteil der Fall.....

raffa
2015-05-28, 14:00:22
FIJI Bitter?

http://img.21food.com/20110609/product/1305291052656.jpg

Gipsel
2015-05-28, 14:06:27
Die ganze Story mit Dual-GPU Fiji XT und dann 4+4 = 8GB mit "beyond simple AFR or SFR" ist schlicht Schwachsinn.
Just my 0.02$.

Sunrise
2015-05-28, 14:24:56
...Sieht mir nach einen Alleingang seitens Zotac aus...
Inno3D (http://www.inno3d.com/products_detail.php?refid=197) hatte ja auch bereits eine andere non-Referenz gezeigt (mit Basis Arctic), kaufbar werden die aber scheinbar erst jetzt, bzw. in Kürze.

M4xw0lf
2015-05-28, 14:52:50
https://instagram.com/p/3OWPbmNDaD/

Bisher gab's nur Essen ;D
Saubär du :frown:

Timbaloo
2015-05-28, 14:55:55
Wird das Teil heute etwa vorgestellt?

Skysnake
2015-05-28, 14:55:57
/sign

ich wäre da jetzt auch gern Mäuschen ;D

mironicus
2015-05-28, 15:05:10
*Lausch*

....... 8 GByte.....!

Wenigstens das könnten sie langsam mal verraten.

Unicous
2015-05-28, 15:22:53
Wird das Teil heute etwa vorgestellt?

Ja... der Presse. (Höchstwahrscheinlich, denn was gäbe es sonst für ein Produkt ;))

fondness
2015-05-28, 15:25:02
Carrizo wäre auch noch eine Möglichkeit, der kommt wohl vor Fiji zur Computex.

Unicous
2015-05-28, 15:29:06
Stimmt. Carrizo ist sogar wahrscheinlicher. Oder beides. Anderseits wäre es untypisch für AMD sie Presse so viele Wochen vor einem GPU Launch zu briefen.:rolleyes:

Sonst würden ja die Redakteure nicht unter Zeitdruck arbeiten müssen und das wäre ja kontraproduktiv für die Qualität/Qantität der Reviews.:wink:

Timbaloo
2015-05-28, 15:30:12
Ja... der Presse. (Höchstwahrscheinlich, denn was gäbe es sonst für ein Produkt ;))
Ah O.K. Danke. Total verrafft.

Locuza
2015-05-28, 15:32:34
Andere Rechenwerke werden wir wohl erst 2016 in der Finfet Gen sehen. Zumindest stand das in einer der Folien im Conference Call, dass das in der nächsten Gen dran kommt. Also quasi AMDs Maxwell. ;)

Die haben nur was von wait for awesomeness gesprochen und dann auf der Folie x2 Perf/Watt geschrieben und das waren so ziemlich die einzigen Infos die ich noch im Gedächtnis habe.
http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-GCN-GPU-Optimization-2015.jpg

Aber zu der Sache mit Punch per ALU:
http://techreport.com/review/27969/nvidia-geforce-gtx-titan-x-graphics-card-reviewed/3
I have to say that, although the GM200 is putting on a nice show, that big shader array on AMD's Hawaii chip continues to impress. Seems like no matter how you measure the performance of a GCN shader array, you'll find strengths rather than weaknesses.

In dem Sinne finden wir die Probleme eher drum-herum.
Seien es die TMUs, die Fütterung der ALUs oder schlicht die Treiber.

mczak
2015-05-28, 16:00:28
In dem Sinne finden wir die Probleme eher drum-herum.
Seien es die TMUs, die Fütterung der ALUs oder schlicht die Treiber.
Naja die einzige Schwäche der TMUs die ich sehen kann ist der FP16-Durchsatz (mit Filterung). Könnte mir vorstellen dass man das doch einmal ändert. So teuer kann's eigentlich nicht sein (hat nvidia ja mit GF11x eingeführt und bis Kepler (ohne GK208) hat das garantiert quasi gar nichts gebracht denn diese GPUs hatten sowieso mehr als genug TMUs).

robbitop
2015-05-28, 16:02:25
Die haben nur was von wait for awesomeness gesprochen und dann auf der Folie x2 Perf/Watt geschrieben und das waren so ziemlich die einzigen Infos die ich noch im Gedächtnis habe.
http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-GCN-GPU-Optimization-2015.jpg

Genau das habe ich da rausgelesen. 2x Perf/watt kommt nicht aus dem Fertigungsprozess allein. Also muss dort die µ-Arch auf Effizienz getrimmt worden sein.
Da man zwischen Tahiti und Tonga praktisch keine signifikante Erhöhung der Effizienz pro Ausführungseinheit sehen konnte und irgendwo zu sehen war, dass Fijii auf Tonga IP Level ist, gehe ich mal davon aus, dass man eine Effizienzerhöhung (die dringend nötig ist) - analog zu Maxwell erst in der FinFet Gen macht. Ansonsten wäre 2x Perf/Watt nicht machbar.


Aber zu der Sache mit Punch per ALU:
http://techreport.com/review/27969/nvidia-geforce-gtx-titan-x-graphics-card-reviewed/3


In dem Sinne finden wir die Probleme eher drum-herum.
Seien es die TMUs, die Fütterung der ALUs oder schlicht die Treiber.

Das wundert mich nicht, dass es nicht die Ausführungseinheiten per se sind sondern andere Limitationen. Füttern der Ausführungseinheiten (bzw deren Verbesserung) ist ein Thema das bei Maxwell groß geschrieben wurde.

Naja die einzige Schwäche der TMUs die ich sehen kann ist der FP16-Durchsatz (mit Filterung). Könnte mir vorstellen dass man das doch einmal ändert. So teuer kann's eigentlich nicht sein (hat nvidia ja mit GF11x eingeführt und bis Kepler (ohne GK208) hat das garantiert quasi gar nichts gebracht denn diese GPUs hatten sowieso mehr als genug TMUs).
Ist das FP16 Texturaufkommen heute wirklich so hoch, dass es einen signifikanten Unterschied macht, ob eine TMU loopen muss oder es Single Cycle schafft?
Ich hatte angenommen, dass FP16 Texturen noch eher selten sind?

fondness
2015-05-28, 16:08:50
AMD hat angeblich allen Partner verboten irgendwas über Fiji auf der Computex zu zeigen: http://www.sweclockers.com/nyhet/20573-amd-radeon-300-serien-slapps-den-16-juni

Fiji soll auf der von AMD präsentierten PC Gaming Show während der E3 kommen, wo mittlerweile übrigens ein Counter eingefügt wurde: http://www.pcgamingshow.com/

http://s30.postimg.org/4edp7dqn5/AMD_Presents_PC_Gaming_Show_900x440.jpg (http://postimage.org/)


Also am 16. Juni, 24:00 Uhr unserer Zeit.



Participants:
AMD
ARENANET
BLIZZARD ENTERTAINMENT
BOHEMIA INTERACTIVE
CCP GAMES
CLIFF BLESZINSKI
CLOUD IMPERIUM GAMES
CREATIVE ASSEMBLY
DEAN HALL
DEVOLVER
FRICTIONAL GAMES
FULLBRIGHT
HEART MACHINE
NEXON
PARADOX INTERACTIVE
PIXEL TITANS
SCS SOFTWARE
SPLASH DAMAGE
SQUARE ENIX
TRIPWIRE INTERACTIVE

Pirx
2015-05-28, 16:26:31
Die ganze Story mit Dual-GPU Fiji XT und dann 4+4 = 8GB mit "beyond simple AFR or SFR" ist schlicht Schwachsinn.
Just my 0.02$.
Also gehst du von 8 GB für eine 1-GPU-Fiji aus? Oder 4 GB?

R.I.P.
2015-05-28, 16:33:01
Also gehst du von 8 GB für eine 1-GPU-Fiji aus? Oder 4 GB?

4+4Gb sind bei einer Splittung des Bildes in genau 2 Hälften "irgendwie" zusammen 8 GB, weil jede GPU mit 4 GB nur die Hälfte des Bildes berechnen muss :tongue: Also müssten 4 GB für einen halben Bildschrim ausreichen ;D

derF
2015-05-28, 16:45:35
4+4Gb sind bei einer Splittung des Bildes in genau 2 Hälften "irgendwie" zusammen 8 GB, weil jede GPU mit 4 GB nur die Hälfte des Bildes berechnen muss :tongue: Also müssten 4 GB für einen halben Bildschrim ausreichen ;D
Jo, genau und wenn die Texturen auf der linken Bildschirmhälfte irgendwann mal auf der rechten landen, dann tauschen wir einfach die Bildschirmseite jedes Grafikchips! :D

R.I.P.
2015-05-28, 17:07:55
Jo, genau und wenn die Texturen auf der linken Bildschirmhälfte irgendwann mal auf der rechten landen, dann tauschen wir einfach die Bildschirmseite jedes Grafikchips! :D

Haha :tongue:
Sorry für OT, aber nach all den Spekulationen und Schätzunge, Hoffnungen und Hatern und keinen wirklich handfesten Inormationen muss man ja mal scherzen dürfen!

BTT:
Fiji kommt zu 100% mit 4Gb und verbessertem Treiber, Benches welche belegen, dass 4Gb ausreichen und bis Ende des Jahres sind (fast) alle glücklich. Habe ich schon vor einigen Seiten geschrieben: Ein hoffentlich gelungener Testlauf für HBM, Architekturverbesserungen und Treiberanpassung auf HBM bis die nächste "richtige" Generation kommt. Wenn Sie mit ZEUS (frei geklaut: Die Götter des Olymps haben die Titanen verbannt) dann auch Geld verdienen, umso besser.

Locuza
2015-05-28, 17:11:02
Genau das habe ich da rausgelesen. 2x Perf/watt kommt nicht aus dem Fertigungsprozess allein. Also muss dort die µ-Arch auf Effizienz getrimmt worden sein.
Oder auch einfach die Implementierung und das drum-herum.
Zeigt man ja auch schon bei Carrizo, wie viel ein anderer metal-stack und ausgewählte Transistoren-Typen ausmachen können.
Und die Verwaltung von Energie, was ich jetzt mal unabhängig einer konkreten µ-Arch ansehe.

Das wundert mich nicht, dass es nicht die Ausführungseinheiten per se sind sondern andere Limitationen. Füttern der Ausführungseinheiten (bzw deren Verbesserung) ist ein Thema das bei Maxwell groß geschrieben wurde.
Dann würde ich aber nicht von neuen oder besseren Rechenwerken sprechen, wenn die im Prinzip nicht das Problem darstellen. :)

Ich habe mir diese PDF nicht durchgelesen, da gibt es vielleicht etwas für zukünftige GPUs:
http://research.cs.wisc.edu/multifacet/papers/isca14-channels.pdf

Jedenfalls ins Auge gefallen ist mir der Abschnitt mit dem Aggregator.
Da haben sie den Command-Processor der GPU praktisch mit verschiedenen CPU-Implementierungen ersetzt. (Seite 10)
Vielleicht sehen wir bei AMDs FinFET GPUs einen größeren Umbau am Front-End, was den Command-Processor und das Sheduling anbelangt.

iuno
2015-05-28, 17:51:18
Da man zwischen Tahiti und Tonga praktisch keine signifikante Erhöhung der Effizienz pro Ausführungseinheit sehen konnte
Aber stimmt das? Auf dem Papier hat die 280X 25% mehr Shaderleistung als die 285, liegt in Tests aber nur etwa 15% vorn. In manchen neueren Titeln liegt Tonga PRO sogar mit Tahiti XT gleichauf, oder überholt letzteren gar (z.B. The Witcher 3). Manchmal mangelt es der 285 aber auch einfach nur an Bandbreite/Speicher, das sollte ja wohl bei Fiji kein Problem darstellen. Das Problem ist ja, dass es mMn keine sehr ausführlichen Tests gibt (was auch an der mangelnden XT Karte liegen mag) und die Werte stark auseinander gehen. Je nach Test kann die 285 mal 20, mal 50 Watt weniger brauchen als die 280. :rolleyes: Zur 280X fällt der Abstand natürlich umso größer aus. Soll das alles am Speicher/SI liegen?
Was ist bei dir signifikant? IMHO ist Tonga schon signifikant effizienter als Tahiti, ob das auch auf Hawaii zutrifft, ist aber wieder eine andere Frage.

Gibt es eigentlich schon Infos zu möglichen neuen Spielebundles?

Gipsel
2015-05-28, 17:53:25
Also gehst du von 8 GB für eine 1-GPU-Fiji aus? Oder 4 GB?Es wird ziemlich sicher eine 4GB-Version geben. Für das Top-Modell könnte man Hynix vielleicht die ersten 2GB-Stacks in einem temporären Exklusivdeal aus dem Kreuz leiern. Das werden wir sehen, wann die verfügbar sind.

Meine Bemerkung richtete sich eher gegen das 4+4=8GB Gequatsche, was außerhalb von speziellen Szenarien eher nicht passieren wird.

Dawn on Titan
2015-05-28, 18:02:14
Dx12 erlaubt das wenn es die Engine unterstützt.

Locuza
2015-05-28, 18:17:42
Ja, wenn.
Teilweise wird es leider als der zukünftige Standard propagiert.

mczak
2015-05-28, 18:30:22
Ist das FP16 Texturaufkommen heute wirklich so hoch, dass es einen signifikanten Unterschied macht, ob eine TMU loopen muss oder es Single Cycle schafft?
Ich hatte angenommen, dass FP16 Texturen noch eher selten sind?
Naja also HDR-Rendering ist ja in da wird häufig FP16 verwendet. Und je nach Rendering-Technik werden diese Puffer dann auch wieder als Textur verwendet (ob man da allerdings typischerweise auch Filtering braucht weiss ich nicht).
Aber allgemein gehe ich davon aus dass die schon auch verwendet werden, denn auch wenn ich den Nutzen bei gf11x/gk1xx bezweifle hat nvidia Fullspeed-fp16 TMUs sicher nicht einfach so zur Freude eingebaut, selbst wenn es relativ billig war. Könnte imho gut sein dass jedenfalls bei Maxwell der Nutzen dieses Features die Kosten übertrifft, das würde dann theoretisch wahrscheinlich auch für GCN gelten (das ALU/TMU Verhältnis ist ja identisch).

BlacKi
2015-05-28, 19:08:01
4+4Gb sind bei einer Splittung des Bildes in genau 2 Hälften "irgendwie" zusammen 8 GB, weil jede GPU mit 4 GB nur die Hälfte des Bildes berechnen muss :tongue: Also müssten 4 GB für einen halben Bildschrim ausreichen ;D

es gibt vieles im speicher eine grafikkarte was im betrieb einfach in beiden karten jeweils vorhanden sein muss. es ist doch logisch das zb. die texturen in beiden speichern also doppelt vorhanden sein muss!

daher ist 4gb+4gb=8gb ganz klipp und klar nicht möglich und somit eine lüge.

jetzt zu den problemen die ich mit afr sehe: es werden 2 bilder als 1 ausgegeben die zu unterschiedlichen zeiten berechnet werden. in der mitte des bildschirms wird wie beim tearing ein bildbruch wahrnehmbar sein bei bewegungen. statt microruckeln wie bei crossfire wird man bei afr so eine art tearing sehen...

Agent117
2015-05-28, 19:23:03
Der neue Modi trennt schon alles in der Engine über die neuen Möglichkeiten von DX 12 dazu. Da wird dann auch vermutlich direkt geregelt, welche GPU welche Texturen bekommt.
Wie aufwendig das dann zu programmieren ist weiß ich nicht.
Aber wenn man das sehr sauber hinbekommt, stimmen die 8Gb vlt schon.
Für Fiji wird das ganze aber zunächst mal keinerlei Relevanz haben. Vlt bei par Games in 2016.

Das mit dem Tearing würde ich auch nicht so eindeutig schreiben, sonst ist es am Ende auch eine "Lüge".
Das Bild wird dann ausgegeben, wenn beide GPUs es fertig berechnet haben.
Das ist auch heute schon so bei einer GPU. Das Bild wird unterteilt in die verschiedenen Shader Cluster und ausgegeben, wenn jedes der Cluster fertig sind. Bei manchen uralt Spielen kann man auf meiner 7870 die einzelnen Cluster auf dem Bildschirm erkennen.
Das Sheduling dazu, damit alles schön effizient läuft und gut gefüttert wird, macht alles der Treiber.

gedi
2015-05-28, 19:38:26
Ich denke hinter Fiji verbirgt sich so etwas in der Art "3dfx V5 5500".

Menace
2015-05-28, 19:44:03
Eine Frage an die Kenner bzgl. AMDs Slides zur DX12. Täusche ich mich oder versucht AMD alles in Richtung DX12 zu lenken um quasi ihre Rebrandings besser da stehen zu lassen (vielleicht auch zur Konkurrenz zu nvidia)? Wobei dann Juni als Release-Datum ja für Win 10 noch zu früh wäre. :confused:

Hübie
2015-05-28, 19:44:25
Das mit den Texturen ist halt die Frage. Afaik sind prozedurale FP16 und diese werden nicht sehr häufig angewandt (Wasser, Feuer,...?). Ich kenne mich da aber nun wirklich nicht aus um das beurteilen zu können. Weiterhin fällt auch der deutlich niedrigere Polygondurchsatz auf (auch hier weiß ich keine praxisbezogenen Zahlen an Tris/sec). Der hängt doch mit dem Raster-Setup zusammen oder welcher Teil ist dafür entscheidend?? Hawaii ROPs und das SI limitieren glaub ich nirgends (deutlich). Man sieht also dass AMD kein Problem bei den ALUs an sich hat sondern am drum herum. Das Frontend wurde ja mit den 8 Setup-Engines schon deutlich verbessert. Was fehlt ist wohl eine blockweise Verschaltung wie im SMM wo jeder einen dispatcher hat. Granularity scheint halt noch nicht den sweet spot mit Hawaii gefunden zu haben.

Bin also wirklich mega gespannt ob man hier aufholen konnte und vor allem ob es dann wirklich 4096 ALUs sind. Ich weiß nicht wie Sandra das ausliest aber nur darauf verlassen möchte ich mich nicht. Gibt clevere Programme die keine database updates benötigen um neue Arch auszulesen und dann gibt's halt CPU-Z und Co... :biggrin:

BlacKi
2015-05-28, 20:42:34
Der neue Modi trennt schon alles in der Engine über die neuen Möglichkeiten von DX 12 dazu. Da wird dann auch vermutlich direkt geregelt, welche GPU welche Texturen bekommt.
Wie aufwendig das dann zu programmieren ist weiß ich nicht.
Aber wenn man das sehr sauber hinbekommt, stimmen die 8Gb vlt schon.
Für Fiji wird das ganze aber zunächst mal keinerlei Relevanz haben. Vlt bei par Games in 2016.

Das mit dem Tearing würde ich auch nicht so eindeutig schreiben, sonst ist es am Ende auch eine "Lüge".
Das Bild wird dann ausgegeben, wenn beide GPUs es fertig berechnet haben.
Das ist auch heute schon so bei einer GPU. Das Bild wird unterteilt in die verschiedenen Shader Cluster und ausgegeben, wenn jedes der Cluster fertig sind. Bei manchen uralt Spielen kann man auf meiner 7870 die einzelnen Cluster auf dem Bildschirm erkennen.
Das Sheduling dazu, damit alles schön effizient läuft und gut gefüttert wird, macht alles der Treiber.

nein,
1. die grafikkarten erstellen ein oberes und ein unteres. wenn die untere schneller fertig ist, und 100% gleichschnell sind die karten nicht, dann wird das bild von einander abweichen.

2. gpu1 muss dasselbe darstellen können wie gpu2 also muss alles was dazu nötig ist auch doppelt im speicher sein. manche meinen wohl gpu1 kann auf den speicher der gpu2 schnell zugreifen. das ist nicht so möglich, dazwischen steht entweder die pcie brücke oder die pcie schnittstelle.

Unicous
2015-05-28, 20:44:11
Btw. Die M370X könnte entweder doch nicht Cape Verde sein, oder GCN 1.0 ist seit Neuestem doch OpenCl 2.0 fähig und compliant.

Re: OpenCL2.0 not available on Radeon R7 240
jtrudeau

I have definitely confirmed that the Radeon R7 240 does NOT support OpenCL 2.0.

OpenCL 2.0 requires GCN 1.1. The R7 260 is GCN 1.1

https://community.amd.com/thread/170187#1308671

(edit: btw. Lustig, dass ein AMD-Mitarbeiter zwischen den GCN-Versionen mit "x.x" unterscheidet.:freak:)

AMD 2014-12-24 OpenCL_2_0
Linux 2.6 64-bit with AMD Catalyst Omega driver running on:
- AMD Radeon HD 7790
- AMD Radeon HD 8770
- AMD Radeon HD 8500M/8600M/8700M/8800M/8900M Series
- AMD Radeon R5 M240
- AMD Radeon R7 200 Series
- AMD Radeon R9 290
- AMD Radeon R9 290X
- AMD FirePro W5100
- AMD FirePro W9100
- AMD FirePro S9150
https://www.khronos.org/conformance/adopters/conformant-products

edit:

The AMD OpenCL 2.0 driver is compatible with AMD graphics products based on GCN 1.1 Architecture or higher.
OpenCL 2.0 Treiber (http://support.amd.com/en-us/kb-articles/Pages/OpenCL2-Driver.aspx)

Nakai
2015-05-28, 21:07:16
Das ist ziemlich seltsam.

AMD Radeon HD 8700M(Oland) ~ AMD R7 240(Oland)
8700M (OpenCL2.0) != AMD R7 240 (OpenCL1.2)

Ich bin allgemein etwas unausgeglichen, was für eine Fehler mache ich?!:freak:

€: Oder Mars != Oland, aber der Chip sieht von den Specs ziemlich identisch aus.

InsaneDruid
2015-05-28, 21:14:29
nein,
1. die grafikkarten erstellen ein oberes und ein unteres. wenn die untere schneller fertig ist, und 100% gleichschnell sind die karten nicht, dann wird das bild von einander abweichen.

2. gpu1 muss dasselbe darstellen können wie gpu2 also muss alles was dazu nötig ist auch doppelt im speicher sein. manche meinen wohl gpu1 kann auf den speicher der gpu2 schnell zugreifen. das ist nicht so möglich, dazwischen steht entweder die pcie brücke oder die pcie schnittstelle.

die beiden karten werden mit sicherheit die daten des selben zeitstempels bekommen. egal welche von beiden schneller ist, sie wartet.

-/\-CruNcher-/\-
2015-05-28, 21:15:13
Sowas ist auch immer wieder klasse

- AMD Radeon R7 200 Series

die R7 240 gehört doch zur 200 Serie wird aber nicht supportet fehler von Khronos ?


sshin - I have reported the potential inaccuracy re R7 200 series to the webmaster and request to confirm accuracy, and if inaccurate, FIX IT!


Sowas ist immer wieder bescheiden aber zumindestens ein 3rd Party fehler und nicht Nvidia like wo das schonmal bedingt durch einen Praktikanten schief laufen kann und niemandem auffällt selbst mitten im Rampenlicht ;)

maguumo
2015-05-28, 22:30:29
1. die grafikkarten erstellen ein oberes und ein unteres. wenn die untere schneller fertig ist, und 100% gleichschnell sind die karten nicht, dann wird das bild von einander abweichen.
Das wäre SFR ohne Load Balancing. Soweit ich weiß kann man unter SFR einiges verstehen, man muss nicht zwangsläufig den Monitor in zwei Bereiche einteilen und jeder Grafikchip beackert unabhängig vom anderen einen davon.

In Civilization: Beyond Earth läuft SFR unter Mantle schon. Keinen Plan was da genau gemacht wird, aber es funktioniert. Kein Tearing, gute Frametimes (besser als unter AFR zumindest). Der VRAM wird dort übrigens nicht zusammengeschmissen.

del_4901
2015-05-28, 22:53:57
Meine Bemerkung richtete sich eher gegen das 4+4=8GB Gequatsche, was außerhalb von speziellen Szenarien eher nicht passieren wird.Kurzfristig warscheinlich nicht, langfristig aber schon moeglich.

horn 12
2015-05-28, 22:57:56
http://www.techpowerup.com/212947/amd-lights-up-broadway-with-times-squares-largest-high-definition-display.html

Fiji FireGL- Karte oder welche soll dies bitte sein?

Unicous
2015-05-28, 23:03:26
Ja, natürlich. Oder auch drei Firepro W9000 (Tahiti).:rolleyes:

Das ist schon seit Monaten bekannt.

Timbaloo
2015-05-28, 23:04:20
Naja, wenigstens ist damit HL3 confirmed.

r3ptil3
2015-05-28, 23:42:40
Naja, wenigstens ist damit HL3 confirmed.


Was habt ihr die ganze Zeit mit dem HL3 confirmed? Ich verstehe den Witz nicht.

Und ja, darauf warte ich seit langem.

Unicous
2015-05-28, 23:46:14
Was habt ihr die ganze Zeit mit dem HL3 confirmed? Ich verstehe den Witz nicht.

Und ja, darauf warte ich seit langem.

Hey Kleiner. Du musst jetzt tapfer sein. Ich muss dir etwas Wichtiges sagen.






Den Weihnachtsmann gibt es nicht und HL³ wird nie erscheinen.

r3ptil3
2015-05-28, 23:55:38
Hey Kleiner. Du musst jetzt tapfer sein. Ich muss dir etwas Wichtiges sagen.






Den Weihnachtsmann gibt es nicht und HL³ wird nie erscheinen.

Hey Grosser. Nein.

Nakai
2015-05-29, 00:32:23
Hey Kleiner. Du musst jetzt tapfer sein. Ich muss dir etwas Wichtiges sagen.

Den Weihnachtsmann gibt es nicht und HL³ wird nie erscheinen.

*hust*
https://www.youtube.com/watch?v=IFAtCecCZcY#t=3m55s
Keine Sprüche klauen.^^ ;)

Fiji wird erst als 4GB-Version erscheinen und später vll mit 8GB, wie Gipsel schon gesagt hat, wenn SKHynix 4Gb Dies anbietet. Der Interposer von Fiji wird nicht genug Platz für 8 Stacks haben, um Spielereien wie "Dual-Link" zu ermöglichen, auch wenn Fijis PHYs und MCs ein dynamischeres HBM-Controlling ermöglichen sollte. Außerdem müssen die Stacks dafür ausgelegt sein(jeder Channel sollte mindestens einen zweiten Speicherbereich ansprechen können). Ob es schon soetwas in SKHynix HBM-Implementierung gibt, kA. 4GB here ist comes.

horn 12
2015-05-29, 00:35:37
Das Bild lässt bitte folgende Schlüsse zu:

http://www.techpowerup.com/212947/amd-lights-up-broadway-with-times-squares-largest-high-definition-display.html

Beleuchtete Schriftzug zur Blende hin, also dort wo nun bei den AMD/ NV Karten die Luftaustritt Schlitze sind
Schriftzug von Hinten lesbar, gabs in dieser Version noch nie!

Zudem schient die Karte echt KEINE 2 Slots breit zu sein
eher nur "magere" 1,5 Slot Version.
An der anderen Stelle soll wohl der AIO Kühler dargestellt werden, und dieser fällt auch recht klein aus!

Wer kann bitte ein Besseres Bild erhaschen und mit dem Zoom-Faktor das Wesentliche vergrößern!
Schaut schon recht geil aus, zumindest optisch!

Das extreme NDA zwecks Fiji und AMD Ruft zur "Besinnung" seitens der BoardPartner auf:
Ist der Fiji XT / AIO Launch wirklich erst zur E3 Messe, (wurde laut Datum bestätigt)
und man bringt die Karte echt nur mit 4GB HMB hat man etwas Abstand von der GTX 980TI bereits genommen.
ansonsten bei fast zeitgleichem Launch würde die Fiji Karte wohl zerrissen werden.
Zudem die extrem Strenge Geheimhaltung zwecks der Board-Partner tud ihr Übriges hinzu :-(
So scheint es echt auf die "Mageren" nur 4GB HBM Speicher hinauszulaufen.

Wäre man schneller, (Sorry, dies kann man ja auch sein) ABER hätte mehr HBM SpeicherRam verbaut, sollte es AMD eine GenugTuung sein, die GTX 980TI vor Allem dort anzugreifen!
Dass der unteres Schriftzug auf dem Kopf steht kann auch so gewollt sein...

http://abload.de/img/fijiradeon3ko92.jpg (http://abload.de/image.php?img=fijiradeon3ko92.jpg)

maguumo
2015-05-29, 00:40:59
Du hast da beim zurechtschneiden was falsch rum gedreht... Und der nichtleuchtende Radeon Schriftzug ist der der parallel zum Slotblech verläuft falls du das gerade vertauscht hast.

iuno
2015-05-29, 01:41:39
Ja, natürlich. Oder auch drei Firepro W9000 (Tahiti).:rolleyes:

Das ist schon seit Monaten bekannt.
Ich glaube es ging ihm nicht um die Karten, die die Displays füttern, sondern um das Bild und das ist mMn eindeutig die Fiji Karte die wieder geteast wird.

Wer kann bitte ein Besseres Bild erhaschen und mit dem Zoom-Faktor das Wesentliche vergrößern!

http://www.trainghiemso.com/wp-content/uploads/2015/05/AMD-2.jpg
Quelle (http://www.trainghiemso.com/lo-man-hinh-trinh-chieu-co-lon-cua-amd-tai-quang-truong-thoi-dai/)



Zudem schient die Karte echt KEINE 2 Slots breit zu sein
eher nur "magere" 1,5 Slot Version.
An der anderen Stelle soll wohl der AIO Kühler dargestellt werden, und dieser fällt auch recht klein aus!
1,5 ist aber auch untertrieben ;) Und es ist ein Rendering, kein Foto
Was meinst du mit dem Kühler?



schon etwas älter aber
Das ist die WaKü-Edition, ich wäre enttäuscht wenn die nicht 2x8Pin hätte, zumal man dafür nicht mal ein zusätzliches Kabel verlegen muss.
Man sieht doch auf dem Bild die 2x8 Pin Anschlüsse

Agent117
2015-05-29, 01:48:44
nein,
1. die grafikkarten erstellen ein oberes und ein unteres. wenn die untere schneller fertig ist, und 100% gleichschnell sind die karten nicht, dann wird das bild von einander abweichen.

2. gpu1 muss dasselbe darstellen können wie gpu2 also muss alles was dazu nötig ist auch doppelt im speicher sein. manche meinen wohl gpu1 kann auf den speicher der gpu2 schnell zugreifen. das ist nicht so möglich, dazwischen steht entweder die pcie brücke oder die pcie schnittstelle.

zu 1. Das ist doch viel zu einfach gedacht und wenn es so wäre, wäre der neue Modus völlig sinnlos! Wie wird denn bei einer einzelnen GPU ein Bild fertig generiert und ausgegeben?

zu 2. Nein, es wird in der Engine bereits beim Programmieren des Spiels festgelegt, was GPU 1 und was GPU 2 berechnen und darstellen muss. GPU 1 braucht von GPU 2 nix.

Du beschreibst eher den bisherigen AFR-Modus

Es wird im neuen Modus zum Einen das Bild wie bei einer einzelnen GPU generiert; gleichzeitig wird aber dafür gesorgt, dass eine GPU nur aus ihrem Speicher laden muss.

Vorteile sind keine Mikroruckler und effizientere Speichernutzung.
Als Nachteil steht die Frage im Raum, wieviele Studios das unterstützen werden.

Unicous
2015-05-29, 01:54:06
@iuno

Er verlinkt einen Artikel indem es um FirePro Karten geht. Er fragt nach Fiji "Fire GL".:rolleyes: Den Markennamen gibt es seit 8? Jahren nicht mehr.
Die Werbung steht überhaupt nicht im Fokus des Artikels, sondern dass die Werbewand von FirePros befeuert werden.

Wie soll man bei dem Quark den er hier postet noch unterscheiden zwischen echten Fragen und Spam?

Natürlich ist es keine FireGL, geschweige denn eine FirePro sondern eine Werbung für Fiji Retail. (e: Zumal auf einer FirePro sicherlich nicht Radeon draufstehen würde:freak:)

iuno
2015-05-29, 03:33:31
Das ist mir schon klar... horn hat wohl nur das Bild gesehen und Fire gelesen, dann sind die Gefühle wieder übergeschwappt :P nichtsdestotrotz fand ich das ein nettes Bild

Unicous
2015-05-29, 03:39:08
Ja, nett. AMD hat das Konzept der Werbung und des Marketings entdeckt ( *Civ1 Wissenschaftliche Entdeckungsfanfare ertönt*).

Es war wahrscheinlich nach 10 Sekunden wieder aus ihren und den Gedächtnissen der Passanten verschwunden.:weg:

Digidi
2015-05-29, 05:15:40
Ich habe eine Vermutung. Auch wenn die neuen Karten auf Haweii setzen wird man vielleicht die DP Leistung freigeben. (DP Leistung dann wie die FirePro Modelle) Das würde auch zum Auftritt bei E3 passen. Die spielehersteller die mit AMD presentieren haben ja angedeutet das DP Leistung immer wichtiger wird. Siehe Star Citizen!

Dawn on Titan
2015-05-29, 07:04:02
Revolution - das Ding wird so fett.

Kartenlehrling
2015-05-29, 08:00:06
Viel Wichtiger als die Hardware würde ich gern wissen was sie uns als Features mitgeben,
auf ihre DX12 Folie schreiben sie ja von einem "more Features TBA".

Ich tippe ja auf einen verbesserte EQAA , sowie Nvidias AGAA. (https://www.youtube.com/watch?v=BAjUBBy-aC4) und was können sie uns noch bieten?

robbitop
2015-05-29, 08:47:35
Oder auch einfach die Implementierung und das drum-herum.
Zeigt man ja auch schon bei Carrizo, wie viel ein anderer metal-stack und ausgewählte Transistoren-Typen ausmachen können.
Und die Verwaltung von Energie, was ich jetzt mal unabhängig einer konkreten µ-Arch ansehe.

OK wir meinen also das gleiche. Bei Maxwell kommt sicherlich auch so einiges aus der Implementierung.


Dann würde ich aber nicht von neuen oder besseren Rechenwerken sprechen, wenn die im Prinzip nicht das Problem darstellen. :)

Ich habe mir diese PDF nicht durchgelesen, da gibt es vielleicht etwas für zukünftige GPUs:
http://research.cs.wisc.edu/multifacet/papers/isca14-channels.pdf

Jedenfalls ins Auge gefallen ist mir der Abschnitt mit dem Aggregator.
Da haben sie den Command-Processor der GPU praktisch mit verschiedenen CPU-Implementierungen ersetzt. (Seite 10)
Vielleicht sehen wir bei AMDs FinFET GPUs einen größeren Umbau am Front-End, was den Command-Processor und das Sheduling anbelangt.

Ja da hast du Recht - am Ende meinen wir beide das gleiche - ich habe mich nur nicht sauber ausgedrückt. Die ALUs selbst sind ja wirklich selten der Bottleneck. Das ist klar. Ich meinte wirklich das drum herum.

Aber stimmt das? Auf dem Papier hat die 280X 25% mehr Shaderleistung als die 285, liegt in Tests aber nur etwa 15% vorn. In manchen neueren Titeln liegt Tonga PRO sogar mit Tahiti XT gleichauf, oder überholt letzteren gar (z.B. The Witcher 3). Manchmal mangelt es der 285 aber auch einfach nur an Bandbreite/Speicher, das sollte ja wohl bei Fiji kein Problem darstellen. Das Problem ist ja, dass es mMn keine sehr ausführlichen Tests gibt (was auch an der mangelnden XT Karte liegen mag) und die Werte stark auseinander gehen. Je nach Test kann die 285 mal 20, mal 50 Watt weniger brauchen als die 280. :rolleyes: Zur 280X fällt der Abstand natürlich umso größer aus. Soll das alles am Speicher/SI liegen?
Was ist bei dir signifikant? IMHO ist Tonga schon signifikant effizienter als Tahiti, ob das auch auf Hawaii zutrifft, ist aber wieder eine andere Frage.

Gibt es eigentlich schon Infos zu möglichen neuen Spielebundles?
Tahiti hat ein schmaleres Front-End und weniger ACEs. Insofern ist Tonga schon effizienter. Aber nur durch Öffnung von 2x Nicht-ALU bedingten Flaschenhälsen. Ansonsten ist der Fertigungsprozess ja auch nicht unerheblich gereift - dadurch kann Tonga auch weniger verbrauchen.

Klar sowas kann und wird Fijii auch mitnehmen können. Auch weitere Verbrauchseinsparung durch HBM. Aber der reine Durchsatz pro ALU steigt/stieg nicht signifikant. Es wurden nur andere Bottlenecks etwas geöffnet.

Sobald aber das Back-End zum Bottleneck wird, liegt Tonga ggü Tahiti in etwa da wo er hingehört. Das ist ja bei Maxwell ggü Kepler völlig anders.

robbitop
2015-05-29, 08:58:30
Naja also HDR-Rendering ist ja in da wird häufig FP16 verwendet. Und je nach Rendering-Technik werden diese Puffer dann auch wieder als Textur verwendet (ob man da allerdings typischerweise auch Filtering braucht weiss ich nicht).
Aber allgemein gehe ich davon aus dass die schon auch verwendet werden, denn auch wenn ich den Nutzen bei gf11x/gk1xx bezweifle hat nvidia Fullspeed-fp16 TMUs sicher nicht einfach so zur Freude eingebaut, selbst wenn es relativ billig war. Könnte imho gut sein dass jedenfalls bei Maxwell der Nutzen dieses Features die Kosten übertrifft, das würde dann theoretisch wahrscheinlich auch für GCN gelten (das ALU/TMU Verhältnis ist ja identisch).
Also zumindest zu R600 Zeiten war es so, dass HDR mit dem FP16 Framebufferformat in Spielen dennoch INT Texturformate genutzt hat. Da gab es für die TMUs noch keine FP16 Texturen. Die FP16 TMUs haben in damaligen Spielen selbst mit HDR nichts gebracht. Die hohe Bandbreite hingegen schon.

Insofern wäre es interessant zu wissen, wie es heute aussieht.

Haben FP16 TMUs vielleicht einen Zusammenhang mit Full Precision Compute?

Coda
2015-05-29, 09:06:20
Dx12 erlaubt das wenn es die Engine unterstützt.
Nein.

robbitop
2015-05-29, 09:06:57
Kurzfristig warscheinlich nicht, langfristig aber schon moeglich.

Nur wer macht sich die Mühe für einen Nischenmarkt?
PC Sales sind wo? 1/4 vom Konsolenumsatz? Davon wollen 1/20? der User mGPU machen? Also 1% der Spieler.

Ich wäre sofort dabei, wenn soziemlich jedes Spiel das so transparent unterstützt. Aber man muss realistisch bleiben.

AFR funktioniert nur, weil die IHVs noch ordentlich drücken und notfalls per Treiber nachimplementieren und weil der Aufwand noch absehbar ist. (wobei das wenn ich euch richtig verstehe auch immer schlimmer wird)

Damit sich hier jedes Studio die Mühe macht, muss der Marktanteil von mGPU Usern höher sein.

Solange es keine transparente Lösung in HW gibt, sehe ich nicht unbedingt bessere Zeiten für mGPU User.

Dawn on Titan
2015-05-29, 09:18:39
Nein.

http://www.3dcenter.org/abbildung/directx-12-explicit-multiadapter-rendering-combined-memory-pools

robbitop
2015-05-29, 09:23:08
Viel Wichtiger als die Hardware würde ich gern wissen was sie uns als Features mitgeben,
auf ihre DX12 Folie schreiben sie ja von einem "more Features TBA".

Ich tippe ja auf einen verbesserte EQAA , sowie Nvidias AGAA. (https://www.youtube.com/watch?v=BAjUBBy-aC4) und was können sie uns noch bieten?


AGAA wird analog zu TXAA von der Applikation unterstützt werden müssen. Ich tippe auch fast wieder darauf, dass es wieder propertärer Gameworks Kram wird, der nur auf NV Karten läuft (wie TXAA), obwohl es auch auf allen anderen modernen GPUs laufen würde. Die Ergebnisse aus der Techdemo und dem Whitepaper waren aber vielversprechend.

EQAA ist ja im Prinzip das gleiche wie NVs CSAA. Also nur eine Ergänzung von MSAA. Und das ist im Zeitalter der DR-Engines sowieso ziemlich mittelmäßig.
Kostet sehr viel und oftmals greift es kaum. Daran ändert EQAA leider auch nichts.

Coda
2015-05-29, 09:29:20
http://www.3dcenter.org/abbildung/directx-12-explicit-multiadapter-rendering-combined-memory-pools
Schön. Trotzdem nein.

Texturen müssen auf beiden Karten vorgehalten werden, da hilft auch DX12 nichts. Manche Rendertargets kann man halbieren, das macht aus 4+4 aber noch lange nicht 8.

Im Übrigen hab ich jetzt schon keinen Bock auf Multi-GPU und mit DX12 wird der Aufwand noch höher. Ich hab die dickköpfige Meinung, dass man da keine Minute an Programmierzeit dafür investieren sollte für die paar Hansel. Die kann man in andere Optimierungen stecken, die allen helfen.

derF
2015-05-29, 09:30:40
Revolution - das Ding wird so fett.
Streng doch wenigstens deine Kreativität ein bisschen an und trolle nicht immer nur mit nem halben Satz. So macht das keinen Spaß.

mironicus
2015-05-29, 09:55:18
Der einfachste Ansatz wäre eine einzelne GPU zu emulieren und die Hardware übernimmt die Verteilung der Lasten und das wäre dann unabhängig von der Software.

Dazu müsste man 2 GPUs auf einem Interposer bauen mitsamt HBM-Speicher. :)

Dawn on Titan
2015-05-29, 10:55:44
Schön. Trotzdem nein.

Texturen müssen auf beiden Karten vorgehalten werden, da hilft auch DX12 nichts. Manche Rendertargets kann man halbieren, das macht aus 4+4 aber noch lange nicht 8.

Im Übrigen hab ich jetzt schon keinen Bock auf Multi-GPU und mit DX12 wird der Aufwand noch höher. Ich hab die dickköpfige Meinung, dass man da keine Minute an Programmierzeit dafür investieren sollte für die paar Hansel. Die kann man in andere Optimierungen stecken, die allen helfen.

Die Praxisrelevanz für 3D Spiele sehe ich auch nicht. Wenn man von den Konsolen als Lead ausgeht, dann wird es sich kaum darstellen lassen für die minimale Menge der Multi-GPU User so viel Aufwand zu treiben.

Trotzdem finde ich, dass die Folie viel über Fiji verrät.

Coda
2015-05-29, 10:56:52
Welche Folie?

Dawn on Titan
2015-05-29, 10:58:31
Die combined Memorypools Folie von AMD. "4+4=8"

del_4901
2015-05-29, 11:01:10
Schön. Trotzdem nein.

Texturen müssen auf beiden Karten vorgehalten werden, da hilft auch DX12 nichts. Manche Rendertargets kann man halbieren, das macht aus 4+4 aber noch lange nicht 8.

Im Übrigen hab ich jetzt schon keinen Bock auf Multi-GPU und mit DX12 wird der Aufwand noch höher. Ich hab die dickköpfige Meinung, dass man da keine Minute an Programmierzeit dafür investieren sollte für die paar Hansel. Die kann man in andere Optimierungen stecken, die allen helfen.
Man muss eh multiple Queues verwalten. Mit multiple Devices verhaelt es sich nicht anders, nur dass jetzt eben noch Latency fuer den Transfer mit dazu kommt.

Thunder99
2015-05-29, 11:31:03
Erklärt mir bitte mal wenn Fiji 45% mehr Einheiten hat wie dieser Titan X schlagen soll (welcher + 60/70% vor Hawaii liegt).
Da müsste ja enorme Verbesserung der Auslastung der Einheiten vorherrschen :confused:

moonraker
2015-05-29, 11:43:56
Wieso gehst du von 60-70% schneller als 290x aus?

Sieh dir bitte den Test an:

http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/2/#abschnitt_leistungsratings_spiele

Vergleiche mit der 290X OC, das ist ein normales Custom Modell mit ganz leichtem OC ( ich glaub 30MHz)

Du wirst keine 60% finden..

dargo
2015-05-29, 11:47:36
Erklärt mir bitte mal wenn Fiji 45% mehr Einheiten hat wie dieser Titan X schlagen soll (welcher + 60/70% vor Hawaii liegt).
Da müsste ja enorme Verbesserung der Auslastung der Einheiten vorherrschen :confused:
Zum x-ten Mal... Fiji ist kein breiterer Hawaii!

HOT
2015-05-29, 11:49:01
Zudem sollte man den neuen Treiber abwarten, der ja offenbar doch starke Verbesserungen mit sich bringen wird. Ich nehme an, dass dieser auch der Grund für das Comdex-Verbot von AMD ist. Die brauchen die zwei Wochen Feinschliff noch.

robbitop
2015-05-29, 11:49:35
Dazu müsste man 2 GPUs auf einem Interposer bauen mitsamt HBM-Speicher. :)
HBM ist dafür nicht erforderlich.
Interposer sind als Halbleiter leider auch Größenlimitiert. Wirklich große GPUs passen da zu zweit auch nicht so einfach drauf. Die müssten sich dann noch mit dem HBM schlagen.

Zum x-ten Mal... Fiji ist kein breiterer Hawaii!
Sondern eher ein breiterer Tonga mit HBM. Aber so viel hat sich zwischen GCN 1.1 und 1.2 auch nicht getan...

mironicus
2015-05-29, 12:00:12
AMD hatte genug Zeit um zu optimieren.

Bin mal gespannt wie schnell Fiji in Project Cars wird... kann sie die GTX 780 schlagen...? :D :D :D

Wie scheiße muss man eigentlich programmieren können um das Spiel so langsam auf der Konkurrenzhardware laufen zu lassen? Oder wie perfide programmiert um es dermaßen auszubremsen...

Nightspider
2015-05-29, 12:06:02
Silizium-Interposer sind als Halbleiter leider auch Größenlimitiert.

fixed ;)

Wobei die Strukturen im Interposer verglichen mit Transistoren riesig sind und es deswegen sicherlich nicht so schwer wäre die Größe (mittelfristig?) nach oben zu schrauben.

Coda
2015-05-29, 12:43:20
Man muss eh multiple Queues verwalten. Mit multiple Devices verhaelt es sich nicht anders, nur dass jetzt eben noch Latency fuer den Transfer mit dazu kommt.
Es spielt keine Rolle was man muss, es ist vergeudete Zeit.

Ich respektiere da andere Meinungen, aber das ist halt meine.

Raff
2015-05-29, 12:53:37
Erklärt mir bitte mal wenn Fiji 45% mehr Einheiten hat wie dieser Titan X schlagen soll (welcher + 60/70% vor Hawaii liegt).
Da müsste ja enorme Verbesserung der Auslastung der Einheiten vorherrschen :confused:

Okay, das ist dann doch etwas übertrieben. GM200-400 liegt im Mittel (Querschnitt durch "alles" in mehreren Auflösungen) 40 bis 50 Prozent vor Hawaii XT "Uber". 60 bis 70 Prozent sind noch Einzelfälle, aber vornehmlich ein paar neue Spiele. Hier ist in Sachen Treiber aber noch viel offen.

MfG,
Raff

Unicous
2015-05-29, 13:18:58
Extra für horn12

https://qx2m9a.bn1304.livefilestore.com/y2poUY_rMT039MYJ2rlSZ_TQPKvyAi9v4nLGOn9US7RcYcClGoS80nBMIQrpLbCmGGG0cpSFMuoJOBMj jcg7HgNW6qUfYxuKbo3GnEM7aYqoRBDK-403rJSUWUZ6Lgt88mbe1OJ2NaDi74MXR1lZz-FrHqHgWVcHRg3IkPkhg5hRrk/TimeSquare_1060112_2_Retouched.jpg



Der Render sieht aber ganz schön scheiße aus?

M4xw0lf
2015-05-29, 13:20:36
Extra für horn12

https://qx2m9a.bn1304.livefilestore.com/y2poUY_rMT039MYJ2rlSZ_TQPKvyAi9v4nLGOn9US7RcYcClGoS80nBMIQrpLbCmGGG0cpSFMuoJOBMj jcg7HgNW6qUfYxuKbo3GnEM7aYqoRBDK-403rJSUWUZ6Lgt88mbe1OJ2NaDi74MXR1lZz-FrHqHgWVcHRg3IkPkhg5hRrk/TimeSquare_1060112_2_Retouched.jpg



Der Render sieht aber ganz schön scheiße aus?
Wenn das ein Fiji-Package ist, dann kommt das Ding offenbar ganz ohne Speicher. :ulol:

Skysnake
2015-05-29, 13:54:33
HBM ist dafür nicht erforderlich.
Interposer sind als Halbleiter leider auch Größenlimitiert. Wirklich große GPUs passen da zu zweit auch nicht so einfach drauf. Die müssten sich dann noch mit dem HBM schlagen.


Sondern eher ein breiterer Tonga mit HBM. Aber so viel hat sich zwischen GCN 1.1 und 1.2 auch nicht getan...
Nicht wirklich ;)

Man kann heute auch schon Chips aus ganzen Wafern basteln ;)

Ist halt aktuell nur noch kein 0815 Verfahren.

Unicous
2015-05-29, 14:12:08
Wie Gipsel doch schon anmerkte liegt es daran, dass die Belichter dafür nicht ausgelegt sind und die Interposer in einem Standardprozess in einer "Standard Fab" gefertigt werden. Sobald man den Prozess angepasst hat und nicht nur die normalen Fertigungsstraßen nutzt kann man den Interposer beliebig groß (in den Grenzen eines 200/300/450;) mm Wafers) fertigen. Der Interposer ist doch eh nicht das Problem. Die tausenden micro bumps aufzubringen und dann alles zusammenzuführen stellen die weitaus größere Hürde dar.

Hübie
2015-05-29, 14:15:35
Zu mal man das splitten könnte. Interposer für IMC und dann einen für "Hyperlink samt Command Processor Logic" zwischen den beiden. Aber das ist alles Spielkram. Seit ich von mGPU weg bin betrachte ich dass nüchtern und Frage mich was mich da 10 Jahre geritten hat :freak:

Irgendwo hatte ich mal eine Studie gesehen wo zwei Chips "Rücken an Rücken" verbaut waren. Kennt das zufällig jemand und weiß noch welche Chips das genau waren? RSX oder so... :confused: War auch nur Machbarkeitsstudie, dennoch interessant.

@Unicous: AMD verwendet glaub ich einen von UMC welche schon diverse Aufträge dieser Art erledigt haben. Die scheinen also schon Expertise zu haben. Weiß gar nicht ob TSMC / GloFo / IBM / Samsung sowas schon mal machten. Eigentlich freu ich mich nur deshalb so derbe auf Fiji weil viele neue Spielereien verbaut sind X-D Technisch also hochinteressant (für mich zumindest). AMD scheint wieder mal Pionierarbeit übernehmen zu wollen. Hoffentlich ists das richtige.

Thunder99
2015-05-29, 14:30:49
In wie weit kann man das SFR mit dem SFR von 3DFX vergleichen? Damals hatte sich ja die Grafikkarte als eine ausgegeben

Unicous
2015-05-29, 14:32:42
@Hübie

Hatte ich ja hier schon angemerkt, dass sie UMC nutzen und nicht GF.;D

Ändert aber nichts an der Tatsache, dass der Prozess nur leicht umgemodelt wurde um einen Klumpen:wink: Silizium zu belichten. Ich weiß jetzt leider nicht wo genau ich es gelesen oder aus welchem Munde ich es gehört habe, aber man geht davon aus, sobald Interposer im Mainstream angelangt sind (wenn sie denn solange überleben, eigentlich ist ja 3D the place to be) es einen abgestimmten Prozess samt getrennter Produktionsstraße gibt. Momentan wird wohl nur die Interposer-Produktion zwischendurch reingeschoben, afaik.

fondness
2015-05-29, 14:41:44
Fiji wird angeblich unter dem Radeon Fury-Label verkauft:
http://www.expreview.com/40812.html

Die X2 heißt dann wohl Radeon Fury MAXX :)

Wem das bekannt vorkommt:

http://s22.postimg.org/mq3caprsh/HPIM0274.jpg (http://postimage.org/)

Pick
2015-05-29, 14:44:26
http://abload.de/img/knzvav2r1zy3qal.jpg

Botcruscher
2015-05-29, 14:52:37
Mit der Marke knüpft man an die Tradition der Treibergurke an. Gab es nichts schöneres?

PS: Rage hätten sie als Zustandsbeschreibung für die Käufer auch gleich lassen können.

M4xw0lf
2015-05-29, 14:53:35
Radeon Fury. Doch, klingt nicht mal so übel. Genehmigt.

Hübie
2015-05-29, 14:57:50
Na endlich mal handfestes Material. Auch wenn Namen nur Schall und Rauch sind, deutet dies doch darauf hin dass wir nicht mehr allzu lange auf die Folter gespannt werden =)

Locuza
2015-05-29, 15:00:01
Radeon Fury. Doch, klingt nicht mal so übel. Genehmigt.
Das war so eine Sache, wo ich dachte, der Name wird wohl leider uncool ausfallen.
Titan hört sich mächtig und eingängig ein.
Fury begeistert mich jetzt nicht.

DinosaurusRex
2015-05-29, 15:01:05
Hui nicht schlecht. Haben die bei AMD jetzt 'ne Kaffeemaschine in der Marketing-Etage?

Das war so eine Sache, wo ich dachte, der Name wird wohl leider uncool ausfallen.
Titan hört sich mächtig und eingängig ein.
Fury begeistert mich jetzt nicht.

Ich finds ganz gut. Fury ist weiblich konnotiert und kann daher wunderbar mit dem "sex sells"-Prinzip an den Mann gebracht werden.

Menace
2015-05-29, 15:03:20
Eine "Furie" ist etwas hitzköpfiges. Ich kann mir die Wortspiele für die AMD-Karte schon vorstellen. :freak:

Locuza
2015-05-29, 15:03:33
Ich finds ganz gut. Fury ist weiblich konnotiert und kann daher wunderbar mit dem "sex sells"-Prinzip an den Mann gebracht werden.
Wenn es dann aber Treiber-Zicken gibt, könnte ich auch meinen eine dumme Zicke gekauft zu haben. :redface:

Botcruscher
2015-05-29, 15:03:41
Hui nicht schlecht. Haben die bei AMD jetzt 'ne Kaffeemaschine in der Marketing-Etage?
Das muss dann aber schlechter Kaffee aus der Restekiste sein. Die Marke RADEON wurde eingeführt weil Rage (Fury) total ausgebrannt war.

DinosaurusRex
2015-05-29, 15:06:15
Die Marke RADEON wurde eingeführt weil Rage (Fury) total ausgebrannt war.

Rage ist doch auch totaler Blödsinn. Das schwingt viel zu viel Negativität mit.

Wenn es dann aber Treiber-Zicken gibt, könnte ich auch meinen eine dumme Zicke gekauft zu haben. :redface:

Selbst wenn, das ist gar nicht so schlimm. Da schwingen Emotionen mit. Titan ist dagegen ja eher unpersönlich und fällt leicht dem "Schwanzersatz"-Argument zum Opfer, das bei derartigen Premiumprodukten nur allzu gern in die Runde geworfen wird.

fondness
2015-05-29, 15:07:31
Furie, Bedeutung: "rasende, wütende, Furcht und Schrecken verbreitende Rachegöttin"
http://www.duden.de/rechtschreibung/Furie#Bedeutung1


They may be titans, but we are GODS....

N0Thing
2015-05-29, 15:10:15
Ich hoffe nicht, dass da war dran ist. Mit der Marke verbinde ich weder etwas fortschrittliches noch etwas schnelles.
Zeus hätte sich mal abgesehen von der griechischen Finanzkriese deutlich besser geeignet und falls das nicht eigenständig genug gewesen wäre, dann eben was ganz Neues. Aber alten Kaffee neu aufwärmen, ohne das dieser Kaffee eine große Strahlkraft hat? Bin nicht überzeugt.

Flusher
2015-05-29, 15:11:35
Fiji wird angeblich unter dem Radeon Fury-Label verkauft:
http://www.expreview.com/40812.html

Die X2 heißt dann wohl Radeon Fury MAXX :)

Wem das bekannt vorkommt:

http://s22.postimg.org/mq3caprsh/HPIM0274.jpg (http://postimage.org/)

Und in der ecke der Verpackung steht “the most graphic memory on a 3D accelerator " ;D

Raspo
2015-05-29, 15:14:03
Naja, hätte schlimmer kommen können (Radeon FX).
Ist okay, aber die Steilvorlage mit Zeus, die hätte ich doch verwandelt.

Fury kann man wohl u. a. auch mit Rachegöttin beschreiben, ja okay.

Edit:
Fondness war schneller.

SchinkenSpicker
2015-05-29, 15:16:17
Zeus oder Rage hätte ich besser gefunden. Bei Fury denke ich an Furrys ... :freak:

Botcruscher
2015-05-29, 15:17:24
Und in der ecke der Verpackung steht “the most graphic memory on a 3D accelerator " ;D

32MB +32MB = 64MB.

GF/TNT2 hatten nur 32. Die Ironie bei Fiji wird immer besser.;D

N0Thing
2015-05-29, 15:17:49
Es gibt ja noch die mythologischen Furien: https://de.wikipedia.org/wiki/Erinnyen

Aber als Gegenpol zu den Titanen passen die auch nicht, eher als Nachfolger. Mal sehen ob AMD in diese Richtung mit dem Marketing will, oder ob es beim aufwärmen der alten Marke bleibt.

Locuza
2015-05-29, 15:19:09
Selbst wenn, das ist gar nicht so schlimm. Da schwingen Emotionen mit. Titan ist dagegen ja eher unpersönlich und fällt leicht dem "Schwanzersatz"-Argument zum Opfer, das bei derartigen Premiumprodukten nur allzu gern in die Runde geworfen wird.
Mit Titan verbinde ich einfach ein festes Metall, einen Koloss, etwas Mächtiges.
Eine Furie klingt jetzt nicht persönlicher auf mich.
Und "sex sells" wäre am Ende das gleiche.
Weil beides geht auf den Schwanz.

Das Bild finde ich aber cool:
http://abload.de/img/knzvav2r1zy3qal.jpg

Welches allerdings fanmade aussieht.

Botcruscher
2015-05-29, 15:20:19
Welches allerdings fanmade aussieht.
Die Rechte erinnert mich irgendwie an MR Bean. :freak:

Und die Linke hat Oberarme wie Arnie als Überzeugungssingel.

Seth
2015-05-29, 15:21:38
Von mir aus kann das Ding AMD Grafikkarte 2015-1 heißen, wen interessiert denn wirklich der Name? :freak:

Auf Facebook nutzt AMD übrigens das Hashtag #AMD300‬ zu dem Teaser Bild der Grafikkarte.

Ich denke bei Fury übrigens an ein Pferd. ;D

Timbaloo
2015-05-29, 15:22:55
Von mir aus kann das Ding AMD Grafikkarte 2015-1 heißen, wen interessiert denn wirklich der Name? :freak:
Ich bin hier auch grad kopfschüttelnd unterwegs...

DinosaurusRex
2015-05-29, 15:23:32
Mit Titan verbinde ich einfach ein festes Metall, einen Koloss, etwas Mächtiges.
Eine Furie klingt jetzt nicht persönlicher auf mich.
Und "sex sells" wäre am Ende das gleiche.
Weil beides geht auf den Schwanz.


Eine Furie will gebändigt werden. Einen Titan brauchst du, wenn du selber viel zu schwach bist. Es geht also genau in die gegenteilige Richtung. ;)

Von mir aus kann das Ding AMD Grafikkarte 2015-1 heißen, wen interessiert denn wirklich der Name? :freak:


Ne gute Handelsmarke ist von allerhöchster Bedeutung für den Erfolg eines Produktes. Unterschätz das nicht.

Locuza
2015-05-29, 15:24:49
Von mir aus kann das Ding AMD Grafikkarte 2015-1 heißen, wen interessiert denn wirklich der Name? :freak:

Der Name ist teilweise schon wichtig.
Je nachdem kann man leicht negative Witze vom Branding ableiten oder natürlich auch positive.
Damit verbindet dann eine Käuferschicht Emotionen und die Kultur darum.
Auch bei Präsentationen ist es natürlich nicht schlecht, "gute" Namen nennen zu können.

Sollte natürlich einfach cool klingen.
Da mag ich z.B. das Xeon Branding von Intel sehr.
Opteron finde ich dagegen unattraktiv.

aufkrawall
2015-05-29, 15:28:10
Fury muss erstmal nichts direkt mit Mythology zu tun haben:
http://www.dict.cc/?s=fury

Ich finds cool. Nichts handzahmes oder angeberisches.
Titan bei NV bezeugt einfach nur den Größenwahn.

Unicous
2015-05-29, 15:30:20
Leute, da hat jemand Fury/ies bei Google eingegeben

dieses Foto gefunden

http://img2.wikia.nocookie.net/__cb20110201211932/villains/images/e/e4/Furies.jpg

es rot eingefärbt, ein bißchen geshopped dann Fury hingeschrieben, fertig.


Ob sie es Fury nennen, wird sich noch herausstellen. Aber das hier die Herren schon wieder reihenweise feuchte Höschen bekommen ist mal wieder bezeichnend:usex:


btw. Zeus als King of the Hill, bzw. des Olymps der die Titanen besiegt wäre der eindeutig passendere Name gewesen, wenn auch nicht der Bessere.:P

DinosaurusRex
2015-05-29, 15:33:49
Leute, da hat jemand Fury/ies bei Google eingegeben

dieses Foto gefunden

http://img2.wikia.nocookie.net/__cb20110201211932/villains/images/e/e4/Furies.jpg

es rot eingefärbt, ein bißchen geshopped dann Fury hingeschrieben, fertig.


Klingt für mich nach AMD Marketing. :up:

Screemer
2015-05-29, 15:33:53
Fiji wird angeblich unter dem Radeon Fury-Label verkauft:
http://www.expreview.com/40812.html

Die X2 heißt dann wohl Radeon Fury MAXX :)

Wem das bekannt vorkommt:

http://s22.postimg.org/mq3caprsh/HPIM0274.jpg (http://postimage.org/)

Hab ich noch zuhause.

Seth
2015-05-29, 15:35:07
Namen sind nur Schall und Rauch.
So gut wie alle Produkte die ich hier gerade hier im Blickfeld habe haben irgend einen Nichtssagenden Namen. K70, ZR24w, DT770, ...
Habe ich alles gekauft obwohl sie nicht "Master of the Universe XL Deluxe" heißen. :wink:

Ich meine Apple heißt wie ein Allerwelts Obst und hat dazu noch einen angebissenen Apfel als Logo und ist damit recht erfolgreich.

Wer sich von Produktnamen beim kaufen beeinflussen lässt tut mir leid. ;)

derF
2015-05-29, 15:36:19
Who cares.
Ich freu mich ja auch nicht ständig darüber, dass die GeForce bei ausreichend Höhe durch die G-Force praktisch sich selbst pulverisiert.

BlacKi
2015-05-29, 15:39:31
Du beschreibst eher den bisherigen AFR-Modus

Es wird im neuen Modus zum Einen das Bild wie bei einer einzelnen GPU generiert; gleichzeitig wird aber dafür gesorgt, dass eine GPU nur aus ihrem Speicher laden muss.

Vorteile sind keine Mikroruckler und effizientere Speichernutzung.
Als Nachteil steht die Frage im Raum, wieviele Studios das unterstützen werden.

stimmt, danke für den hinweis. wenn sfr schon in verwendung ist muss ich mal ein paar artikel lesen.

DinosaurusRex
2015-05-29, 15:45:29
Wer sich von Produktnamen beim kaufen beeinflussen lässt tut mir leid. ;)

Das wirst du auch, keine Sorge.

Simpons hat das ganz gut erklärt:

18AFfUHmoBY

Je nach dem wie verblödet deine Kundschaft ist, kannst du den Schwelligkeitsgrad frei wählen. Bei einer hochgebildeten Zielgruppe machst du es beispielsweise so unterschwellig wie möglich. Das ist wie als wenn du denen eine kleine Denkaufgabe gibst und wenn sie die entschlüsselt haben, verbinden sie mit deinem Produkt ein positives Gefühl. Brainwashing in a nutshell.

Dawn on Titan
2015-05-29, 15:51:59
Fiji wird angeblich unter dem Radeon Fury-Label verkauft:
http://www.expreview.com/40812.html

Die X2 heißt dann wohl Radeon Fury MAXX :)

Wem das bekannt vorkommt:

http://s22.postimg.org/mq3caprsh/HPIM0274.jpg (http://postimage.org/)

An das Ding sollten sie niemals mehr jemanden erinnern.

ilibilly
2015-05-29, 15:55:07
Von der Namensgebung wollte man wohl auch etwas wie Titan bringen,ich geh nun schwer davon aus das man da keine 4gb vs 12gb antreten lassen wird,also ich geh schon davon aus das dienchancen auf 8gb gut stehen wenn Amt die Karte als entusiast Modell vermarkten will

fondness
2015-05-29, 16:04:30
Zeus hätte sich mal abgesehen von der griechischen Finanzkriese deutlich besser geeignet und falls das nicht eigenständig genug gewesen wäre, dann eben was ganz Neues.

Man kann alles negativ ausschlachten wenn man will, Zeus der Blitze verschießt ist für eine Grafikkarte vielleicht auch ein gefährlicher Name. :ugly:

hasebaer
2015-05-29, 16:17:01
Radeon Fury, ... hmmm klingt für mich wie "Ja, scheiße das wir immer nur die Nummer 2 im Markt sind". :mad:

Blediator16
2015-05-29, 16:27:04
Oh Gott wie in der 4. Klasse komme ich mir gerade vor. "Ne meine Socken sind schwarz ich bin viel cooler als du und deine roten Mädchensocken" :P

robbitop
2015-05-29, 16:27:22
Das war so eine Sache, wo ich dachte, der Name wird wohl leider uncool ausfallen.
Titan hört sich mächtig und eingängig ein.
Fury begeistert mich jetzt nicht.
Da stimme ich ein.
Mit der Fury MAXX verbindet man - sofern man sich überhaupt noch daran erinnern kann(!!) - nichts Gutes. Bescheuerter Name. Zeus oder ähnliches hätte besser gepasst.

BlacKi
2015-05-29, 16:28:40
Fiji wird king of the hill hat amd gesagt. also hört auf zu zweifeln :)

ich glaub trotzdem das die luftgekühlte mind. 24cm lang wird, eher 26cm. meint ihr es wird gleich zum start luftgekühlte geben oder nur wassergekühlte?

Timbaloo
2015-05-29, 16:38:24
Fiji wird king of the hill hat amd gesagt. also hört auf zu zweifeln :)
Es gibt globale und lokale Maxima ;)

Gaestle
2015-05-29, 16:41:37
Fury - die Abenteuer eines Pferdes

http://de.wikipedia.org/wiki/Fury_%28Fernsehserie%29

... war meine erste Assoziation. Und ich bin ja nicht der erste hier im Thread.

Und natürlich die alten ATi-Karten....

InsaneDruid
2015-05-29, 16:50:16
Das Hottepferdchen woltl ich auch grade erwähnen.

Von Marketing scheint AMD wenig zu verstehen. Von Suchmaschinenoptimierung auch nicht. "Geforce 980" > sofort NVida "radeon 290" -> erst vierter Link eine völlig hausbackene AMD-Seite. Mit Wortungetümen wie "Unsere Produktentwicklungen" "Unsere Lösungen" "Unsere Märkte" - das klingt nach einem Schnarchladen auf der grünen Wiese vor einer Industriebrache.

Troyan
2015-05-29, 16:53:13
Oh Gott wie in der 4. Klasse komme ich mir gerade vor. "Ne meine Socken sind schwarz ich bin viel cooler als du und deine roten Mädchensocken" :P

Das der neue Name eine Reaktion auf TITAN ist, ist doch offensichtlich.
Genauso, dass standardmäßig beim Referenzdesign das Logo leuchtet.

Me too, me too. :freak:

Mandalore
2015-05-29, 17:00:29
Verstehe net wieso hier alle aufgebravht sind wegen dem Gerücht Fury - ich meine das Ganze kommt net von sweclockers sondern von ner 08/15 China Gerüchtküche. Von daher sollte man abwarten. Könnte auch ganz schlicht AMD Radeon heißen, eine Art Reboot;D;D

Unicous
2015-05-29, 17:06:21
Das Hottepferdchen woltl ich auch grade erwähnen.

Von Marketing scheint AMD wenig zu verstehen. Von Suchmaschinenoptimierung auch nicht. "Geforce 980" > sofort NVida "radeon 290" -> erst vierter Link eine völlig hausbackene AMD-Seite. Mit Wortungetümen wie "Unsere Produktentwicklungen" "Unsere Lösungen" "Unsere Märkte" - das klingt nach einem Schnarchladen auf der grünen Wiese vor einer Industriebrache.


Solange du sonst keine Probleme hast Suchbegriffe zu vergleichen und dämlich übersetze Seiten mit schlechtem Marketing gleichzusetzen, brauchen wir uns ja mit den wirklich wichtigen Dingen nicht auseinandersetzen.

Übrigens unterscheidet sich die US-Seite unwesentlich von der US-Seite von Nvidia.

Was war nochmal das Thema... ach ist ja eh schon egal.

derF
2015-05-29, 17:06:47
Von Marketing scheint AMD wenig zu verstehen. Von Suchmaschinenoptimierung auch nicht. "Geforce 980" > sofort NVida "radeon 290" -> erst vierter Link eine völlig hausbackene AMD-Seite.
Total wichtig für das Thema dieses Threads. Und falsch. Versuchs mal ohne deine Tracking-Cookies.

Unicous
2015-05-29, 17:10:04
Genauso, dass standardmäßig beim Referenzdesign das Logo leuchtet.


Oh.:eek: Ich wusste nicht, das Jensen die LED erfunden hat. Auch wusste ich nicht, das Nvidia die ersten waren die leuchtende Logos bei Grafikkarten erfunden haben. Ich dachte immer, das waren die (e: ) AIB-Partner.

AMD kann halt immer nur von Nvidia klauen. Die sind ja schlimmer als Samsung.

Sunrise
2015-05-29, 17:24:49
Das der neue Name eine Reaktion auf TITAN ist, ist doch offensichtlich.
Genauso, dass standardmäßig beim Referenzdesign das Logo leuchtet.

Me too, me too. :freak:
Voll nachgemacht ey, NV will sogar auch HBM verbauen hab ich gelesen, dabei war AMD erster! :rolleyes:

Der Fury-Name ist allerdings jetzt nicht sonderlich originell, das muss ich zugeben. Interessant aber eigentlich niemand, wenn das Gesamtpaket passt.

derguru
2015-05-29, 17:32:40
als ob zeus originell wäre :rolleyes:, kann von mir aus herpes heißen solange die leistung stimmt.

mironicus
2015-05-29, 17:38:25
Das hier wäre eine bessere Assoziation:

http://www.imdb.com/title/tt2713180/

Dawn on Titan
2015-05-29, 17:39:25
Eher Kung Fury...

Aber so beschattet kann bei AMD doch niemand sein, dass man freiwillig an Rage Fury und Rage Fury Maxx erinnern will.

Pirx
2015-05-29, 17:42:16
die Fury war doch super, die Max nur manchmal

derguru
2015-05-29, 17:47:00
fury wird sie nun genannt weil der R300 keinen eigenen namen hatte.^^

mironicus
2015-05-29, 17:48:22
Wenigstens mal ein Name und keine billige Nummer. ^^

DinosaurusRex
2015-05-29, 17:48:50
Wenn sie auf Zack wären, würden die das Teil gar nicht mehr "Graphics Card" nennen, sondern sich irgendeinen anderen coolen Begriff ausdenken. Nvidias "Reality Synthesizer" war in dieser Hinsicht ein absolutes Meisterstück der Namensgebung. Auf sowas musst du erstmal kommen.

aufkrawall
2015-05-29, 17:54:24
wtf, kriegt auch wieder ein. Völlig nebensächlich, im Gegensatz zum VRAM.

Ich glaub, ich les hier gar nicht mehr, bis irgendeine News-Seite darüber etwas aufgreift. Ist ja nicht auszuhalten.

Tomahawk
2015-05-29, 17:56:46
Das ist übrigens eine interessante Nachricht: Als Dual-GPU-Karte hätte sie mit 2 x 4 GB kein Marketingproblem und könnte für die angepeilten 849 USD verkauft werden.

aufkrawall
2015-05-29, 18:02:14
Natürlich hätte sie ein Problem, denn gerade mit AFR (das bei mGPU in naher Zukunft immer noch tonangebend sein wird) wäre das eine ziemliche Fehlentwicklung.

dargo
2015-05-29, 18:03:59
wtf, kriegt auch wieder ein. Völlig nebensächlich, im Gegensatz zum VRAM.

Ich glaub, ich les hier gar nicht mehr, bis irgendeine News-Seite darüber etwas aufgreift. Ist ja nicht auszuhalten.
Ist auch besser. Meine Fresse... da wird seitenlang über den Namen diskutiert. :facepalm:

Raff
2015-05-29, 18:13:08
Gibt halt sonst nix Neues. Außer, dass es wohl erst zur E3 soweit sein wird.

MfG,
Raff

hasebaer
2015-05-29, 18:41:49
Das hier wäre eine bessere Assoziation:

http://www.imdb.com/title/tt2713180/

Also du meinst man braucht drei Fury für einen Titan?

L8vFGQ0uJQc

Botcruscher
2015-05-29, 19:10:49
Also du meinst man braucht drei Fury für einen Titan?

4+4+4 ist ja 12.

mironicus
2015-05-29, 19:14:57
Es gibt 3 Fury-Modelle und eins davon schlägt die Titan X. :D

Hübie
2015-05-29, 20:35:16
Scheint ja offenbar fake zu sein :rolleyes:

Coda
2015-05-29, 21:36:24
Das will ich noch anmerken, hab's vergessen:

Die combined Memorypools Folie von AMD. "4+4=8"
Die verrät exakt gar nichts über Fiji. Das ist ein generelles DX12-Feature.

Nakai
2015-05-29, 21:43:21
Das will ich noch anmerken, hab's vergessen:


Die verrät exakt gar nichts über Fiji. Das ist ein generelles DX12-Feature.

Dumme Frage an einen Entwickler(kann jeder natürlich beantworten):
Wie wirken sich Hardwarespecs auf die Frametimes aus? Die Spezifikationen können zwar sonst noch schön und toll sein, wenn die Frametimes unregelmäßig sind, bringt das auch nichts. Ein Punkt den ich mir vorstellen könnte, sind Speichergröße und Speicherbandbreite, welcher die Frametimes stark beeinflussen könnte. Könnte da Hbm einen Vorteil bringen?

gedi
2015-05-29, 22:27:16
AFAIK sollte sich ein größeres SI generell positiv auf die Frametimes auswirken. Interessant zu Wissen wäre wie die Frametimes TitanX <-> GTX980 in hohen Auflösungen und unter Einsatz von MSAA aussehen.

C.D.B.
2015-05-29, 22:46:02
Erklärt mir bitte mal wenn Fiji 45% mehr Einheiten hat wie dieser Titan X schlagen soll (welcher + 60/70% vor Hawaii liegt).
Da müsste ja enorme Verbesserung der Auslastung der Einheiten vorherrschen :confused:

Erklär mir mal bitte, warum eine 749$-Karte eine 999$-Karte Leistungsmäßig überbieten soll?!

Das wäre wirtschaftlich betrachtet nonsens seitens AMD. ;)

Tomahawk
2015-05-29, 22:50:41
@C.D.B
Wieso ist es wirtschaftlich "Nonsens" den schnellsten Grafikchip zu haben? Ich kann dir nicht folgen

Raff
2015-05-29, 22:56:48
Er meint vermutlich, dass es wirtschaftlich Nonsens wäre, einen Titan-X-Killer für 749,- zu verscheuern - da kann man mehr verlangen.

MfG,
Raff

C.D.B.
2015-05-29, 23:09:25
Er meint vermutlich, dass es wirtschaftlich Nonsens wäre, einen Titan-X-Killer für 749,- zu verscheuern - da kann man mehr verlangen.

MfG,
Raff

Jupp!

AMD "kann" momentan jeden Cent gebrauchen. Hoffentlich dann für fähige Marketing-Leute. Fury ... war ein schnelles Pferd. :D Aber als Titanen-"Killer"? Nee. ;)

derguru
2015-05-29, 23:21:06
sehe ich nicht so, für ~ 750€ sollte der fury titan niveau haben um erfolgreich zu werden weil die 980 ti auch in dem bereich liegen wird sowohl im preis und leistungsbereich.

horn 12
2015-05-29, 23:23:49
Fury = Furore = Aufmerksamkeit!
Sprich Sensation :-)

aufkrawall
2015-05-29, 23:24:43
*dat pain*

Raff
2015-05-29, 23:44:26
sehe ich nicht so, für ~ 750€ sollte der fury titan niveau haben um erfolgreich zu werden weil die 980 ti auch in dem bereich liegen wird sowohl im preis und leistungsbereich.

Wir wissen Stand jetzt weder den Preis der GTX 980 Ti noch die Leistung des AMD-Pferds. Hoffentlich ein echter Renngaul.

Fury = Furore = Aufmerksamkeit!
Sprich Sensation :-)

Leider muss Marketing nicht mal ansatzweise etwas mit der Realität zu tun haben. Ein frecher Name gewinnt keine Awards.

MfG,
Raff

merfu
2015-05-29, 23:47:01
Wir wissen Stand jetzt weder den Preis der GTX 980 Ti noch die Leistung des AMD-Pferds. Hoffentlich ein echter Renngaul.



Leider muss Marketing nicht mal ansatzweise etwas mit der Realität zu tun haben. Ein frecher Name gewinnt keine Awards.

MfG,
Raff

Kennen wir die Leistung der 980 TI denn?

MfG

hasebaer
2015-05-29, 23:50:24
Na ja ...
http://www.3dcenter.org/news/spiele-benchmarks-zur-geforce-gtx-980-ti-zeigen-performance-der-mitte-zwischen-980-und-titan-x

Spasstiger
2015-05-29, 23:59:05
Fury ist eine Hommage an die Rage-Fury-Serie, welche allerdings nur ein kläglicher Versuch seitens ATI war, im Markt der High-End-Grafikkarten nicht den Anschluss zu verlieren. Die Rage Fury Maxx hat zwar tatsächlich für Aufsehen gesorgt, aber deren Relevanz wurde wegen eklatanter Umsetzungsmängel ziemlich schnell zum Sammlerstück degradiert.
Mit nur 4 GiB VRAM kann AMD nicht den gleichen Preis ansetzen wie für eine Titan X, selbst bei gleicher oder etwas besserer Performance. Ich bleibe skeptisch und hoffe, dass sich die Geschichte nicht wiederholt. Das Ende der Rage Fury Maxx und zeitgleich der Untergang von 3Dfx ging mit einer Phase der Dominanz von Nvidia einher ...

-/\-CruNcher-/\-
2015-05-30, 00:17:41
Erst krammt man Omega wieder aus jetzt Fury back to the roots :D

Persönlich interessiert mich diese oder aber Titan 0,0% ich will den GM204 Performance Killer sehen der endlich vergleichbare Effizienz erreicht nach gefühlten milliarden jahren Fehlentscheidung mit VLIW :D

Der AMD/ATI Song


ZTidn2dBYbY

Unglaublich Kreativ wenn sich das bewahrheiten sollte das muss wohl alle Gefühle dieser Firma und Engineers zum Ausdruck bringen absolut irre art das jetzt so zu zeigen das erinnert an IBM und Apple :)

OYecfV3ubP8



Hasselhof auf der Fury Packung neben der neuen Ruby das hat was ;D

Wenn die neue Performance Karte mich überzeugen kann dann heist es erstmal auf Wiedersehen Nvidia :)

Versuche hier nur die Relation zu verstehen wurde es von AMD in Auftrag gegeben oder wurde die Karte später so bennant nach dem Absehbaren Erfolg dieses Projekts ;)

Ein Zufall kann das doch nicht sein schon alleine wegen dem 28 May NDA Press drop und Release ;)

Auch ist das Design vollgestopft mit AMD/ATI Corporate Identity ;)

Hui nicht schlecht. Haben die bei AMD jetzt 'ne Kaffeemaschine in der Marketing-Etage?



Ich finds ganz gut. Fury ist weiblich konnotiert und kann daher wunderbar mit dem "sex sells"-Prinzip an den Mann gebracht werden.

Wohl gleich ne ganze Batallion ;)

unsere DR.Su hat sich wohl gesagt was Nvidia kann können wir noch besser ;)

No Retreat no Surrender but Action (Sie ist die absolut richtige als Engineer für den CEO)

Gerade einen Phoenix soll man nie unterschätzen :)

Sie brauchten ja nur Zeit die hatten sie jetzt geht es erst richtig Los.

-/\-CruNcher-/\-
2015-05-30, 04:24:29
Sry Dblpost

Thunder99
2015-05-30, 10:17:14
AMD will wohl mehr Aufmerksamkeit, siehe dazu die Meldung auf der Hauptseite und Quelle hier verlinkt. Etwas Marketing können sie ja :D
http://www.trainghiemso.com/lo-man-hinh-trinh-chieu-co-lon-cua-amd-tai-quang-truong-thoi-dai/

mironicus
2015-05-30, 10:25:46
Kann man HBM denn als Revolution ansehen, oder eher als Evolution...? :D

Wie groß werden eigentlich APU/GPUs nach oben wenn man direkt den Speicher auf den GPU-Die setzt? Rein thermisch gesehen wäre es wohl problematisch HBM auf eine GPU zu setzen, die an sich ja schon 100 Grad heiß werden darf.

Isen
2015-05-30, 10:42:04
Eher als eine Art Cache... dazu ist noch genug Platz für 1-8 Stacks ohne zu stapeln :) ( die Info gab AMD vor einer Weile ) ...

mironicus
2015-05-30, 11:00:52
Hm... was würde es wohl bringen, wenn man sagen wir 1 GB HBM als L4-Cache neben einer CPU verwenden würde...? Und dazu noch 1 GB HBM als VRAM für die interne GPU. Den großen Cache innerhalb der CPU bräuchte man dann ja nicht mehr unbedingt. Es gibt so viele Möglichkeiten für neue Produkte... eine HBM RAM-Disc. :D

Isen
2015-05-30, 12:33:43
"wenn" dann auch 2GB pro Stack (Gen2). Bis solche APUs kommen, wird es noch ne Weile dauern. ( Greenland ) naja, die Folie halt, von wtf-tech (http://wccftech.com/amd-x86-zen-based-highperformance-apu-detailed-rumored-feature-16-cores-16-gb-hbm-memory-greenland-igpu-ddr4-memory-support/)...

Einfach mal angenommen, bräuchtest du keinen Arbeitsspeicher mehr ( Primär ) Nur noch die APU mit bis zu 16GB HBM, das wars. Kühler druff fertig.

Dunkeltier
2015-05-30, 14:13:50
Hm... was würde es wohl bringen, wenn man sagen wir 1 GB HBM als L4-Cache neben einer CPU verwenden würde...? Und dazu noch 1 GB HBM als VRAM für die interne GPU. Den großen Cache innerhalb der CPU bräuchte man dann ja nicht mehr unbedingt. Es gibt so viele Möglichkeiten für neue Produkte... eine HBM RAM-Disc. :D


Ich denke mal nicht, dass das so viel bringt. Die Latenzen dürften einerseits zu hoch sein, anderseits limitiert die Bandbreite des PCIe.

w0mbat
2015-05-30, 14:29:38
Naja, die GTX 980 hat ja schon Probleme sich wirklich gegen die, fast 2 Jahre alte, 290X abzusetzen. AMD kann die locker nochmal aufsetzen. Fiji wird Runden um GM200 ziehen. +50% auf Titan X kann ich mir gut vorstellen. Ich meine, Nvidia muss schon die alte Marketingmasche "MEHR VRAM" nutzen, damit sie wenigstens auf dem Papier gut aussehen.

Sunrise
2015-05-30, 14:33:28
Fiji wird Runden um GM200 ziehen. +50% auf Titan X kann ich mir gut vorstellen.
Wuss?

aufkrawall
2015-05-30, 14:34:08
Naja, die GTX 980 hat ja schon Probleme sich wirklich gegen die, fast 2 Jahre alte, 290X abzusetzen.
Es gibt OC-Versionen der 980, die auf 1,4Ghz boosten. Da sieht jede 290X alt gegen aus, und die 980 hat dabei immer noch einen niedrigeren Verbrauch...

fondness
2015-05-30, 14:41:18
Wenn das Ding 4 TFLOPs DP-Leistung hat, dann muss man froh sein wenn man überhaupt die TITAN X erreicht. Vom Verbrauch rede ich da noch gar nicht. Wenn nicht dann sehe ich gute Chancen zumindest in 4K klar vorne zu sein, aber selbst dann muss sich zeigen wie sehr AMD in punkto Stromverbrauch optimiert hat.

M4xw0lf
2015-05-30, 14:51:04
Ah bitte. V2.0 trollt quasi immer, und w0mbat ist drauf eingestiegen. Weitermachen.

BlacKi
2015-05-30, 15:03:28
Naja, die GTX 980 hat ja schon Probleme sich wirklich gegen die, fast 2 Jahre alte, 290X abzusetzen.

die 980 ist 11 monate jünger als die 290x, nicht mehr und nicht weniger. im september ist sie schon wieder 1 jahr auf dem markt, wie die zeit vergeht. looking for pascal in round about 9 month in 16nm, hell yeah, 8 gb! selbst wenn fiji schneller sein sollte für ein paar monate, pascal wird fiji wohl alt aussehen lassen.

Dawn on Titan
2015-05-30, 15:10:54
Ah bitte. V2.0 trollt quasi immer, und w0mbat ist drauf eingestiegen. Weitermachen.
Bemerkenswert ist das Auftauchen von Wakü-Titans zum jetzigen Zeitpunkt schon. Allerdings sagt das natürlich nichts über die Leistung von Fiji, kann ja auch einfach sein, dass man selber nun eine Wakü Option bieten will.

Raspo
2015-05-30, 15:15:53
Ich glaube auch nicht, dass die Fiji sooo weit vor der Titan X liegt.
Ich lass mich aber, wie viele hier sicher auch, gern positiv überraschen.

-/\-CruNcher-/\-
2015-05-30, 15:34:11
die 980 ist 11 monate jünger als die 290x, nicht mehr und nicht weniger. im september ist sie schon wieder 1 jahr auf dem markt, wie die zeit vergeht. looking for pascal in round about 9 month in 16nm, hell yeah, 8 gb! selbst wenn fiji schneller sein sollte für ein paar monate, pascal wird fiji wohl alt aussehen lassen.

9 Monate sind eine lange Zeit soviel hatt ihnen Nvidia nicht gegeben mit dem Preview von Maxwell 1 ;)

Es geht im Prinzip erstmal nur darum das sie wieder im ordentlichen R&D Rythmus sind und die Effizienz halten können egal ob sie es mit HBM ausbalancieren :)

Wenn das Ding 4 TFLOPs DP-Leistung hat, dann muss man froh sein wenn man überhaupt die TITAN X erreicht. Vom Verbrauch rede ich da noch gar nicht. Wenn nicht dann sehe ich gute Chancen zumindest in 4K klar vorne zu sein, aber selbst dann muss sich zeigen wie sehr AMD in punkto Stromverbrauch optimiert hat.

Ihr anderes Marketing Material lässt erstmal drauf schliesen das sie es nicht ganz schaffen mit dem DP overhead aber das muss man halt berücksichtigen :)

Thunder99
2015-05-30, 15:34:21
Viele Spekulationen sind total sinnfrei und quatsch.

wir vermuten sehr stark der Chip hat 4096 Shader (entsprechend TMU)
wir vermuten das er mind. Feature LV von Tonga hat oder besser
wir hoffen das er 8GB HBM hat sowie Architekturverbesserungen über Tonga Niveau hinaus

Auf der Basis wenn 3. nicht eintritt bezüglich der Verbesserung wird Fiji gerade so mit der 980Ti konkurrieren können. Ansonsten bleibt Titan X einfach unerreichbar!

horn 12
2015-05-30, 15:38:44
Jungs, ihr müsst den Preis bedenken was Custom GTX 980 TI/ Titan X oder gar Wasserkühlung der GTX 980TI / Titan X kosten werden.
Da ist Fiji gar günstig dagegen wenn vielleicht die Fiji Pro knapp unter GTX 980TI sich einbefindet um etwa gute 600 Euro,
und die Fiji Karten werden auch OHNE Custom Kühlung (AMD Referenz Design) extrem gut und Sauschnell sein, dafür aber locker um die 200 300+ Euro billiger als die nun freigegebenen NV Produkte.

DinosaurusRex
2015-05-30, 15:40:54
Einfach mal angenommen, bräuchtest du keinen Arbeitsspeicher mehr ( Primär ) Nur noch die APU mit bis zu 16GB HBM, das wars. Kühler druff fertig.

Auf sowas warte ich schon seit dem HSA noch Fusion hieß. Nur frage ich mich, wie die das dann machen wollen? HBM-Speicherriegel? Oder wird der Speicher dann direkt auf die Platine gesetzt und man kauft APU+HBM+Mainboard dann nur noch im Gesamtpaket?

Thunder99
2015-05-30, 15:41:53
Glaube ich erst wenn ich das sehe. AMD kocht auch nur mit Wasser und dieses war in letzter Zeit extrem heiß uns schwierig zu kühlen ;)

w0mbat
2015-05-30, 15:43:32
Wuss?

Meine Aussagen findest du komisch? Dabei zerreissen sich alle hier schon seit Wochen die Münder über welche GPU nun der großere Fail ist. ;D

Ich hab nur den Inhalt des Threads zusammengefasst.

fondness
2015-05-30, 15:45:01
Auf sowas warte ich schon seit dem HSA noch Fusion hieß. Nur frage ich mich, wie die das dann machen wollen? HBM-Speicherriegel? Oder wird der Speicher dann direkt auf die Platine gesetzt und man kauft APU+HBM+Mainboard dann nur noch im Gesamtpaket?

HBM sitzt direkt neben dem Die, dh der Arbeitsspeicher würde entfallen. Sockeln kann man die APU deshalb noch immer.

Sunrise
2015-05-30, 15:51:43
Jungs, ihr müsst den Preis bedenken was Custom GTX 980 TI/ Titan X oder gar Wasserkühlung der GTX 980TI / Titan X kosten werden.
Die 980 Ti Referenz wird entgegen dem was überall steht entweder $649 oder $699 kosten.

Wenn NV clever ist, dann hauen sie die für $649 raus und lassen etwas Luft für den Preis der Custom-Karten. NV braucht einen Preis-Leistungshammer, die $799 wären Quatsch, weil man die Salvage-Karten auch möglichst gut verkaufen muss und man so ein noch besseres Verkaufsargument hat.

Unicous
2015-05-30, 15:55:56
Und diese Weisheit hast du woher? Von WhyICryMyselfToSleep vllt.:wink: Der hat die Preise mittlerweile klammheimlich wieder entfernt. ;)


Und obwohl shopblt z.T. völlig überzogene Preise hat, wird die Referenz für 800 Dollar angeboten.

Kitguru behauptet es laut einer "unabhängigen Quelle" auch.

EVGA’s GeForce GTX 980 Ti graphics cards cost from $799 to $827, depending on frequencies and coolers. An independent source with knowledge of Nvidia plans confirmed to KitGuru that Nvidia’s suggested retail price of the reference GeForce GTX 980 Ti is $799. The official SRPs for the U.K. and mainland Europe are unknown, but expect something like £550 and €750 – €799.
http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-geforce-gtx-980-ti-to-start-at-799-unless-there-is-a-last-minute-change/


Viel dümmer wäre, wenn AMD das Teil für 850 Dollar verkauft und keinen wirklichen Mehrwert auf die Ti liefern würde.

Locuza
2015-05-30, 16:00:38
Sebbi verteilt wieder Wissen:

I like GCN compute units. The design is elegant. I definitely do not want OoO. I like that GCN is a memory based architecture. All the resources stored in memory and cached by general purpose cache hardware. There are no sudden performance pitfalls. Performance is all about the memory access patterns (= something that the developer has full control on).

The AMD shader compiler is the biggest issue for GCN on PC. Current generation consoles have roughly the same GPU architecture as the AMD PC GPUs, making it easy for the developers to compare the compiler results (instruction counts, GPR counts, etc). A new (fully rewritten) shader compiler would be a big step in catching up with NVIDIA.

On the architecture side, I would prefer improvements to the GCN scalar unit. Right now the scalar unit has some limitations, and removing them would make it easier for the shader compiler to offload work (and register pressure) to the scalar unit. One scalar register takes only 64 bits to store, while a 64 wide vector register takes (64 lanes * 32 bits/lane = ) 2048 bits to store (= much more die space and heat). Modern GPUs with scalar architectures (not to be confused with the scalar unit) need to run lots of threads (as each scalar thread does less work compared to a VLIW thread). More simultaneous threads means of course more register pressure. Surprisingly many instructions could be offloaded to the scalar unit, if the compiler was better and the scalar unit supported full instruction set. This would be a good way for AMD to improve performance, reduce the register pressure and to save power. But this strategy also needs a very good compiler to work.

Tonga (only in R9 285) already added two important things: color compression and 16 bit FP support. Color compression makes AMD bandwidth usage comparable to NVIDIA. This both saves power and improves performance. 16 bit FP support is going to be very important in the future, as the register pressure keeps increasing. For example many developers have switched to quaternion (QTangent) based transformations (from matrices), because quaternions need less GPRs (and consume less bandwidth). 16 bit FP is enough for quaternion math (multiply, slerp, etc) in shaders. This reduces the GPR load even further (allowing the GPU to run more threads -> better latency hiding). I would also like to see native 16 bit integer types. The most important thing with 16 bit registers is the reduced register file (GPR) usage. If we also get double speed execution for 16 bit types, then even better (but that is less relevant than saving GPRs).

The tessellation and geometry shader design is still bad in GCN. I know this is not an easy issue to solve, but it currently makes geometry shaders useless and limits tessellation usage to small amplification factors. Obviously we also want to have ROVs and conservative rasterization. These are great features that should be supported ASAP.
https://forum.beyond3d.com/posts/1846917/

horn 12
2015-05-30, 16:06:08
@Sunrise

Wenn NV die Karte echt für 649 Dollar/ Euro bringen aollte, dann bekommt AMD echt ein problem
Dann müssen es 8GB HBM sein/ werden ansonsten wird die Fiji Karte echt ein Ladenhüter, bzw. zum Ladenhüter verdammt werden.-
Was reitet AMD bloß dass sie sich sooo extrem zurückziehen und Verbote verhängen.
Da muss etwas Gewaltiges im Busch liegen, oder im Argen!! :-(
und die ganze Arbeit des letzten Halben Jahres, nach dem OMEGA Treiber
muss sich in Neuen Features, VSR 2.0, FreeSync, womögliche Neue, überarbeitete AA Modi ecc. Püntklich zum Fiji Launch einbefinden.

Dawn on Titan
2015-05-30, 16:12:12
Meinst Du die hängen die dicke Werbung auf, wenn es ein Flop ist?

Unicous
2015-05-30, 16:20:31
Meinst Du die hängen die dicke Werbung auf, wenn es ein Flop ist?

Warum eigentlich nicht? Jeden Tag, zu jeder Stunde und Sekunde werden beschissene Produkte verkauft. Warum? Weil die Werbung die Kunden dazu verleitet hat.

Also mach bitte nicht an einer! (in Zahlen 1) Werbekampagne von AMD fest, ob das Produkt gut ist.

Die Tests werden zeigen ob AMD mit ihrem Times Square Ding, was bislang nicht wirklich für Media Buzz gesorgt hat (schlampig ausgeführt wie so oft), den Teasern und was sicherlich noch folgen wird, Recht behalten werden oder nur ein Haufen Kacka für die Massen polieren.

Also immer schön auf dem Boden bleiben.

Am Ende macht auch der Preis die Musik. Und wenn sie den zu hoch ansetzen werden sie eh keine Blumentöpfe gewinnen.

Schnoesel
2015-05-30, 16:27:09
Bei der Werbetafel und geht ja wohl eher um die Werbetafel an sich und der technischen Umsetzung als um Fiji. Trifft sich halt grade ganz gut mit dem Fiji Release.

Korvaun
2015-05-30, 16:29:20
980ti ist schneller und hat mehr RAM als ne 980, sollte also entsprechend teurer werden. Ich rechne mit 699-749€ Startpreisen nächste Woche. Wenn Fiji dann mitte/ende Juni kommt kann NV die Preise der 970/980/980ti/TitanX problemlos entsprechend anpassen. Die Early-Adopter haben dann alt nen bissi draufgezahlt, aber das ist ja immer so....

fondness
2015-05-30, 16:29:56
Am Ende macht auch der Preis die Musik. Und wenn sie den zu hoch ansetzen werden sie eh keine Blumentöpfe gewinnen.

AMD möchte vom Billigimage weg kommen. Ich kann jetzt schon versprechen, dass die Karten konkurrenzfähig, aber nicht billig im Markt platziert wird. Auf eine notwendige Preissenkung von nvidia braucht mit hoher Wahrscheinlichkeit niemand warten.

Dawn on Titan
2015-05-30, 16:30:44
980ti ist schneller und hat mehr RAM als ne 980, sollte also entsprechend teurer werden. Ich rechne mit 699-749€ Startpreisen nächste Woche. Wenn Fiji dann mitte/ende Juni kommt kann NV die Preise der 970/980/980ti/TitanX problemlos entsprechend anpassen. Die Early-Adopter haben dann alt nen bissi draufgezahlt, aber das ist ja immer so....

799-849

Korvaun
2015-05-30, 16:42:22
Na zumindest kann AMD dann zum Launch die Preise der Fiji-Karten schön konkurrenzfähig festlegen. Je nach Treiberreife können sie dann noch schnell 50€ rauf oder runtergehen. Auch bedenken sollte man das es bei NV zumindest zur Zeit noch 2 AAA-Spiele (Witcher3+Batman) umsonst dazu gibt, sind ja doch auch nochmal ca. 100€ "Rabatt"...

captain_drink
2015-05-30, 17:01:49
Eher 50€ und auch nur dann, wenn man beide haben will...

Sunrise
2015-05-30, 17:20:45
980ti ist schneller und hat mehr RAM als ne 980, sollte also entsprechend teurer werden. Ich rechne mit 699-749€ Startpreisen nächste Woche. Wenn Fiji dann mitte/ende Juni kommt kann NV die Preise der 970/980/980ti/TitanX problemlos entsprechend anpassen. Die Early-Adopter haben dann alt nen bissi draufgezahlt, aber das ist ja immer so....
Das würde NV nur nicht helfen, da sie wie schon am Anfang des Jahres besprochen die Preise u.a. der 980 wohl auch senken müssen. Das ist praktisch sicher, wenn AMD auch überarbeitete Hawaiis bringt (mit 8GB).

$649 ist ein gewisser Schwellenwert, wenn NV "viele" Karten verkaufen möchte. Bereits $699 sehe ich kritisch. Die Customs werden ja dann wieder teurer. Die Referenz für $799 und noch mehr für Custom-Karten, das würden dann auch nur die Titan-Käufer in Erwägung ziehen. Damit hat NV dann rein garnichts gewonnen, die müssen auch ihre Salvages irgendwie absetzen.

NV ist bekannt für sowas, wäre nicht das erste Mal.

Hübie
2015-05-30, 17:54:49
Sebbi verteilt wieder Wissen:


https://forum.beyond3d.com/posts/1846917/


Hm. Das ist mal besonders interessant. Vor allem der Teil mit den vector register. Damals sagte ein nVidia-Engineer zu Kepler "we discovered a way to reduce power consumption by less data movement". Das war so ziemlich genau der Wortlaut.
Und aus der ISA zu PTX heisst es:

Registers may be typed (signed integer, unsigned integer, floating point, predicate) or untyped. Register size is restricted; aside from predicate registers which are 1-bit, scalar registers have a width of 8-, 16-, 32-, or 64-bits, and vector registers have a width of 16-, 32-, 64-, or 128-bits. The most common use of 8-bit registers is with ld, st, and cvt instructions, or as elements of vector tuples.

Das sind also schon signifikante Unterschiede zum GCN-Design. Ein Kollege der sich intensiv mit image separation beschäftigt sagte auch dass GCN hier für (durch die Fülle an registern) der ideale Hardware-Unterbau wäre, jedoch krankte es zu sehr an Software weshalb jetzt auf nVidia (CUDA) entwickelt wird.
Übrigens wäre VLIW auch sehr gut wenn der compiler darauf ausgelegt ist (so zumindest meine Auffassung ;)).

Danke Locuza :up:

Edit: Zur Preisdiskussion: Hatte die 980 nicht 499 $ als MSRP? Ich sehe kein Modell für unter 500 Euro. Eher Richtung 550 €. Also wird es die Ti eher auf 850 Euro "schaffen" :rolleyes:
Na ja bis Fiji-Release plus zwei Wochen lasse ich mir noch Zeit.

y33H@
2015-05-30, 18:08:32
Die GTX 980 hatte damals 550 USD.

Hübie
2015-05-30, 18:17:43
Dennoch maßlos überteuert ;) Na ja nicht zuletzt dank Märchensteuer.

MartinRiggs
2015-05-30, 18:27:26
ja sind schon geile Zeiten für Grafikkartenkäufer, man kann nur hoffen das AMD mit Fiji wirklich was reißt ansonsten ist man echt am Arsch.

Bei Nvidia gibts derzeit entweder Müll oder absolut überteuerte Karten und auf ein Hawaii-Rebrand umrüsten bringt mich auch nicht weiter:rolleyes:

Hübie
2015-05-30, 18:30:30
AMDs Fiji wird preislich auch nicht wirklich attraktiver. Zufriedenstellend ist die Gesamtsituation jedenfalls nicht. Und das wird sich auch ein paar Jahre nicht ändern. Die GTX 970 ist imo ein faires Produkt, aber alles darüber hinaus wird einfach nur noch absurd.

MartinRiggs
2015-05-30, 18:32:47
Eine verkrüppelte Karte ist für mich nicht fair, man kann nur hoffen das beide IHV sich einen Preiskampf liefern.

Coda
2015-05-30, 18:53:50
Hm. Das ist mal besonders interessant. Vor allem der Teil mit den vector register. Damals sagte ein nVidia-Engineer zu Kepler "we discovered a way to reduce power consumption by less data movement". Das war so ziemlich genau der Wortlaut.
Und aus der ISA zu PTX heisst es:



Das sind also schon signifikante Unterschiede zum GCN-Design. Ein Kollege der sich intensiv mit image separation beschäftigt sagte auch dass GCN hier für (durch die Fülle an registern) der ideale Hardware-Unterbau wäre, jedoch krankte es zu sehr an Software weshalb jetzt auf nVidia (CUDA) entwickelt wird.
Übrigens wäre VLIW auch sehr gut wenn der compiler darauf ausgelegt ist (so zumindest meine Auffassung ;)).

Danke Locuza :up:

Edit: Zur Preisdiskussion: Hatte die 980 nicht 499 $ als MSRP? Ich sehe kein Modell für unter 500 Euro. Eher Richtung 550 €. Also wird es die Ti eher auf 850 Euro "schaffen" :rolleyes:
Na ja bis Fiji-Release plus zwei Wochen lasse ich mir noch Zeit.
PTX existiert seit GeForce 8 in der Form. Das ist nur die Zwischenrepresentation, daraus kannst du keine Architekturdetails ablesen.

AMD hatte jahrelang VLIW und es mit GCN aus guten Gründen abgeschafft.

InsaneDruid
2015-05-30, 19:05:24
NV ist bekannt für sowas, wäre nicht das erste Mal.

Deswegen stehen sie auch nicht finanziell vor der Wand, wie andere, es auf CPU und GPU Seite dauerverkackende Konkurrenten.

Kriegsgeier
2015-05-30, 19:28:55
Verfolge die Diskussion in diesem Thread schon seit längerem, sehr interessant zu lesen und Niveau ist bei weitem höher als bei CB.de oder HLUXX.de...

Ich war noch vor genau 1 Woche ein stolzer Besitzer einer EVGA GTX 680, die ich am Anfang 2012 für genau 440€ gekauft habe... Nach dem aber Witcher 3 rauskam konnte ich es nur mit der 1080p Auflösung relativ ruckelfrei spielen - und das auf einem DELL 2560x1440... Da kamen bei mir die ersten Gedanken über neue Karte...

Nach dem Lesen dieses Threades habe ich mich doch für einen günstigen Upgrade entschieden:
Ich kaufte mir eine gebrauche GTX 680 bei Ebay für 105€! Seit gestern bin ich ein SLI Nutzer und ein sehr zufriedener noch dazu!

Witcher 3 skaliert hervorragend! Ich kann jetzt endlich auf meiner nativen Auflösung spielen und das bei konstanten 60 fps! Vsync ist aktiviert!

Mein System i7 920 @ 3,8 GHz, Rampage 2 (sehr erfreulich, dass dieses MoBoard aus dem Anfang 2010!! 2 x 16 PCI-Xpress Lines zum CPU haben! Eine gute Investition von mir damals gewesen!

Nur der EnergieVerbrauch hat sich natürlich zum schlechterem verschoben:
Mit einer GTX 680 waren es 160 Watt / 360 Watt mit zwei sind es Ca. 180 Watt / 540

Und die Moral von der Geschichte: ich werde die nächste GraKa-Generation getrost überspringen!
Und das für 105€!

DR.DEATH
2015-05-30, 19:34:42
Verfolge die Diskussion in diesem Thread schon seit längerem, sehr interessant zu lesen und Niveau ist bei weitem höher als bei CB.de oder HLUXX.de...

Ich war noch vor genau 1 Woche ein stolzer Besitzer einer EVGA GTX 680, die ich am Anfang 2012 für genau 440€ gekauft habe... Nach dem aber Witcher 3 rauskam konnte ich es nur mit der 1080p Auflösung relativ ruckelfrei spielen - und das auf einem DELL 2560x1440... Da kamen bei mir die ersten Gedanken über neue Karte...

Nach dem Lesen dieses Threades habe ich mich doch für einen günstigen Upgrade entschieden:
Ich kaufte mir eine gebrauche GTX 680 bei Ebay für 105€! Seit gestern bin ich ein SLI Nutzer und ein sehr zufriedener noch dazu!

Witcher 3 skaliert hervorragend! Ich kann jetzt endlich auf meiner nativen Auflösung spielen und das bei konstanten 60 fps! Vsync ist aktiviert!

Mein System i7 920 @ 3,8 GHz, Rampage 2 (sehr erfreulich, dass dieses MoBoard aus dem Anfang 2010!! 2 x 16 PCI-Xpress Lines zum CPU haben! Eine gute Investition von mir damals gewesen!

Nur der EnergieVerbrauch hat sich natürlich zum schlechterem verschoben:
Mit einer GTX 680 waren es 160 Watt / 360 Watt mit zwei sind es Ca. 180 Watt / 540

Und die Moral von der Geschichte: ich werde die nächste GraKa-Generation getrost überspringen!
Und das für 105€!

Hi,

das freut uns aber. Mein Canon Drucker hat damals 200 Euro gekostet und hat zur Zeit Probleme in Blau zu drucken. Da mich das aber tierisch nervte hab ich mir jetzt eine Schildkröte gekauft. Das Ganze macht jetzt viel mehr FPS auf meinem Taschenrechner und das bei gerade mal 200kJ in Form von Grünzeug pro Tag mehr. Der Hammer oder? Deswegen kauf ich mir jetzt erstmal keine NVidia Karte mehr weil der Thread sich hier um die Kaufberatung von Pflanzentöpfen dreht.

Unicous
2015-05-30, 19:37:08
^ ;D

Kriegsgeier
2015-05-30, 19:42:14
Geiler Beitrag! Das mit der Schildkrötensuppe

dlux
2015-05-30, 21:23:05
Hi,

das freut uns aber. Mein Canon Drucker hat damals 200 Euro gekostet und hat zur Zeit Probleme in Blau zu drucken. Da mich das aber tierisch nervte hab ich mir jetzt eine Schildkröte gekauft. Das Ganze macht jetzt viel mehr FPS auf meinem Taschenrechner und das bei gerade mal 200kJ in Form von Grünzeug pro Tag mehr. Der Hammer oder? Deswegen kauf ich mir jetzt erstmal keine NVidia Karte mehr weil der Thread sich hier um die Kaufberatung von Pflanzentöpfen dreht.
Geil. Da habe ich richtig gefeiert. ;D

rentex
2015-05-30, 22:10:47
Wieso, Weshalb, Niveau ? Dieses Forum ist das Beste, weit und breit :-D
Und ehrlich gesagt, müsste jemand mal nen Grundkurs in Graka Technologie abhalten/posten...

dargo
2015-05-30, 23:13:29
Gibt es eigentlich schon einen genauen Termin oder heißt es immer noch irgendwann im Juni?

Schnoesel
2015-05-30, 23:16:47
Dachte der 16. steht im Raum beim E3 Event von AMD ... http://www.pcgamingshow.com/

Bestätigt ist das aber natürlich nicht.

Isen
2015-05-30, 23:20:28
Die Gamer Show neben der E3, dargo.
Vor einigen Wochen (noch VOR der FAD ) ließen Gerüchte die Computex verlauten.
Bei der FAD hingegen ging es dann Richtung Gamer Show, was sich nun auch verdichtete.

Auf der Computex könnten dennoch ein paar mehr Infos kommen, aber das gesamte Paket wird wohl auf der Gamer Show stattfinden. Die soll sogar gestreamt werden, also kann man sich die mal geben :)

MUSS DIE E3 IN DIESEM JAHR SO SPÄT SEIN??? D:

http://abload.de/img/nodding_clint_eastwoow3sh5.gif (http://abload.de/image.php?img=nodding_clint_eastwoow3sh5.gif)

Disco_STFU
2015-05-30, 23:31:57
MUSS DIE E3 IN DIESEM JAHR SO SPÄT SEIN??? D:

OBrian
2015-05-31, 03:40:30
Bedenke, je später der Vorstellungstermin von Fiji, desto größer die Chance, daß die größeren HBM-Stacks fertig geworden sind und es doch 8 GB werden, zumindest als Paperlaunch.

Hübie
2015-05-31, 04:16:22
PTX existiert seit GeForce 8 in der Form. Das ist nur die Zwischenrepresentation, daraus kannst du keine Architekturdetails ablesen.

AMD hatte jahrelang VLIW und es mit GCN aus guten Gründen abgeschafft.

Hatte das als hardlimits verstanden.
VLIW als solches ist keine miese Sache nur ist der Programmieraufwand wohl ungleich größer. Das wirst du aber garantiert besser wissen als ich ;)

@OBrian: Und vom Paperlaunch können wir uns genau was kaufen??? :|

R.I.P.
2015-05-31, 08:09:26
@OBrian: Und vom Paperlaunch können wir uns genau was kaufen??? :|

Naja, wem die 4Gb ausreichen (mir z.B) der wird nach den ersten Wochen, nachdem der anfängliche Preis gesunken ist, zuschlagen, weil alle auf die 8Gb Version warten werden. Ich spiele inzwischen schon seit langem, während die restliche Bande sich gerdade eine 8Gb Version gegönnt hat und steige dann direkt auf die 8Gb 14nm Graka um 2016..:D
Hätte eigentlch ziemlich viel Gutes so ein Paperlunch

mironicus
2015-05-31, 10:07:13
Hat AMD wohl ein Deal mit Hynix um möglichst früh schon HBM2 Speicher zu erhalten? :D

Disco_STFU
2015-05-31, 10:21:20
Hoffentlich! :tongue:

Troyan
2015-05-31, 10:27:38
Da Hynix bei nVidia auf der GTC war - wohl kaum.

Warum sollten die das auch machen? nVidia verkauft zur Zeit 3x soviele diskrete GPUs. Die würden sich ja nur selbst damit schaden.

fondness
2015-05-31, 10:31:00
Weil das Zeug maßgeblich von AMD mitentwickelt wurde.

dargo
2015-05-31, 11:03:37
Warum sollten die das auch machen? nVidia verkauft zur Zeit 3x soviele diskrete GPUs. Die würden sich ja nur selbst damit schaden.
Weil man bei Chips wie GM107, GM206 oder GM204 bestimmt auf HBM angewiesen ist. :facepalm: Selbst bei Pascal wird es erst HBM bei Rohleistung X geben. Alles andere wäre Selbstmord.

Dawn on Titan
2015-05-31, 11:08:02
2016 kein HBM -> veraltet.

dargo
2015-05-31, 11:13:49
2016 kein HBM -> veraltet.
Blödsinn³.

Spasstiger
2015-05-31, 11:15:08
HBM kann in allen GPU-Segmenten sinnvoll sein, weil es enorme Vorteile beim Platzbedarf bietet. Auf den Interposer könnte man ja auch gleich die Spannungsregler mit draufpacken, die müssen bei einem Low-End-Chip nicht so groß dimensioniert werden und wären gleich sehr effektiv mitgekühlt, wenn der Heatspreader alle Chips auf dem Interposer berührt. In Ultrabooks/Tablets wäre dann die dedizierte Grafikkarte ein auflötbares, kompaktes BGA-Modul. Der frei werdende Raum kann für den Akku genutzt werden, was wiederum dünnere Geräte ermöglicht.
Auch für High-End-SoCs dürfte HBM sehr interessant sein.

aufkrawall
2015-05-31, 11:15:31
Blödsinn³.
Ich hab seinen Beitrag schon als Spam gemeldet. ^^

AnarchX
2015-05-31, 11:18:28
Sofern Hynix und Co. seine Roadmaps einhalten können, gibt es 2016 wohl nicht mehr viel Grund für den Einsatz von GDDR5. Höchstens auf Rebrands für den <$99 Markt.

fondness
2015-05-31, 11:19:27
Sofern Hynix und Co. seine Roadmaps einhalten können, gibt es 2016 wohl nicht mehr viel Grund für den Einsatz von GDDR5. Höchstens auf Rebrands für den <$99 Markt.

Naja, das ist schon auch eine Kostenfrage. Allerdings könnte HBM in entsprechenden Massen produziert durchaus auch billiger sein als GDDR5, man spart sich immerhin Siliziumfläche am Die, eine aufwändige Verdrahtung auf dem PCB, und nicht zu vergessen Strom und Platz.

aufkrawall
2015-05-31, 11:21:12
Was ist mit laufenden Verträgen für GDDR5 oder günstigen Restbeständen?
Ist HBM bei kleinen GPUs günstiger als ein größeres Interface oder etwas mehr Cache?

dargo
2015-05-31, 11:22:24
HBM kann in allen GPU-Segmenten sinnvoll sein, weil es enorme Vorteile beim Platzbedarf bietet.
Sinnvoll ist es erst dann wenn HBM als ganzes günstiger als GDDR5 Implementierung ist. Und das wird garantiert nicht 2016 passieren. Schon gar nicht im Performance/Mainstreamsegment mit 128-256Bit SI.

Dawn on Titan
2015-05-31, 11:23:17
Blödsinn³.

Bei den kleinen GPUs braucht man zwar nicht unbedingt die Geschwindigkeit, aber die Einsparungen an Stromverbrauch und Baugröße eines Moduls aus GPU + VRAM (HBM) sind in den mobilen Anwendungen nicht ohne Vorteil.

Du kannst da bei HBM2 + kleiner GPU mit einem Stack arbeiten. der Interposer dürfte sehr einfach werden, das ganze Modul klein und simpel. Das dürfte fast bis zu GPxx6 Niveau reichen. Ich würde mir vorstellen, dass ein Speicherkontroller für nur einen Stack kleiner ausfällt als ein 128bit GDDR5.

AnarchX
2015-05-31, 11:23:17
Naja, das ist schon auch eine Kostenfrage. Allerdings könnte HBM in entsprechenden Massen produziert durchaus auch billiger sein als GDDR5, man spart sich immerhin Siliziumfläche am Die, eine aufwändige Verdrahtung auf dem PCB, und nicht zu vergessen Strom und Platz.
Gab es da schon eine realistische Schätzung für die HBM BOM bei Fiji?
Aber schlussendlich sollten die Interposer für <=300mm² Chips wohl aber auch ein höheres Yield haben als der für einen ~500mm² Chip und mit HBM2 kommt man in der ~300mm² 14nm Klasse wohl sehr gut mit 2 Stacks (8GiB/512GB/s) aus und darunter wohl gar mit nur einem Stack.

Aber gerade für einen Mobile GP107 / passenden A.I.-Gegenpart, der wohl für >$200 an die Hersteller verkauft wird, lohnt sich HBM2 schnell und bringt spürbare Vorteile.

dargo
2015-05-31, 11:30:46
Bei den kleinen GPUs braucht man zwar nicht unbedingt die Geschwindigkeit, aber die Einsparungen an Stromverbrauch und Baugröße eines Moduls aus GPU + VRAM (HBM) sind in den mobilen Anwendungen nicht ohne Vorteil.

Ich spreche nicht von Mobile sondern Desktop. Mobile hat ein ganz anderes Preisgefüge, da kannst du HBM besser unterbringen.

fondness
2015-05-31, 11:31:36
Eine spannende Frage bleibt ja auch wann HBM2 ausreichend verfügbar ist. HBM1 steht seit Mitte 2014 auf der Hynix Roadmap, erst ein Jahr später, Mitte 2015 wird es das erste Serienprodukt geben. HBM2 steht erst ab Anfang Q2 2016 auf der Hynix-Roadmap...

http://s14.postimg.org/eog95b2gx/sk_hynix_tsv_roadmap_hbm.png (http://postimage.org/)

AnarchX
2015-05-31, 11:32:13
Ich spreche nicht von Mobile sondern Desktop. Mobile hat ein ganz anderes Preisgefüge, da kannst du HBM besser unterbringen.
Bei einer Ausgangslage von ~250mm² 28nm mit 128-Bit für $199 ist da doch durchaus Potential, wenn AMD "mitzieht".