PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 [55] 56

Hübie
2015-11-26, 20:21:07
Du, da bin ich voll bei dir, jedoch kannst du ja nicht abstreiten dass es sich um Gemini handelt ;) Vom journalistischen Standpunkt hast du natürlich Recht. Ich schau gar net mehr bei denen vorbei (nur im Forum), weil die Seite unübersichtlich und werbeverseucht ist - genau wie die Zeitschrift. Seit neuestem sogar mit layer-ads (am smartphone zumindest) :mad: So kann man auch Leser vergraulen. Computerbase ist in der Hinsicht berechtigter Marktführer.
Aber nun bitte b2t :)
Ausgehend von der Nano dürfte es sich um ein 350 Watt Board handeln, was wohl full fat ist und entsprechend den Takt drosselt. Preisfrage ist wie man die Kühlung löst. Die Pumpe hat ja genug Power zwei seperate Kühler mit Wasser zu befördern, jedoch zweifel ich beim Radi an der Fähigkeit. Wie war das eigentlich in der Praxis mit der 295 X2?? :|

fondness
2015-11-26, 23:16:55
Die 295 X2 war bei erscheinen jedenfalls die leiseste Dual-GPU-Karte überhaupt und die hatte >500W Verbrauch. Im übrigen würden 2 Nanaos auch nicht viel mehr verbrauchen wie eine Fury X.

maguumo
2015-11-26, 23:25:08
Die 295 X2 war bei erscheinen jedenfalls die leiseste Dual-GPU-Karte überhaupt und die hatte >500W Verbrauch. Im übrigen würden 2 Nanaos auch nicht viel mehr verbrauchen wie eine Fury X.
Die R9 295 X2 zieht selbst unter Torture Last nicht mehr als 450W...

iuno
2015-11-27, 00:12:50
weil ....Star Wars: Battlefront kein AFR unterstütz sonderen neue Multi-GPU mit allen vorzügen, wie Split Frame Rendering,
Combined Memory Pools und gemischte GPU (AMD +Nvidia) und das alles mit Freesync !!!
nicht sicher, ob das jetzt ernst gemeint ist.
Ist das denn so? Ich weiß nicht mal, ob überhaupt sicher ist, ob ein DX12 Update für das Spiel kommt?
Wie viel Speicher frisst denn Battlefront? Das Spiel scheint ja technisch top zu sein, auch mit DX11. Sollte dennoch bald ein DX12 Patch und dual-fiji kommen, wäre die Kombi sehr interessant.

btw: Computerbase hat "Polaris" in den Raum geworfen...

Hübie
2015-11-27, 00:51:07
War Gemini nicht schon der ausgemachte Codename? Na gut. Dann halt Polaris. Wenn zwei Big Player im Team dass so offenkundig twittern, wird wohl was dran sein. =)

iuno
2015-11-27, 01:16:49
Das weiß ich nicht.
Aber Polaris finde ich auch einen seltsamen Codenamen. Wie steht er im Zusammenhang mit den anderen?
Bei Northern/Southern Islands war das wenigstens noch konsistent. Vesuvius hatte als Vulkan entfernt schon mit der nächsten Generation zu tun (VI). Aber jetzt der Name eines Sterns? Computerbase spielt wegen des Polarsterns auf Arctic Islands an :rolleyes:
Mobile Produkte hatten Namen, die aus dem Rahmen fallen (Litho, Strato, Topaz, Iceland :confused:). Vielleicht könnte das auch "nur" etwas mit Tonga XT als mGPU "für alle" oder sogar Fiji für mobile zu tun haben?

OBrian
2015-11-27, 14:58:24
ach, geheimnisst mal nicht zuviel in Codenamen hinein.

y33H@
2015-11-27, 21:09:33
Polaris ist die Fury X mit 8 GB und 1,1 GHz *SCNR*

Troyan
2015-11-27, 21:20:41
Richtige 8GB? :confused:

Unicous
2015-11-27, 21:21:21
Polaris ist die Fury X mit 8 GB und 1,1 GHz *SCNR*

.. Sekunden bis WTF-Tech Artikel.

Menace
2015-11-27, 21:23:37
;D

Troyan
2015-11-27, 21:24:48
Ah, garnicht die x2 gemeint. Damn.

iuno
2015-11-27, 23:54:57
.. Sekunden bis WTF-Tech Artikel.
tick, tack... :tongue:

Kartenlehrling
2015-11-30, 20:06:13
vielleicht sehen wir auf der "The Game Awards" die Dual-Nano,
das sie aber den Grünen Saal gemieten haben nehmen ich ihnen übel, finde es aber auch witzig.

@AMD is proud to sponsor @thegameawards.
https://pbs.twimg.com/media/CUscx0YUAAADalH.jpg
http://thegameawards.com/

Blediator16
2015-11-30, 20:13:54
AMD war vorher auch Grün. Ausserdem kann Grün auch was anderes bedeuten z.b Effizient.

horn 12
2015-11-30, 20:19:43
Plus - Minus 300 Watt für die Fury X2 mit knapp 80% Mehrperformance, sprich Fury X +75 bis 80% wäre schon beeindruckend!

samm
2015-11-30, 20:21:30
Plus - Minus 300 Watt für die Fury X2 mit knapp 80% Mehrperformance, sprich Fury X +75 bis 80% wäre schon beeindruckend!Beeindruckend, und unwahrscheinlich. Ich würde mit höherem Verbrauch als 300W rechnen.

Kartenlehrling
2015-11-30, 20:29:08
400w sind glaubwürdig, jedenfall hat mein system (i7-3770k@3,9ghz+R9nano) bei 3dmark skydiver 320w spitze.


/em ignorieren italien Berni ...

horn 12
2015-11-30, 20:31:27
Nano braucht auch nur 170 bis 180 Watt
Also mit 2x Nano sollte um die 300+ Watt machbar sein, falls eine AIO verbaut werden sollte.

N0Thing
2015-11-30, 20:58:05
Vielleicht gibt es beides. Einen BIOS-Schalter für den grünen Nano-Modus und 300/375W und einen Fury-Modus, wo es dann auf die 500W zugeht.

BlacKi
2015-11-30, 23:03:00
wenn sie nicht im cpu limit rumtuckert werden es 350w und mehr. die nano schluckt ja schließlich auch 185w.

2x 185w -20w wegen wasserkühlung.

basta jetzt^^

Nightspider
2015-12-01, 10:24:28
Vorstellung diesen Monat und Verfügbarkeit im Januar oder schlimmstenfalls bis März:

http://www.computerbase.de/2015-12/amd-radeon-r9-fury-x2-auf-dem-papier-im-dezember-in-den-haenden-im-q1-2016/

fondness
2015-12-04, 06:15:57
Wie nicht anders zu erwarten bestätigt AMD den 384 Bit Bus für Tonga.

Brillus
2015-12-04, 12:07:58
Wie nicht anders zu erwarten bestätigt AMD den 384 Bit Bus für Tonga.
Quelle?

Hübie
2015-12-04, 12:08:54
Quelle?

PCPER.COM (http://www.pcper.com/news/Graphics-Cards/AMD-Confirms-Tonga-384-bit-Memory-Bus-Not-Enabled-Any-Products)

AMD mal wieder at it's best :facepalm: :freak:

Triskaine
2015-12-04, 12:13:48
Was soll die Aufregung? Eine 384-Bit Version bräuchte ein größeres Package, mehr PCB-Layer und mehr Speicherchips. Wieviel Performance gewinnt man dadurch überhaupt? Das momentane Lineup würde eine weitere SKU zwischen der 380X und der 390 ohnehin nicht hergeben.

Hübie
2015-12-04, 12:20:25
Wo siehst du Aufregung? :| :confused:

Triskaine
2015-12-04, 12:27:27
Über AMDs übliche Unfähigkeit.

Brillus
2015-12-04, 12:40:21
PCPER.COM (http://www.pcper.com/news/Graphics-Cards/AMD-Confirms-Tonga-384-bit-Memory-Bus-Not-Enabled-Any-Products)

AMD mal wieder at it's best :facepalm: :freak:
danke

Unicous
2015-12-04, 12:48:27
PCPER.COM (http://www.pcper.com/news/Graphics-Cards/AMD-Confirms-Tonga-384-bit-Memory-Bus-Not-Enabled-Any-Products)

AMD mal wieder at it's best :facepalm: :freak:

Du bist doch nur sauer weil du falsch lagst.;)

Hübie
2015-12-04, 12:52:48
Ähm. Ja :redface: :biggrin:

NOT!

Spasstiger
2015-12-04, 20:08:45
AMD hat das Geheimnis aber lange und gut gehütet und sich auch von hartnäckigen Gerüchten nicht zu einem Hinweis hinreißen lassen.
Ich denke, dass AMD mit Tonga XT @ 384 Bit etwas Unpopuläres vorhat, nämlich die Radeon-R9-480-Serie zu bedienen. Tonga hat das aktuelle Featureset und kommt damit für Rebranding in zukünftigen Produkte eher in Frage als Hawaii. An die Stelle von Hawaii tritt Fiji.

Hübie
2015-12-04, 20:26:18
Jetzt wo die Katze aus dem Sack ist könnte das Sinn machen 6GB mit full fat zu bringen und den cut down mit 3 GB bei angemessener TDP. Wenn da nicht der Verbrauch wäre. Denn sein wir mal ehrlich: nVidia pennt nicht und fährt jetzt schon partiell mit 30-40% weniger Energie bei gleicher Leistung und das wird mit Pascal sicher nicht schlechter werden.

Am iMac kann man erkennen, dass das Voltage Scaling auch verdammt mies sein muss, wenn dieser mit seinen 850 MHz nur 120 Watt benötigt und Tonga mit nur 100 MHz mehr schon bei 190 Watt liegt. Da wird wahrscheinlich nicht sehr gut selektiert / gebinned oder der Prozess bzw. das Design passt einfach nicht darauf.
Dann kann man nur auf einen anständigen metal spin hoffen.

AnarchX
2015-12-04, 21:31:06
AMD hat das Geheimnis aber lange und gut gehütet und sich auch von hartnäckigen Gerüchten nicht zu einem Hinweis hinreißen lassen.
Ich denke, dass AMD mit Tonga XT @ 384 Bit etwas Unpopuläres vorhat, nämlich die Radeon-R9-480-Serie zu bedienen. Tonga hat das aktuelle Featureset und kommt damit für Rebranding in zukünftigen Produkte eher in Frage als Hawaii. An die Stelle von Hawaii tritt Fiji.

Vielleicht kommt noch ein Fiji LE (2048-Bit) wenn es 2GiB HBM Chips gibt. ;D

horn 12
2015-12-04, 23:05:05
AMD ersetzt wohl viele Grafikkarten ausschließlich nur mehr mit HBM Speicher und wird wohl im Frühjahr bis Sommer 2016 die R9 390 und 390X beerben sobald es irgendwie geht.

Zudem die Fury X2 wird Neue Masstäbe setzen können und die Fury´ s werden wohl mit HBM-2 ausgestattet werden bis Big Fury 2 (Ende 2016 wenn nicht erst gar 2017) im Neuen Verfahren spruchreif wird!
Fiji wird länger (her)halten müssen als von vielen Prognostiziert!

iuno
2015-12-05, 02:59:53
Ich denke, dass AMD mit Tonga XT @ 384 Bit etwas Unpopuläres vorhat, nämlich die Radeon-R9-480-Serie zu bedienen. Tonga hat das aktuelle Featureset und kommt damit für Rebranding in zukünftigen Produkte eher in Frage als Hawaii. An die Stelle von Hawaii tritt Fiji.
Mit dem vollen SI und weiterem Speicher wird die Karte aber noch mehr Leistung brauchen. Tonga geht so schon nicht auf, dann wird der Chip mitte nächsten Jahres ganz und gar nicht gut dastehen. Und das Fiji Hawaii ersetzen soll halte ich für Unsinn. Hawaii wird solange im Profi Markt gebraucht, bis eine entsprechende schnellere Ablöse kommt, dann ist Fiji auch weg vom Fenster. Und viel teurer herzustellen ist Fiji ja im Übrigen auch.

Am iMac kann man erkennen, dass das Voltage Scaling auch verdammt mies sein muss, wenn dieser mit seinen 850 MHz nur 120 Watt benötigt und Tonga mit nur 100 MHz mehr schon bei 190 Watt liegt. Da wird wahrscheinlich nicht sehr gut selektiert / gebinned oder der Prozess bzw. das Design passt einfach nicht darauf.
Dann kann man nur auf einen anständigen metal spin hoffen.
Das ist ja schon länger bekannt und auch nicht nur bei Tonga so. Bei Hawaii sieht man auch, dass für hohe Taktraten (>1 GHz) sofort viel overvolting gebraucht wird, so viel, dass es eigentlich gar keinen Sinn macht. Bei Fiji sieht man jetzt das gleiche Bild und so ist es keine Überraschung dass es bei den Tests zu der 380X gleich ist. Der iMac, die Nano und der damalige Effizienztest von ht4u bestätigen das nur.
Mein Hawaii (290X) läuft übrigens problemlos mit 100mV weniger und bleibt so natürlich merklich kühler und sparsamer :rolleyes: Nach oben geht ohne overvolting aber auch nichts. Da stimmt doch irgendwas nicht und die Schwankungen innerhalb der Serie müssen auch recht groß sein, sonst hätte man ja ohne Probleme die Spannung beim 300er Refresh senken können.

Leonidas
2015-12-05, 04:25:33
Was soll die Aufregung? Eine 384-Bit Version bräuchte ein größeres Package, mehr PCB-Layer und mehr Speicherchips. Wieviel Performance gewinnt man dadurch überhaupt? Das momentane Lineup würde eine weitere SKU zwischen der 380X und der 390 ohnehin nicht hergeben.


All das stimmt. Vor allem aber gilt: AMD braucht es jetzt nicht - und könnte es sich besser für die Zukunt zurückhalten. Denn wird Tonga noch für die R400-Serie benutzt, wären diese Reserven doch sehr nett.

MilesEdgeworth
2015-12-05, 10:15:05
Am iMac kann man erkennen, dass das Voltage Scaling auch verdammt mies sein muss, wenn dieser mit seinen 850 MHz nur 120 Watt benötigt und Tonga mit nur 100 MHz mehr schon bei 190 Watt liegt. Da wird wahrscheinlich nicht sehr gut selektiert / gebinned oder der Prozess bzw. das Design passt einfach nicht darauf.
Dann kann man nur auf einen anständigen metal spin hoffen.

Das war doch schon bei der HD 7950 so, beim Erscheinen habe ich typische Verbrauchswerte von ~120-130W im Kopf. Inzwischen als R9 280 mit höherem Takt ist man leider eher bei >180W angekommen.
Ich nehme mal an, dass GCN auf einen Taktbereich von ~900MHz ausgelegt ist und eben oberhalb des Effizienzsweetspots betrieben wird, um besser an die Konkurrenz angepasst zu sein.

Locuza
2015-12-05, 10:53:47
All das stimmt. Vor allem aber gilt: AMD braucht es jetzt nicht - und könnte es sich besser für die Zukunt zurückhalten. Denn wird Tonga noch für die R400-Serie benutzt, wären diese Reserven doch sehr nett.
Sprichst du von einer Zukunft, wo sich Tonga noch schlechter verkauft als jetzt schon?
Sieht ja richtig rosig aus.

Kriton
2015-12-05, 12:12:33
Ich könnte mir vorstellen, dass sie Tonga und Fiji shrinken und den Rest durch neue Chips ersetzen.

reaperrr
2015-12-05, 12:14:22
Sprichst du von einer Zukunft, wo sich Tonga noch schlechter verkauft als jetzt schon?
Sieht ja richtig rosig aus.
Bei Mindfactory ist die 380-4GB ist neben der 390 die mit Abstand meistverkaufte 300er AMD-Karte der letzten Monate.
Damit dürfte Tonga inzwischen zumindest im (R)etail auch die Nr. 2 hinter Hawaii sein, was Verkäufe angeht.

Eine 384-bit Variante in der 400er Serie sehe ich trotzdem nicht kommen, denn um sich einigermaßen verkaufen zu können wird AMD den Preis eher senken müssen, da werden sie den Board-Partnern wohl kaum noch höhere PCB- und Kühlungskosten aufhalsen (die wegen der TDP auch so schon recht hoch sind). Zumal dieses PCB extra produziert werden müsste, die 380X dagegen nutzt einfach die gleichen PCBs wie die 380-4GB.

Die einzige Situation, in der es sich vielleicht lohnen könnte, wäre wenn in den nächsten Monaten mehrere populäre Spiele mit ähnlich abartigen Anforderungen an Speicher-Menge und -Bandbreite wie CoD:BO 3 rauskommen, denn zumindest in dem Spiel wäre die 380X mit 384bit und 6GB wahrscheinlich locker ~20+% schneller unterwegs (ich meine, dass sie trotz 1 GB mehr Speicher und DCC etwa 10% hinter der 280X landet, sagt doch alles über die Bandbreiten-Anforderung des Spiels). In solchen Fällen könnte man damit nämlich auch die 970 und teilweise sogar 980 schlagen, solange Nvidia am Krüppelinterface der 970 und den 4GB festhält.

Locuza
2015-12-05, 12:30:56
Ich könnte mir vorstellen, dass sie Tonga und Fiji shrinken und den Rest durch neue Chips ersetzen.
Es ist doch unsinnig etwas zu shrinken.
Das Design müsste man auf FinFETs umstellen und das ganze Zeug wieder validieren.
Wenn man schon eine neuere IP in der Pipeline hat, braucht man auch keine alte IP parallel daneben zu shrinken.

@reaperrr

Gegenüber Nvidias VKZ ist das ganze nichts.
AMDs Flotte besitzt an vielen Stellen Nachteile.
Sei es ein größerer die, mehr Bits die durch das PCB geroutet werden sollen oder der Stromverbrauch.
AMD muss mehr Ressourcen, als Nvidia aufwenden und auch potentielle Abnehmer.
Entsprechend hat AMD schon jetzt Probleme ihre Flotte irgendwo zu positionieren, 2016 wieder Restverwertung zu betreiben wird genau dort wo die Reste sind, wieder ins nichts laufen.

Tonga ist schon jetzt alles andere als ein Brillant und angestaubt, 2016 egal ob mit 384-Bit oder nicht, wird nur noch schlimmer.
Tonga ist auch abgesehen von High-End Notebooks auch nicht in entsprechende Geräte zu bringen.
In vielen wichtigen Teilsegmenten sind AMDs Dinger ausgeschlossen.

Agent117
2015-12-05, 14:03:35
Ich könnte mir vorstellen, dass sie Tonga und Fiji shrinken und den Rest durch neue Chips ersetzen.

Das wird sehr schwierig. Ein Speicherinterface kann man nicht so richtig shrinken. Es bleibt immer gleich groß. Ein geshrinkter ca 180mm² großer Tonga hat sehr wahrscheinlich nicht mehr genug Platz für 384Bit; AMD meinte schonmal dass es eine Kunst war Tahiti 384Bit zu verpassen und das bei 365mm².

Bei einem Shrink wie von G92 auf G92b oder GT200 auf GT200b müsste das SI nahezu gleich groß geblieben sein und der Rest vom Chip kleiner. Finde leider keine DIE-Shots von denen um mir das mal anzugucken.

AnarchX
2015-12-06, 09:43:21
Das waren halt nur optische Shrinks mit ~20% Flächenreduzierung. Da bekommt man das Pinout wohl noch unter.
Aber da es von 28nm keine solche Option gibt, ist der Redesign-Aufwand wohl so hoch, dass man gleich neue IP verbauen kann.

Wenn die Arctic Arch ebensolche Gewinne wie Maxwell erzielen könnte, wäre es vielleicht auch sinnvoll gewesen, da noch einen ~250mm² 28nm Pitcairn Nachfolger zu bauen. Dazu noch ein Speicherinterface, was das aktuelle Angebot an GDDR5 auch ausnutzt - 7Gbps+. Aber momentan sieht es nicht danach aus als ob AMD dafür die Kapazitäten hat und ebenso scheint GCN-Arctic wohl hauptsächlich vom neuen Prozess zu profitieren.

Das wird sehr schwierig. Ein Speicherinterface kann man nicht so richtig shrinken. Es bleibt immer gleich groß. Ein geshrinkter ca 180mm² großer Tonga hat sehr wahrscheinlich nicht mehr genug Platz für 384Bit; AMD meinte schonmal dass es eine Kunst war Tahiti 384Bit zu verpassen und das bei 365mm².

Der Tahiti IMC hatte auch noch 7-8Gbps geschafft, bei Tonga hat man wohl die Maximalfrequenz und somit die Flächenanforderungen gesenkt.

HOT
2015-12-06, 10:40:06
Es wär doch auch vorstellbar, dass AMD jeweils einen Greenland und Baffin LE bringt, bis die jeweiligen nativen Chips fertig sind. Oder einer der Chips ist ein beschnittener Greenland in einem kleineren Package.
Mich stört diese Rebranding-Theorie ein bisschen, weil ich denke, dass die neuen Chip ein sehr stark anderes Leistungsverhalten an den Tag legen könnten als die alten. Es hätte ja auch nicht funktioniert Keplers in die Maxwell-Linie einzubauen. Ich denke, man wird einfach ein bisschen tricksen um das Lineup hinzubekommen.
Sowas wie:
Greenland XT -> 4k Shader
Greenland Pro -> 3,5k Shader
Greenland LE -> 3k Shader
Baffin XT -> 2k Shader
Baffin Pro -> 1,5k Shader
Baffin LE -> 1k Shader

oder
Greenland XT -> 4k Shader
Greenland Pro -> 3,5k Shader
Baffin XT (Greenland Die, kleineres Package) -> 3k Shader
Baffin Pro (Greenland Die, kleineres Package) -> 2,5k Shader
Ellesmere XT -> 2k Shader
Ellesmere Pro -> 1,5k Shader
Ellesmere LE -> 1k Shader

Man bekommt durchaus Lineups mit 2 Dies hin. Baffin könnte das Jahr darauf mit einem nativen Produkt ersetzt werden. Dass Pitcairn nicht durch ein 14nm-Produkt in der gleichen Leistungsklasse ersetzt wird halte ich für sicher, das ist sicher totaler Unsinn marktstrategisch und von den Kosten her. Da wird man einfach den kleineren Chip etwas mehr beschneiden und fertig, so wie NVs neue 750Ti oder NVs 960Ti oder 965. AMD wird das sicher genauso machen.

Kriton
2015-12-06, 12:26:27
Das wird sehr schwierig. Ein Speicherinterface kann man nicht so richtig shrinken. Es bleibt immer gleich groß.

Interessant, das wusste ich nicht.

Agent117
2015-12-06, 13:01:34
Der Tahiti IMC hatte auch noch 7-8Gbps geschafft, bei Tonga hat man wohl die Maximalfrequenz und somit die Flächenanforderungen gesenkt.

Richtig, der Tahiti MC macht höhere Frequenzen mit und ist auch etwas fetter.
Hawaiis MC ist trotz 512 Bit flächenmäßig etwas kleiner als der von Tahiti.

Fiji mal ausgenommen gab es zwei MCs bei AMD die letzten 5 Jahre.
Für hohe Frequenzen: Cayman --> Tahiti
Für niedrigere Frequenzen: --> Barts-->Pitcairn, Cape Verde--> Hawaii-->Tonga

Bonaire müsste auch den schnelleren haben da bin ich mir aber nicht ganz sicher.

Generell unterscheiden sich die MCs von z.B. Pitcairn und Barts nicht oder kaum. Sowas entwickelt man einmal und verwendet es dann oft.
Gab bei neuen MCs ja auch schon oft Probleme, siehe GF100 oder womöglich auch R600.

Hübie
2015-12-06, 18:37:02
Bei R600 war es afaik der Ringbus, nicht der MC bzw. der PHY vom MC an sich. Könnte also eher auf Protokollebene zu suchen sein.

Kartenlehrling
2015-12-15, 12:41:36
Mein Spekulation und Vorhersage das die dual fiji (nanoX2) die schnellste AMD Karte bis Herbst 2016 bleibt bestätig sich immer mehr,
das sie es nicht schaffen im Jahr 2015 zu präsentieren finde ich aber schon beänstigend, verkauf war ja sowieso schon verschoben.

Kann ja eigentlich nur an der fehlenden Software liegen,
nur ein Spiel das mit SFR+combiMemory+MultiGPU umgehen kann ist einfach zu wenig.


http://www.computerbase.de/2015-12/radeon-r9-fury-x2-fiji-gpu-im-doppelpack-verpasst-2015/
Fiji-GPU im Doppelpack verpasst das Jahr 2015

Hübie
2015-12-15, 15:04:11
Ich bin total überrascht, dass AMD eine weitere Aussage nicht einhalten kann X-D

HOT
2015-12-15, 15:29:50
Vielleicht kommt das Teil auch einfach gar nicht mehr. Ich würde sagen, dass das Teil verschoben wurde lag in erster Linie am Treiber. Zudem sieht offenbar die Spielebranche selbst kaum noch Zukunft für Multi-GPU. Kann sein, dass AMD auch damit aufhört; würde mich jedenfalls nicht überraschen, der Aufwand bei SFR steht in keinem Verhältnis zum Gewinn und AFR ist und bleibt Mist.

AMD geht übrigens den nächsten Schritt und möchte den Entwicklern echte low-Level-Unterstützung auf OpenSource-Basis angedeihen lassen:
http://www.computerbase.de/2015-12/amd-gpuopen-direkte-kontrolle-der-radeon-hardware-fuer-spieleentwickler/
Ebenfalls hinzu kommt AMDs "Gameworks", allerdings komplett OpenSource.

Kartenlehrling
2015-12-15, 15:35:06
Das einzige was ich mir vorstellen kann das sie eingesehen haben das die 2x4gb HBM1 nicht mehr verkaufen können, vorallem im Schatten der Nvidia 12gb TitanX.

reaperrr
2015-12-15, 18:43:06
Das einzige was ich mir vorstellen kann das sie eingesehen haben das die 2x4gb HBM1 nicht mehr verkaufen können, vorallem im Schatten der Nvidia 12gb TitanX.
Gut möglich.
Der Sinn von solchen Dual-Karten ist ja gerade, in höheren Auflösungen und/oder AA-Modi zu spielen, aber das kostet zusätzlich Speicher und spätestens dann sind 4GB pro GPU häufig einfach zu wenig. Da kommen dann praktisch AFR-Mikro-Ruckler und Textur-Nachladeruckler zusammen. Wenn dann auch noch mehrere wichtige Spiele CF/SLI nicht oder nur mäßig unterstützen und AMD dort dann auch noch teilweise ins CPU-Limit rennt, stellt sich halt doch stark die Frage nach der Sinnhaftigkeit. Die 1050 MHz der Fury X sehe ich aus Verbrauchsgründen auch nicht als gesichert an.

Zumal man zu allem Überfluss auch noch Fury X-Preis * 2 nehmen müsste, um genauso viel Marge wie bei zwei Fury X zu haben, und dann ist wieder das P/L-Verhältnis zu schlecht, angesichts all der oben genannten Nachteile.

Kann man drehen und wenden wie man will, gibt einfach zu viele Dinge, die gegen diese Karte sprechen.
Dagegen ist die geringe PCB-Größe für Dual-GPU fast das einzige, was für die Karte spricht, neben auf dem Papier schnellste Karte am Markt.

dargo
2015-12-15, 19:16:53
Ich bin total überrascht, dass AMD eine weitere Aussage nicht einhalten kann X-D
Und ich bin wieder vollkommen aus den Socken, dass es nur die Nvidia-Anhänger stört. :ulol:

Isen
2015-12-15, 19:31:25
Sind halt Grün und Blau geschlagen worden. Irgendwohin muss der Frust ja.

Vlt. auf Eis gelegt und kommen zum passenden Zeitpunkt gleich mit HBM2 statt HBM1
Nur diese und der Single Topdog erhalten HBM2 der Rest GDDR5X

Hübie
2015-12-15, 20:06:59
Und ich bin wieder vollkommen aus den Socken, dass es nur die Nvidia-Anhänger stört. :ulol:

Wen stört es denn?? :| Ich fühle mich in beiden Punkten nicht angesprochen ;)
AMD täte gut daran, Investitionen präziser zu platzieren und die Strategie einer klaren Linie zu unterziehen. Letzteres ist seit Sommer jedoch deutlich besser geworden, dass muss man hier auch mal festhalten.

Menace
2015-12-15, 20:16:44
Ich finde AMD wurde da schon sehr viel besser. Aktuell auch an die Fragerunde des Treiberteams zu Crimson und an GPUOpen zu sehen.

Nur den Zeitrahmen sollten sie offener halten. Da bricht hier bei manchen die totale Panik und Hysterie aus, wenn sich etwas um 4 Wochen verspätet [selbst wenn sie es mangels AMD-Grafikkarte gar nicht nutzen können].

foenfrisur
2015-12-15, 20:49:57
die aktuellen karten (oberhalb 390x) sind doch ohnehin unwichtig für amd.
das sind testobjekte will ich mal fast behaupten mit kleinen verkaufszahlen.

also im grunde scheiss egal, wann da nun die noch unwichtigere fury x2 kommt.
wer wartet denn mit ernsthafter kaufabsicht auf diese kiste?

zudem kommt ein fast komplett anderer & aufwendiger arbeits-/fertigungsprozess zum tragen (hbm/interposer), an dem es sicher auch noch einiges zu feilen gibt.
also was soll dieses blöde gesülze mit terminen mal wieder.
hat AMD "verbindlich" dieses jahr einen termin/zeitraum festgelegt ??

wenn ja, holt euch einen auf nvidia runter und schmeisst ihnen euer geld in den hals :rolleyes:

und ist ja nicht so, dass nvidia nie irgendwas verschoben hat :uclap::facepalm:

mfg

dargo
2015-12-15, 21:09:57
Da bricht hier bei manchen die totale Panik und Hysterie aus, wenn sich etwas um 4 Wochen verspätet [selbst wenn sie es mangels AMD-Grafikkarte gar nicht nutzen können].
Da ist was dran. ;) Ist auch bei Spielen nicht viel anders. Da bricht für einige auch schon die Welt zusammen wenn mal ein Spiel sich verspätet. Manchmal frage ich mich welche Prioritäten bei dem einen oder anderen im Leben gesetzt werden. :freak:

Menace
2015-12-15, 21:39:48
Ach, ich mag sie gar nicht verdammen, hätten sie zumindest AMD-Zeugs, was sie nutzen möchten. Leiste ich mir etwas, bricht bei mir auch die Welt zusammen, wenn eine DHL-Zentrale ein Tag länger benötigt. Rationell nicht zu begründen. :freak: Wobei ich langsam so alt bin, dass die Zeit im Flug vergeht. Quasi erst gestern den ollen Tannenbaum rausgeschmissen und nächste Woche kommt schon der neue.

Palpatin
2015-12-16, 12:07:35
Vielleicht wartet man einfach und bring die Dual Fiji Karte kurz vor Oculus bzw Vive release oder ist absehbar das es dann schon was schnelleres in 14nm gibt?
Grad für den zweck würde die 4GB locker reichen.

iuno
2015-12-18, 19:04:09
[...] kurz vor Oculus bzw Vive release oder ist absehbar das es dann schon was schnelleres in 14nm gibt?
Sicher nicht

fondness
2015-12-18, 19:05:41
Das einzige für das sich warten lohnen würde, wäre 8GB HBM pro GPU. Ansonsten gibt es wohl Probleme welcher Art auch immer.

AckytheG
2015-12-19, 10:14:26
Ich vermute ja, dass AMD hier mit liest.
Die wollen einfach nur warten, bis wir ne Million Hits erreicht haben... :D

tm0975
2015-12-19, 10:48:29
Ich vermute ja, dass AMD hier mit liest.
Die wollen einfach nur warten, bis wir ne Million Hits erreicht haben... :D

solln sie bekommen ;D

wobei ich immer noch vermute, dass sie mit der dual gpu auf ein passendes dx 12 speil warten, um man nen richtig langen balken zeigen zu können. :wink:

Botcruscher
2015-12-19, 11:13:36
Können sie ja machen. Monate später werden sie von der neuen Fertigung überrollt. Das MultiGPU sonst fast durchweg saugt macht ein DX12 Spiel auch nicht besser.

von Richthofen
2015-12-19, 13:07:51
MultiGPU Karten sind doch wirtschaftlicher Irrsinn.
Kurzer Hype zum Release mit weltweiten Reviews gepaart mit anfänglich schlechter Lieferbarkeit. Danach hört man fast nichts mehr bis sie stillschweigend aus dem Markt genommen werden.
Wo sind denn Titan Z oder 295X? Nicht mal in irgendwelchen Benchmarkvergleichen finden die sich wieder.
Eine vergleichsweise sinnvolle 295X gibt es seit zich Monaten (oder gar Jahren?) nicht mehr zu kaufen. Wenn man was verkaufen könnte, würde man auch produzieren.
Niemand wartet auf Dual-Fiji.

Kartenlehrling
2015-12-19, 13:37:06
Bis zum heutigen Tag sind SLI und Crossfire nicht Sinnvoll, aber auch nur weil sie nicht genug support bekommen.
Ich hatte damal zwei HD5770 !! als crossfire und es funktioniert wunderbar, und es ist ja nun wirklich nicht die schnellste Karte zu diesem Zeitpunkt gewesen, aber die Leistung stimmte.
Und ich hatte auch kaum problem mit meinen Spielen.

Wenn 4k und 5k Spiele kommen sollen, werden wir an Multigpu nicht vorbei kommen,
und die ansetzte die AMD lieferten sehen vielversprechend aus.
Das so eine Entwicklung nochmal 3-5 Jahre dauert ist traurig und erschreckend zu gleich.
Aber meine vorhersage vor 3 ! Jahren das wir bald Rechner betreiben mit einer ARM CPU mit nur 35w und Grafikkarten der Leistungklasse von 2x R9295x glaube ich noch immer.

dildo4u
2015-12-19, 14:08:51
Der AMD Treiber ist komplett unbrauchbar für Crossfire,weil dadurch die CPU Limitierungen noch stärker auffallen.Scheinbar spielt keiner mit AMD GPU irgend welche aktuellen Games alles ist extrem CPU Lastig da Open World.
Witcher 3,MGS5,GTA5,AC:Syndicate,Fallout 4,Just Casue 3,Batman:AK. Möchte nicht wissen wie schlecht Crossfire in diesen Games läuft.

Kartenlehrling
2015-12-19, 15:04:32
Du leierst deine Bashing auch nur noch runter,
natürlich hat Nvidia ein ca. 10-15% geringes CPU Overhead, das diese ca.10% entscheiden können ob spielbar oder nicht steht ohne frage, sonst würde man für Arma3 nicht eine CPU mit 5Ghz bevorzugen.
Erst diese Woche habe ich es am eigen Rechner miterlebt wie CPU-Limitierung ein Spiel unspielbar machen kann obwohl man einen Leistungsstarkes System hat.
Und ich leiere es genauso gerne runter .... DX11 und Windows Vista haben der PC-Game Entwicklung mehr geschadet als das sie es vorrangebracht hat.
Ich kann dir bestimmt 10 Spiele aufzählen die letztes und diese Jahr Release hatten die auf einer Entwickung unter DX9/10 entstanden.
Es gibt vielleicht heute nichtmal eine Handvoll Spiele die "wirklich" mit mehr als 4Core umgehen können und profit raus ziehen.

Dorn
2015-12-19, 15:47:26
Sorry, kenn mich aktuell überhaupt nicht mehr so gut aus mit AMD Grafikkarten. Hat der neue Grafikkartentreiber in dieser Hinsicht etwas verbessert beim CPU Overhead?

Kartenlehrling
2015-12-19, 15:49:11
nix ... nur das shader cache, was Nvidia schon seit 3 Jahren nutzt und leider nicht jedes Spiel unterstützt.

Leonidas
2015-12-20, 04:30:58
Können sie ja machen. Monate später werden sie von der neuen Fertigung überrollt.


Unbeachtet allen SLI/CF-Irrsinns: Ich vermute, der erste 14/16nm-Sprung wird nicht so hoch ausfallen, um eine X2 zu besiegen.

Erst mit den 2017er Produkten in Form eines voll ausgefahrenen GP102 und eines äquivalenten AMD-Chips wird dies gelingen. Am 14/16nm-Anfang werden AMD & NV jedoch eher nur ~400mm² große Chips bringen - und deren Boost reicht nicht aus, um 2x 600mm² der 28nm-Fertigung zu schlagen.

Nightspider
2015-12-20, 04:35:18
Allerdings wird eine DualChip Karte auch deutlich teurer ausfallen als die erste 14/16nm Generation, viel viel mehr verbrauchen und weniger VRAM und OC Potential besitzen und hat die ältere Architektur und damit fehlende Features.

PS: Es heißt ungeachtet ;)

OBrian
2015-12-20, 07:53:47
vertu Dich mal nicht, der Sprung auf die neue Fertigung wird größer als der von 40 auf 28nm, es wird ja eine Node übersprungen. Die Abstände von Node zu Node werden zwar immer kleiner, aber zwei auf einmal ergibt doch wieder einen ordentlichen Sprung. FinFETs kommen ja zum Shrink noch dazu.

Und es werden auch bestimmt nicht zwei Chips (für das gleiche Marktsegment) nacheinander gebaut, sondern ein guter, der dann wieder lange durchhalten muß, durch Fertigungsverbesserungen evtl. später etwas höher getaktet oder/und mit weniger Spannung betrieben. Da die Fertigung immer teurer wird, gibt es sicherlich nicht so schnell wie möglich die nächste, sondern erst dann, wenn sich das finanziell lohnt. Ich würde nicht schon 2018 mit 10 nm rechnen, so wie Du die Tage auf der Startseite geschrieben hast. Ich denke, wir können froh sein, 2020 davon was zu sehen.

Knuddelbearli
2015-12-20, 09:24:48
wieso 2 auf einmal? 16nm ist ja 20nm mit finfets.

HOT
2015-12-20, 10:38:22
Das stimmt so nicht, das galt eigentlich nur für GloFos 14XM und TSMC FF(non+), die ja bekanntlich gecancelt wurden. Die anderen FF-Prozesse erlauben größere Packdichten.
Aber dann hast du auch wieder recht, da die Sprünge ja schon seit 45nm kleiner sind als die Hersteller angeben. Das ist also kein Sprung über 2 Nodes, so wie früher, sondern deutlich weniger.

Knuddelbearli
2015-12-20, 12:48:30
jap das gilt natürlich nur für den non+ aber hast ja erfasst worauf ich hinauswollte ^^

BlacKi
2015-12-20, 13:00:50
Du leierst deine Bashing auch nur noch runter,
natürlich hat Nvidia ein ca. 10-15% geringes CPU Overhead, das diese ca.10% entscheiden können ob spielbar oder nicht steht ohne frage, sonst würde man für Arma3 nicht eine CPU mit 5Ghz bevorzugen.
ich würde dir da gerne widersprechen, leider gibt es dazu zu wenig tests.

aber ich denke es sind oft mehr als 10% vorteil bezüglich cpu overhead.
falsch ist es nicht, wenn man behauptet das es bis zu 30% sind.

ändern wird sich das erst mit DX12 oder vulkan.

und wenn man dazu bedenkt wie teuer man 30% mehr cpu leistung bezahlen muss, ist das aktuell amds größtes manko.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

reaperrr
2015-12-20, 13:18:41
und wenn man dazu bedenkt wie teuer man 30% mehr cpu leistung bezahlen muss, ist das aktuell amds größtes manko.

Vor allem, da ja gerade AMD's eigene CPUs wegen der schlechteren pro-Kern-Leistung besonders unter dem höheren Overhead (und schlechteren Multithreading) leiden.

Hoffentlich verlässt sich AMD jetzt nicht nur auf DX12 und Vulkan, es werden noch viele DX11-Titel erscheinen in den nächsten Jahren.

Thunder99
2015-12-20, 13:19:36
Wir vergessen hoffentlich nicht das dies nvidias Antwort war auf AMDs Mantle ;) Nur hat sich letzteres nicht breit flächig umgesetzt und wird erst mit DX12/Vulkan dann sich voll entfalten (sofern von den Entwicklern genutzt).

Glaube kaum das AMD seit Budget jetzt noch damit "verschwendet" eine alte API auf Augenhöhe mit der Konkurrenz zu bringen. Da sehen sie wohl wahrscheinlich zu wenig vom Kosten/Nutzen Faktor :(

Könnte mir daher auch gut vorstellen, das AMD mit erscheinen des ersten DX12 Spiels auf die Veröffentlichung von der X2 wartet, da ja Mantle mit GCN 1.2 nicht mehr so gut funktioniert

BlacKi
2015-12-20, 13:28:18
Vor allem, da ja gerade AMD's eigene CPUs wegen der schlechteren pro-Kern-Leistung besonders unter dem höheren Overhead (und schlechteren Multithreading) leiden.

Hoffentlich verlässt sich AMD jetzt nicht nur auf DX12 und Vulkan, es werden noch viele DX11-Titel erscheinen in den nächsten Jahren.

anfang des jahres hat amd leute gesucht die sich dieses problem annehmen sollten.

bisher werden die unterschiede immer schlimmer statt besser. liegt vl aber nicht am amd treiber sondern am nvidia treiber der einfach immer besser wird, weniger cpu overhead erzeugt?

jenachdem von welchem blickpunkt man es eben betrachtet.

Kriton
2015-12-20, 13:32:05
ich würde dir da gerne widersprechen, leider gibt es dazu zu wenig tests.

aber ich denke es sind oft mehr als 10% vorteil bezüglich cpu overhead.
falsch ist es nicht, wenn man behauptet das es bis zu 30% sind.

ändern wird sich das erst mit DX12 oder vulkan.

und wenn man dazu bedenkt wie teuer man 30% mehr cpu leistung bezahlen muss, ist das aktuell amds größtes manko.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

Ich kann Dir nicht folgen. Ich sehe in dem Benchmark nicht wie man den CPU-Overhead herauslesen soll.

BlacKi
2015-12-20, 13:39:03
Ich kann Dir nicht folgen. Ich sehe in dem Benchmark nicht wie man den CPU-Overhead herauslesen soll.
solange du siehst das ein simulierter i3 mit einer 980ti eine fury x mit einem i7@4,4 im cpu limit verhaut hast du zumindest das verstanden worauf ich hinauswollte.

wenn wir schon dabei sind

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

http://www.computerbase.de/2015-11/anno-2205-benchmarks/2/#abschnitt_prozessorbenchmarks

bei 4k spielt das alles keine rolle, aber wenn man jetzt die 90fps für VR bereitstellen will, reicht bei amd nichtmal ein übertakteter i7.

Kriton
2015-12-20, 14:12:49
solange du siehst das ein simulierter i3 mit einer 980ti eine fury x mit einem i7@4,4 im cpu limit verhaut hast du zumindest das verstanden worauf ich hinauswollte.

wenn wir schon dabei sind

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

http://www.computerbase.de/2015-11/anno-2205-benchmarks/2/#abschnitt_prozessorbenchmarks

bei 4k spielt das alles keine rolle, aber wenn man jetzt die 90fps für VR bereitstellen will, reicht bei amd nichtmal ein übertakteter i7.

Ich sehe nichts, woraus ich auf ein CPU-Limit schließen könnte. Das ist mein Problem (stehen da irgendwo die Einstellungen des Spiels?).

CB schreibt auch bei ihrem CPU-Benchmark:

Die CPU-Benchmarks zeigen zudem, dass die Geschwindigkeitsnachteile bei AMD nicht durch die ab und zu auftretende CPU-Schwäche des Catalyst-Treibers zu Stande kommt, offenbar gibt es ein Problem im GPU-Limit.

BlacKi
2015-12-20, 14:29:02
Ich sehe nichts, woraus ich auf ein CPU-Limit schließen könnte.
das ist eigentlich ganz einfach. wenn mehr cpu takt erheblich mehr fps bringt bist du automatisch im cpu limit.

das gilt also beim FO4 und dirt rally test für beide karten, denn beide können mit mehr mhz fps zulegen. es geht mir ja nicht darum "ob" eine karte im limit ist oder nicht, sondern bei "wieviel" fps.

bei anno 2205 sieht man gegenüber amd vs nvidia tatsächlich kaum mehr fps trotz mehr cpu leistungsreserven, aber erheblich mehr fps auf der seite der nvidia karte. es könnte trotzdem dem treiber geschuldet sein.

Botcruscher
2015-12-20, 16:50:35
Wo ihr da immer irgendwelche CPU-Limits sehen wollt. Beide Karte skalieren nahezu gleich.
bei anno 2205 sieht man gegenüber amd vs nvidia tatsächlich kaum mehr fps trotz mehr cpu leistungsreserven, aber erheblich mehr fps auf der seite der nvidia karte. es könnte trotzdem dem treiber geschuldet sein.
Ich sehe da nur die Fury und nicht generell AMD. Die Karte ist einfach an bestimmten Stellen limitiert.
Unbeachtet allen SLI/CF-Irrsinns: Ich vermute, der erste 14/16nm-Sprung wird nicht so hoch ausfallen, um eine X2 zu besiegen.
Absolut wird es vermutlich auch so sein. Qualitativ verbietet sich der Vergleich eh. Wobei die X2 eh keinen mehr interessiert wenn sie von 2 Performancekarten zersägt wird.

horn 12
2015-12-20, 17:26:30
Ihr meint die Neue AMD / NV Generation wird viel besser
Vielleicht GTX 980 TI @1500 Mhz und 10% obendrauf!
Mehr wird die erste Generation von Nvidia nicht mitmachen, NV hofft auf die GTX 980TI Ersetzer wohl erst Anfang 2017
Zuerst werden die GTX 970 und 980 Besitzer zur Kasse gebeten!
Zudem mit AMD wird dies nicht anders sein, Fiji wird und bleibt locker ein Jahr noch hochpresent!

Nightspider
2015-12-20, 18:21:59
Vielleicht GTX 980 TI @1500 Mhz und 10% obendrauf!

Darauf wird es mit hoher Sicherheit hinauslaufen. Stock GTX980ti +20-30%.

Wenn man diese dann auch wieder um ~20% übertakten kann liegt man immerhin schon 30% vor einer 980ti@1,5Ghz was schon extrem gut ist für einen ~~400mm² Chip.

Bei Arctic Islands erwarte ich etwas mehr. Da könnten auch 20-40% über Fiji herauskommen wenn die Architektur etwas taugt.
Vor allem in Anbetracht der Tatsache das Fiji sich kaum übertakten lässt.

Dank 8GB werden die Karten beider Hersteller jedenfalls gut gerüstet sein für die Zukunft. Mit 8GB dürfte man die nächsten ~4-5 Jahre locker auskommen.
Ausnahme wird vielleicht Star Citizen sein und ein paar schlecht programmierte Spiele wie Shadow of Mordor.

BlacKi
2015-12-20, 20:12:16
Wo ihr da immer irgendwelche CPU-Limits sehen wollt. Beide Karte skalieren nahezu gleich.

Ich sehe da nur die Fury und nicht generell AMD. Die Karte ist einfach an bestimmten Stellen limitiert.

der test zeigt alle karten und prozessor kombi´s im cpu limit und zeigt wieviel fps mit welcher kombination durschnittlich erreicht werden.
Ihr meint die Neue AMD / NV Generation wird viel besser
Vielleicht GTX 980 TI @1500 Mhz und 10% obendrauf!

und ich sag 980ti + 50-70%

Unicous
2015-12-23, 01:15:47
Nanu? Noch gar nicht gepostet?:confused:


http://www.hardware.fr/news/14451/amd-repousse-fiji-gemini-bi-radeon-fury.html


Q. On the E3 Livecast, Lisa committed to shipping Fiji Gemini by Xmas. What happened? Is Fiji Gemini delayed?
A. The product schedule for Fiji Gemini had initially been aligned with consumer HMD availability, which had been scheduled for Q415 back in June. Due to some delays in overall VR ecosystem readiness, HMDs are now expected to be available to consumers by early Q216. To ensure the optimal VR experience, we're adjusting the Fiji Gemini launch schedule to better align with the market.
Working samples of Fiji Gemini have shipped to a variety of B2B customers in Q415, and initial customer reaction has been very positive.


Wenn es der Wahrheit entspricht ist es einerseits nachvollziehbar andererseits auch ziemlicher Blödsinn. Ich verzögere das Produkt doch nicht weil ich Hoffnungen hege, vom Hype einer anderen Produktsparte zu profitieren. Zumal ja dann auch die 14nm-Gen nicht mehr in weiter Ferne liegt und man sich damit sogar "Osbornen" könnte. Und wer weiß, was Nvidia zwischenzeitlich in der Hinterhand hält.

Nakai
2015-12-23, 01:24:25
4GB für Dual-GPU ohne VR-Bonuspoints ist einfach nicht gut genug.
:freak:

Unicous
2015-12-23, 01:38:57
2x4GB ist hingegen ausreichend.:rolleyes:

http://news.doddleme.com/wp-content/uploads/2015/03/LiquidVR8.jpg

fondness
2015-12-23, 09:52:34
Schöner Artikel von AnandTech, warum ein Fiji Gemini Launch nur mit VR Sinn macht, bzw. den aktuellen Stand von AFR:
http://www.anandtech.com/show/9874/amd-dual-fiji-gemini-video-card-delayed-to-2016

Hübie
2015-12-23, 13:27:50
Das kann ich ganz kurz machen: 2005, AFR=Müll. 2015, AFR=Müll. :D

HarryHirsch
2015-12-23, 13:29:31
aber bei vr doch nicht? pro auge eine gpu oder nich...

edith sagt:
da oben is sogar nen bild...

Nakai
2015-12-23, 13:43:46
Für VR machen MGPUs schon Sinn, außerdem sind die Auflösungen der meisten VR-Lösungen noch stark subUHD, weswegen die 4GB pro Fiji wohl keine Limitierung ist (selbst auch mit 2x FullHD).

Ich bin ja echt gespannt, ob VR auch abseits des Hypes irgendwelchen realen Umsatz bringt. Laut Prognosen schon, aber da sollte man gespannt bleiben. ;)

Topha
2015-12-23, 14:26:07
Ganz kurze OT Frage: Kann man per Treiber erzwingen nur einen der GPU Kerne auf einer DualChip Karte zu nutzen? Also Single GPU für Monitor und Dual Gpu für VR Betrieb?

Kartenlehrling
2015-12-23, 14:59:12
Das hatte ich zwar schon in einer VESA Pdf gelesen, das alle Grafikkarten die schon DP1.2a unterstützen mit einem update auch HDMI2.0 im vollen umfang unterstützen können.
Nun scheit es mit dem letzten Treiber (Crimson ???) schon eingetragen zu sein.

In fact, AMD explicitly stated support for DP 1.2 to HDMI 2.0 dongles in their recent driver update, paving the way to using this adapter with their cards.
http://www.anandtech.com/show/9867/club3d-releases-dp12-to-hdmi-20-adapter



---------------------------------------

https://www.alternate.de/Club-3D/Displayport-1-2-auf-HDMI-2-0-Kabel/html/product/1240145?event=search
Club 3D Displayport 1.2 auf HDMI 2.0, Kabel(aktiver Adapter) 50€

Die geworben 35$ sind es aber nicht geworden, 50€ finde ich aber wirklich teuer.

OC_Burner
2015-12-29, 21:23:14
Das wird sehr schwierig. Ein Speicherinterface kann man nicht so richtig shrinken. Es bleibt immer gleich groß. Ein geshrinkter ca 180mm² großer Tonga hat sehr wahrscheinlich nicht mehr genug Platz für 384Bit; AMD meinte schonmal dass es eine Kunst war Tahiti 384Bit zu verpassen und das bei 365mm².

Bei einem Shrink wie von G92 auf G92b oder GT200 auf GT200b müsste das SI nahezu gleich groß geblieben sein und der Rest vom Chip kleiner. Finde leider keine DIE-Shots von denen um mir das mal anzugucken.

Gesagt getan, das SI ist durchgängig geschrumpft worden, Neugier gestillt.

https://farm6.staticflickr.com/5719/24044300875_70a8d2c09a_c.jpg (https://flic.kr/p/CCHjXD)
G200 vs G200b

Kartenlehrling
2015-12-29, 21:50:55
Sehr schöne Aufnahme.

basix
2015-12-30, 09:13:47
Gesagt getan, das SI ist durchgängig geschrumpft worden, Neugier gestillt.

https://farm6.staticflickr.com/5719/24044300875_70a8d2c09a_c.jpg (https://flic.kr/p/CCHjXD)
G200 vs G200b

Das Speicherinterface kann man sicher shrinken. Wieso ist denn das 512 bit Interface von Hawaii kleiner als das 384 bit Interface von Tahiti ;)

Das Problem, das Agent117 anspricht, ist was völlig anderes (wenn auch ein wenig ungeschickt ausgedrückt). Man kann kein beliebig grosses Speicherinterface in einen beliebig kleinen Chip stecken. Der Grund hierfür ist das Pinout des Chips. Irgendwann hat man einfach keinen Platz mehr, die Pads für das Speicherinterface am Chip unterzubringen. Mit HBM löst man dieses Problem über den Interposer, dort kann man über die Microbumps mit einer Feinheit von fast auf Chip-Niveau verdrahten.

reaperrr
2015-12-30, 11:20:16
Das Speicherinterface kann man sicher shrinken. Wieso ist denn das 512 bit Interface von Hawaii kleiner als das 384 bit Interface von Tahiti ;)
Das ist keinem Die-Shrink geschuldet. Bei Tahiti ist das Speicherinterface noch von einer Art "Ring" umgeben, wahrscheinlich zur Verbesserung der Signalqualität, um höhere Taktraten erreichen zu können.

Die Interface-Bausteine als solche sind identisch groß (logisch, ist ja der gleiche Herstellungsprozess).

OC_Burner
2015-12-30, 13:16:07
Das Problem, das Agent117 anspricht, ist was völlig anderes (wenn auch ein wenig ungeschickt ausgedrückt). Man kann kein beliebig grosses Speicherinterface in einen beliebig kleinen Chip stecken. Der Grund hierfür ist das Pinout des Chips. Irgendwann hat man einfach keinen Platz mehr, die Pads für das Speicherinterface am Chip unterzubringen. Mit HBM löst man dieses Problem über den Interposer, dort kann man über die Microbumps mit einer Feinheit von fast auf Chip-Niveau verdrahten.

Das war mir so, gar nicht bewusst und macht im Nachhinein natürlich sehr viel Sinn. Wie klein kann den so ein Pinout werden? Die Lötpunkte werden via Masken/Pads gesetzt und in deren Löcher kommt das Lotmaterial in Pulverform (1-100µm Partikelgröße?). Bis zu welcher Lochgröße ließe sich das noch handhaben? Beim G200b sind es ca. 4Pins pro Milimeter.

basix
2015-12-30, 15:27:15
Das war mir so, gar nicht bewusst und macht im Nachhinein natürlich sehr viel Sinn. Wie klein kann den so ein Pinout werden? Die Lötpunkte werden via Masken/Pads gesetzt und in deren Löcher kommt das Lotmaterial in Pulverform (1-100µm Partikelgröße?). Bis zu welcher Lochgröße ließe sich das noch handhaben? Beim G200b sind es ca. 4Pins pro Milimeter.

Da kann ich dir leider nicht weiterhelfen. Und es ist nicht der Pitch (Pad-Abstand) des Packages gemeint, sondern der Pitch des Chips selber. Also die Verbindung zwischen Silizium und Substrat. Dort sind es wahrscheinlich mehr als 4 Pads pro Millimeter, wissen tue ich es aber nicht.

Das ist keinem Die-Shrink geschuldet. Bei Tahiti ist das Speicherinterface noch von einer Art "Ring" umgeben, wahrscheinlich zur Verbesserung der Signalqualität, um höhere Taktraten erreichen zu können.

Die Interface-Bausteine als solche sind identisch groß (logisch, ist ja der gleiche Herstellungsprozess).

Ok, das kann sein. Aber mit Designabwandlungen kann man eben das SI dennoch "shrinken"/verkleinern. Grundsätzlich ist es ja egal ob per Lithographie oder Design geshrinkt wird, nur die Performance ist halt unter Umständen anders (Tahiti > Hawaii).

Agent117
2015-12-30, 16:26:33
Gesagt getan, das SI ist durchgängig geschrumpft worden, Neugier gestillt.

Danke für die schönen Bilder, hatte ich so noch nirgends gesehen.
Das SI ist wohl doch ziemlich geschrumpft.

Das Speicherinterface kann man sicher shrinken. Wieso ist denn das 512 bit Interface von Hawaii kleiner als das 384 bit Interface von Tahiti ;)

Das Problem, das Agent117 anspricht, ist was völlig anderes (wenn auch ein wenig ungeschickt ausgedrückt). Man kann kein beliebig grosses Speicherinterface in einen beliebig kleinen Chip stecken. Der Grund hierfür ist das Pinout des Chips. Irgendwann hat man einfach keinen Platz mehr, die Pads für das Speicherinterface am Chip unterzubringen. Mit HBM löst man dieses Problem über den Interposer, dort kann man über die Microbumps mit einer Feinheit von fast auf Chip-Niveau verdrahten.

Dass Hawaii ein kleineres SI als Tahiti hat, hat nichts mit einem Shrink zu tun (beide ja 28nm), sondern mit dem verbauten SI.
Mit dem Pinout hast du aber vollkommen recht, aber daran hatte ich damals garnicht mal gedacht.
Was ich meinte war, dass im SI auch die Umwandlung in ein für den verbauten Speicher spezifiziertes Signal, mit einer Frequenz von bei AMD bis zu 6Ghz erfolgt. Hierfür braucht man wohl gewisse Schaltlängen für eine gewisse Signalqualität. Diese Stellen kann man dann auch nicht einfach shrinken.

Das ist keinem Die-Shrink geschuldet. Bei Tahiti ist das Speicherinterface noch von einer Art "Ring" umgeben, wahrscheinlich zur Verbesserung der Signalqualität, um höhere Taktraten erreichen zu können.

Die Interface-Bausteine als solche sind identisch groß (logisch, ist ja der gleiche Herstellungsprozess).

Das könnte ein simpler Kondensatorenring sein. Die Interface Bausteine müssen aber auch nicht zwingend identisch sein. Hawaii hat das SI von Pitcairn und von Barts. Tahiti hat das von Cayman.
Über die genauen Unterschiede weiß ich nicht bescheid; wahrscheinlich gibt das Internet da auch nicht viel her um das mal nachzuschauen.

Skysnake
2015-12-31, 01:31:03
Naja, das kann man aber auch nicht so wirklich mit heute vergleichen. Das war ein Shrink von 65 auf 55nm.

Das war noch wirklich ein half node, also einfacher skalierung.

Da musste man sich auch um viele Dinge noch keine Gedanken machen, bzw es wurde erst damit angefangen. Gerade Elektromigration usw. sind erst so richtig ab 40nm zwingend zu beachten wenn ich es richtig im Kopf habe.

Heutzutage skaliert das nicht mehr so gut, einfach weil einem die Leitungen wegbrennen...

Leonidas
2016-01-14, 06:16:11
1 Million Views in diesem Thread erreicht. Respekt! Das soll irgendein anderes Hardware-Projekt erst einmal nachmachen.

Nightspider
2016-01-14, 06:20:45
:ubeer:

Kartenlehrling
2016-01-14, 17:40:15
AMD verlängert Battlefront Aktion
Star Wars Battlefront bis Ende März kostenlos mit R9 Fury (X)

Im November hatte AMD eine Aktion ins Leben gerufen, bei der man beim Kauf einer Radeon R9 Fury Grafikkarte das neue PC-Spiel "Star Wars Battlefront" kostenlos bekommen kann.
Im Dezember wurde diese Aktion dann auf AMDs aktuelles Grafikkarten-Flaggschiff, die Radeon R9 Fury X, erweitert. Jetzt hat AMD die Aktion verlängert - von Ende Januar auf Ende März.

Sehen wir die Dual Fiji im ersten Q1/2016 überhaupt noch?

Michalito
2016-01-14, 17:58:57
Wow... 1 Millionen..

Da sieht man das Intressen an AMD Produkten ist da..

iuno
2016-01-14, 18:35:46
Nein, solche Rueckschluesse darf man hier nicht ziehen. Gerade im Internet gibt es oft kleine aber sehr laute Minderheiten ;) Das soll keine Wertung sein, nur Relativierung. Wenn Thread A doppelt so viele Hits hat wie Thread B muss nicht zwangslaeufig mehr Interesse an Thema A da sein.

Leonidas
2016-01-15, 07:01:36
Außerdem kommt es auch darauf an, wie lange so etwas läuft - wie lange vorher bekannt, wie lange sich hinziehend selbst nach dem ersten Release. Rückschlüsse sind da kaum machbar - außer demjenigen, daß es sicherlich kein Thema ohne jedes Interesse war. Der primäre Punkt bleibt aber allein bei der reinen Rekordzahl.

PS: Und es ist ja nicht zu Ende, da immer noch die Fury X2 ausstehend ist ...

Ravenhearth
2016-01-15, 07:23:32
PS: Und es ist ja nicht zu Ende, da immer noch die Fury X ausstehend ist ...

Huch, und ich dachte die gäbs schon.

Dural
2016-01-15, 09:26:17
Naja kein Wunder, gerade HBM und die Tatsache das AMD seit vielen Jahren mal wieder einen Big Chip raus gebracht hat, hat diesen Thread interessant gemacht und er kommt ja jetzt schliesslich auch schon ins dritte Jahr.

Zudem war Maxwell extrem langweilig gut vorhersehbar, es gab keine Überraschungen.

Thunder99
2016-01-15, 10:20:32
Technologisch war bzw ist Fiji ein Meilenstein. Nur was hinten raus kommt hat nicht alle Erwartungen erfüllt. Die Erfahrungen aber aus dem Projekt sind Gold Wert und das kann AMD mehr als gebrauchen im neuen Chip samt neuer Fertigung :)

Das die X2 verzögert wird sieht man ja an den dürftigen Unterstützung von SLI/Crossfire in Spielen. VR kann da noch was pushen aber ansonsten sieht es ja eher schlecht aus für Multi GPU Geschichten

Kartenlehrling
2016-01-15, 11:23:59
Das überhaupt crossfire Profile erstellt werden ist schon ein Problem.
SFR-Modus (Split Frame Rendering) muss ohne Profil funktionieren und am besten auch nachträglich auf alte Spiele greifen,
wenn es erst in ein Spiel programiert werden muss und in Treiber eingetragen wird es wieder nur ein lästiges Feature das kein Entwickler extra mit Arbeitzeit bezahlen will.

Nightspider
2016-01-15, 12:14:08
Sehen wir die Dual Fiji im ersten Q1/2016 überhaupt noch?

Habe ich mich gestern auch gefragt. Wenn VR erst im April kommt und vielleicht schon 2-3 Monate später die 14nm Generation dann will doch kein Mensch mehr eine veraltete Dual-Fiji-Karte zum überteuerten Preis.

iuno
2016-01-15, 17:02:48
Das kommt darauf an, wo sich Greenland wirklich einordnet. Sofern das ueberhaupt der "grosse" Chip ist, bisher wissen wir das ja nicht. Wenn Greenland auf Tonga- oder Hawaii-Niveau liegt, kann man die X2 durchaus noch bringen. Vielleicht dann ja schon mit HBM2, was ja in dem obigen Falle absolut Sinn machen wuerde, das Produkt noch etwas zu verzoegern oder ueberhaupt noch zu bringen. Liegt Greenland aber ueber Fiji koennen sie es sich auch sparen. Allerdings schockt einen AMD ja gerne mit solchen Entscheidungen. Da kann es auch sein, dass wir die X2 im Herbst noch mit 4 GiB sehen :ugly:

@Kartenlehrling: das sehen wir sicherlich nicht mehr bei "klassischen" mGPU Karten.

Raff
2016-01-15, 17:09:26
So sieht's aus. Es spricht vieles dafür, dass wir noch lange auf die ganz dicken 1x-nm-Hoschis warten müssen. Vielleicht vermarktet AMD den Doppelfidschi auch als reine VR-Karte, die neben dem anderen Geraffel koexistieren kann.

MfG,
Raff

Nightspider
2016-01-15, 17:22:59
Schon möglich aber dafür sollte die Karte dann wirklich 16GB HBM2 haben. (2+8GB)

Das wird teuer. :usad:

Wäre zwar wirklich eine geile VR Karte aber dieser fehlen dann wieder alle neuen Features der 14nm Generation. Jeder vernünftige Spieler würde da auf 14nm warten und dann davon 2 Karten einbauen.

Pumpi74
2016-01-15, 17:33:32
Schon möglich aber dafür sollte die Karte dann wirklich 16GB HBM2 haben. (2+8GB)

Jup, die Vive wird wohl 16xMSAA brauchen... :freak:

horn 12
2016-01-15, 17:42:51
Sagte ich doch dass man über das gesamte Jahr 2016 mit einer Fury (X) oder GTX 980TI nix falsch machen kann.
Zudem limitieren die 4GB bei Ultra HD kaum, bis gar nicht. Zumindest bei AMD´s Furie Serie.

Nightspider
2016-01-15, 17:44:30
Jup, die Vive wird wohl 16xMSAA brauchen... :freak:

Ach du würdest dir eine HighEnd Karte für 2016 mit nur 4GB kaufen? Schön dumm sage ich nur. :tongue:

Alleine Star Citizen braucht schon langsam mehr als 4GB VRAM in Full HD weil da immer heftigerer Content dazu kommt. Und das obwohl es extrem sparsam mit VRAM umgeht wie alle CryEngine spiele.

Mit 4GB brauchst du echt nicht mehr antanzen 2016.

Pumpi74
2016-01-15, 17:48:08
Ach du würdest dir eine HighEnd Karte für 2016 mit nur 4GB kaufen?

Eine MGPU Karte für Starcitizen @ Desktop würde ich mir garnicht kaufen. MGPU ist @ 2D tot.

Für VR Rudimentärgrafik brauchst du nicht sehr viel Ram, du brauchst Rohleistung auf der GPU und der CPU.

Nightspider
2016-01-15, 18:53:48
VR Rudimentärgrafik? Entweder weißt du nicht was VR ist oder du verbindest VR automatisch nur mit Lemminge-Grafik.

Es gibt Leute die wollen aktuelle Games in VR spielen und das flüssig. Intern lässt das Oculus Rift die Grafikkarte Spiele in ~1600*1500 rendern oder so habe ich neulich gelesen.

Ich bin bestimmt auch nicht der Einzige der Star Citizen mit VR spielen will. Und für andere Games gibts auch Mod welche zB. GTA5 und Co VR tauglich machen.
Wobei dafür wahrscheinlich nicht mal eine Dual-Fiji Karte reichen wird.

Botcruscher
2016-01-15, 19:18:44
Ach du würdest dir eine HighEnd Karte für 2016 mit nur 4GB kaufen? Schön dumm sage ich nur. :tongue:
Erst mal sehen was kommt. Wenn demnächst 16nm Karten anstehen die in der Nähe von Hawaii sind, dann ist die Wurst eh gegessen.

Pumpi74
2016-01-15, 19:31:35
VR Rudimentärgrafik? Entweder weißt du nicht was VR ist oder du verbindest VR automatisch nur mit Lemminge-Grafik.

Nehmen wir mal an die Spieleproduzenten setzen eine GTX 980 voraus bei der Nutzung von VR !

Im CB Test schafft eine GTX 980 über 17 neue Spiele im Schnitt 81,5 Durchschnitts-FPS in normaler Qualität (nicht Maximum). Bei der Auflösung der Rift wären das dann circa 70FPS. Durchschnitts FPS wohlgemerkt ! Das sind vielleicht 60 Minimum FPS. Nun braucht man aber 90 FPS im Minimum um nicht SeekranK zu werden @ VR. Das heißt die Entwickler werden bei Titeln auf aktuellem Grafikniveau nicht mal "normale Qualität" anvisieren, sondern eher lowQuality für die VR. Wenn man bedenkt das Kantenglättung sehr nötig ist @ VR dann braucht man natürlich noch Luft. Da wären wir schon bei UltraLowQuality !

Da braucht eine X2 dann nicht mehr viel Vram.

http://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/2/#diagramm-assassins-creed-unity-1920-1080

Nightspider
2016-01-15, 19:59:42
Dual-Fiji hat aber nicht die Leistung von einer GTX980 sondern von dreien.

Das sollte für alle aktuellen Games auf Hoch reichen in der Rift-Renderauflösung.

Und die neuen Games von 2016 werden wieder hochauflösendere Texturen haben als die alten Games.
Aber natürlich muss man das abwarten. 4GB wären mir aber zu riskant.

Zumal du die Karte ja nicht nur für VR nutzt sondern auch normale Games in 2D und 4K damit spielen willst. Und dann sind 4GB definitiv zu wenig für 2016 bei dem Preis, welchen Dual-Fiji haben wird.

Pumpi74
2016-01-15, 20:11:47
Dual-Fiji hat aber nicht die Leistung von einer GTX980 sondern von dreien....

Ist jetzt auch ein Punkt der Sichtweise. Ich gehe davon aus das erstmal für eine breite Basis programmiert wird. Selbst bei der VR Klientel dürften User mit zwei Highendkarten im Rechner klar in der Minderheit sein. Ich glaube kaum das für diese Leute gleich ein HighGrafikLevel kreiert wird. Ein Grafikmenü wie in Crysis 3 wird man sicher vergebens suchen.

Nightspider
2016-01-15, 20:35:36
Ich würde aber auch mal frech behaupten das sich der Großteil der VR-Interessierten hier im Forum weniger für die billigen Casual-VR-Games interessiert sondern eher für das was Valve, CryTek und Cloud Imperium Games produzieren und auch selbst per Mods normale Spiele mit ein bisschen frickelei VR tauglich machen würden. :)

Kriton
2016-01-16, 13:36:36
Mal ganz abgesehen davon, dass fraglich ist, ob dieses Forum repräsentativ ist, wäre weiterhin die Frage, in welcher Grafikqualität sie zu spielen bereit wären. Ich habe Batman:AK z.B. durchaus in Medium genossen (und ich stehe VR positiv gegenüber).

Und SC in VR (abgesehen davon, dass das nicht oberste Priorität zu haben scheint), wird mit dem FPS sicher schwierig umzusetzen (hinsichtlich der Übelkeit) und SC und VR ist jetzt sicher auch nicht der (verhältnismäßige) Massenmarkt für VR - ggf. ein nicht unwichtiger Multiplikator.

IMHO schließt Du hier von Dir selbst (und einigen weiteren in diesem Forum) zu sehr auf die "Masse". Was zugegebenermaßen viele (hier) tun (mich eingeschlossen).

Nightspider
2016-01-16, 13:39:28
Ich schließe primär auf die Early Adopter hier im Forum und Leute die als Zielgruppe für Dual-Fiji in Frage kommen.

Wer Batman:AK auf Medium spielt kauft sich ja auch keine Dual-Fiji. Zumindest liegt das nicht nahe. ;)

Oder was genau meintest was ich auf die Masse schließe?

Kartenlehrling
2016-01-16, 13:52:28
Laut Intel,
kann man die vorzüge alle schon in grid2 + vorallem Autosport vergleichen.
Die gewonnte Speicherreduzierung kann in mehr FPS, in höhere Qualität oder es einfach lassen.

zb.
Raster Ordered View enable a new approach:
–Single geometry pass and fixed memory requirements
–Stable and predictable performance
–Scalable: easily trade-off image quality for performance/memory

Kriton
2016-01-16, 13:54:41
Ich schließe primär auf die Early Adopter hier im Forum und Leute die als Zielgruppe für Dual-Fiji in Frage kommen.

Wer Batman:AK auf Medium spielt kauft sich ja auch keine Dual-Fiji. Zumindest liegt das nicht nahe. ;)

Oder was genau meintest was ich auf die Masse schließe?

Pumpi74 ging ja davon aus, dass eher für nicht ganz so hohe Anforderung programmiert werden wird, während Du das anders gesehen hast (letztlich ging es ja von dem Wort "Rudimentärgrafik" aus).

Die Frage was die Entwickler tun werden, hängt von deren erwarteten Markt ab. Und ich glaube nicht, dass man dort den Schwerpunkt auf SC und VR legt. D.h. nicht, dass es nur 8-bit grafik wird (ich übertreibe bewusst), aber ich vermute, man wird eher auf einen weniger realistischen (und damit oftmals rechenleistungsmäßig weniger fordernden) Stil gehen um die FPS zu bekommen.

Wenn ich das mal so platt vergleichen und in den Raum werfen darf: Eher Borderlands als Crysis.

Nightspider
2016-01-16, 14:03:35
Achja, Rudimentärgrafik. ^^

Natürlich wird es auch ein breites Spektrum geben was die Grafik in VR Games betrifft.
Es wird low-quali casual Games geben und welche mit Spitzengrafik von CryTek und Co.

Und es gibt natürlich noch jede Menge normale Games die mit VR gespielt werden können, optional.
Jedenfalls würden, wie schon bereits gesagt, nicht alle Dual-Fiji Interessenten nur VR Games spielen weshalb mehr als 4GB VRAM schon extrem wichtig wäre. Zum jetzigen Zeitpunkt würde ich mir nichtmal mehr eine 980 kaufen wenn diese nur noch 300Euro kosten würde, außer als Übergangskarte.

Letztendlich weiß ich auch nicht wie viel VRAM die Games 2016 und 2017 benötigen werden und VRAM wird auch immer effizienter genutzt aber wenn schon viele Karten 8GB und manche sogar 12GB haben dann wird dieser in Zukunft auch genutzt werden, auch wenn vielleicht nur bei PC-only Games.

Kartenlehrling
2016-01-16, 14:18:12
Durch Nvidia Marketing und ihre 12gb TitanX wurdes es bei vielen eingeimpft das es in dieser Richtung geht, hat ja anscheinen funktioniert.

Nightspider
2016-01-16, 14:23:34
Es gibt ja auch genug Games die in 4K sau viel VRAM benötigen. Und wer mit Downsampling zockt braucht noch mehr.
Zwei GP104 reichen aus um Games wie Star Citizen in 8K bei 30fps zu zocken. Da braucht man schon bissl mehr VRAM. :D (eine Titan X schafft da ~12fps bei ~9,5GB VRAM Verbrauch :D)

Nee aber im Ernst, das liegt ja nicht nur am Nvidia Marketing das viel VRAM benötigt wird in 4K und ein bisschen Zukunftssicherheit möchte man schon haben. 8GB sollten es zumindest sein für 4K.

Zumal Dual-Fiji bestimmt wieder ~~1500 Euro kosten wird. Bissl länger als 10 Monate sollte die schon halten. :D

Hübie
2016-01-17, 00:30:03
Es ist ein Unterschied ob ein Spiel wirklich soviel Speicher benötigt (Auswirkungen auf Frametimes) oder sich diesen einfach nur genehmigt (Shadow of Mordor kommt mit 4 GB eigentlich gut klar - 3 sind grenzwertig). Und wie zum Teufel kommst du darauf, dass zwei Fiji drei GM204 ersetzen könnten? Weil im SLi die Skalierung >2 kaputt ist? Dann kommt das hin. Ansonsten, von der Rohleistung, ist es schlicht gar nicht ohne weiteres möglich (TDP). Mit Vesuvius XT hat man den Bogen überspannt. Gemini wird afaik eher eine dual Nano. Das macht dann runde 20-25% mehr Performance als 980 SLi @stock (~1200 MHz).

Ich frage mich jetzt angesichts der Tatsache dass HBM2 nun offiziell ist, AMD vielleicht auf Gemini 2*8 GB pro Interposer anbietet und deshalb eine starke Verschiebung statt findet? Ist das schon diskutiert worden? Fiji wird ja unter Umständen auch noch einmal aufgewärmt und mit 8 GB versehen. Kann mir nur schwer vorstellen dass man den Chip schon wieder absägt.

iuno
2016-01-17, 01:04:32
Ich frage mich jetzt angesichts der Tatsache dass HBM2 nun offiziell ist, AMD vielleicht auf Gemini 2*8 GB pro Interposer anbietet und deshalb eine starke Verschiebung statt findet? Ist das schon diskutiert worden? Fiji wird ja unter Umständen auch noch einmal aufgewärmt und mit 8 GB versehen. Kann mir nur schwer vorstellen dass man den Chip schon wieder absägt.
Was ist offiziell? Hynix hat HBM2 noch nicht in der Produktliste, lediglich eine Vorschau ist auf der Info-Seite zu HBM, also nicht mehr als bisher auch. Von Samsung habe ich auch noch nichts gehoert.
Ja, wir haben das diskutiert. Es haengt imho davon ab, wie gross der grosse Polaris ist. Wenn er ueber Fiji liegt, macht es keinen Sinn, die X2 noch zu bringen. Wenn er nur wenig unter Fiji liegt, macht es wohl auch keinen Sinn Fiji noch mit 8 GiB zu bringen.

Nightspider
2016-01-17, 01:04:43
Und wie zum Teufel kommst du darauf, dass zwei Fiji drei GM204 ersetzen könnten?

Indem ich mir 4K Benchmarks anschaue in denen Fiji oft ~30% vor einer GTX980 liegt. Manchmal zwar auch deutlich weniger aber manchmal auch 50%. Im optimalen Fall (2*150%) wäre Dual-Fiji bei guter Skalierung (dank VR-Crossfire) so schnell wie 3 Karten.

Ist doch gar nicht so schwer mit der Prozentrechnung Hübie. ;)

Das dies auf alle Games zutreffen muss habe ich ja auch nicht gesagt. Ausnahmen bestätigen die Regel. Aber selbst mit 30% Vorsprung sind ergeben sich 260% 980 Leistung.

Warum ich 4K Benchmarks nehme? Weil diese nicht so stark vom Treiberoverhead verfälscht sind und die Rohpower besser widerspiegeln.
Und da die meisten VR-Games wahrscheinlich mit DX12 kommen werden, zumindest die Guten Spiele, dürfte die GCN Architektur deutlich besser ausgenutzt werden, nicht zuletzt dank der ACEs.

Es ist ein Unterschied ob ein Spiel wirklich soviel Speicher benötigt (Auswirkungen auf Frametimes) oder sich diesen einfach nur genehmigt (Shadow of Mordor kommt mit 4 GB eigentlich gut klar - 3 sind grenzwertig).

Das ist nichts Neues aber da würde ich beim Latenz-sensitiven VR kein Risiko eingehen wollen.

iuno
2016-01-17, 01:24:33
Wie war das mit dem Lesen? "zwei Fiji" hast du doch sogar zitiert...

Nightspider
2016-01-17, 01:30:32
Touché, bin übermüdet. ^^

horn 12
2016-01-19, 11:18:22
Ob Fiji ein Update erhalten wird mit HBM2 Speicher und höherem Takt >=1150 Mhz
gehalten wird bis Polaris (XT) in den Markt entlassen wird?
Zusammen mit Gemini und 2x 8GB HBM Speicher?

iuno
2016-01-19, 11:40:18
Hynix hat mit der Massenproduktion von HBM iirc Ende 2014 begonnen. Fiji kam dann Mitte 2015 auf den Markt, mit schlechter Verfuegbarkeit. Samsung hat heute vermeldet, dass sie jetzt mit der Massenproduktion begonnen haben. Es gibt also erstmal noch keinen Grund, 'bald' auf ein Update zu hoffen.
Zudem bleibt es dabei, es haengt von dem grossen Polaris Chip ab, ob ueberhaupt ein Update kommt.

Knuddelbearli
2016-01-19, 16:50:46
1150 sicher nicht wenn dann eventuell 1050 für Fury und 1100 für Fury X. Wobei 1100 schon heftig wären

Hübie
2016-01-19, 17:11:00
Indem ich mir 4K Benchmarks anschaue in denen Fiji oft ~30% vor einer GTX980 liegt. Manchmal zwar auch deutlich weniger aber manchmal auch 50%. Im optimalen Fall (2*150%) wäre Dual-Fiji bei guter Skalierung (dank VR-Crossfire) so schnell wie 3 Karten.

Ist doch gar nicht so schwer mit der Prozentrechnung Hübie. ;)

Das dies auf alle Games zutreffen muss habe ich ja auch nicht gesagt. Ausnahmen bestätigen die Regel. Aber selbst mit 30% Vorsprung sind ergeben sich 260% 980 Leistung.

Warum ich 4K Benchmarks nehme? Weil diese nicht so stark vom Treiberoverhead verfälscht sind und die Rohpower besser widerspiegeln.
Und da die meisten VR-Games wahrscheinlich mit DX12 kommen werden, zumindest die Guten Spiele, dürfte die GCN Architektur deutlich besser ausgenutzt werden, nicht zuletzt dank der ACEs.



Das ist nichts Neues aber da würde ich beim Latenz-sensitiven VR kein Risiko eingehen wollen.

Mein Gedankengang war eher dass die VR-Lösungen allesamt keine Auflösungen haben die auch nur ansatzweise an 4k kommen und die 980 ja bis 1440p gut an Fiji dran klebt.*

Was Speicherbedarf bzw. Latenz bei VR angeht weiß ich nicht ob es wirklich so relevant ist. Immerhin sind das eher Nanosekunden, also denke ich wird man zuerst anderswo Zeit herausholen.

*Wir bleiben gedanklich bei mGPU.

Edit: Ich kann mir nur schwer vorstellen, dass man Fiji jetzt schon sterben lässt. Genau so wenig wie die Fortführung mit 4GB wahrscheinlich sind.

aufkrawall
2016-01-19, 17:16:43
Indem ich mir 4K Benchmarks anschaue in denen Fiji oft ~30% vor einer GTX980 liegt.
Bei hardware.fr liegt eine 980 OC in 4k in einigen Spielen aber auch vor der Fury X. ;)

RLZ
2016-01-19, 17:24:29
Und da die meisten VR-Games wahrscheinlich mit DX12 kommen werden, zumindest die Guten Spiele, dürfte die GCN Architektur deutlich besser ausgenutzt werden, nicht zuletzt dank der ACEs.
Die meisten VR Spiele werden wohl mit Unity erstellt. Über CPU Effizienz macht man sich da besser keine Gedanken.

Mein Gedankengang war eher dass die VR-Lösungen allesamt keine Auflösungen haben die auch nur ansatzweise an 4k kommen und die 980 ja bis 1440p gut an Fiji dran klebt.*
Die gerenderte Auflösung ist nicht weit von 4k weg.

Nightspider
2016-01-19, 17:30:28
Die meisten VR Spiele werden wohl mit Unity erstellt. Über CPU Effizienz macht man sich da besser keine Gedanken.


Wie du das meinst musst du mir jetzt aber nochmal erklären.

Ich bezog mich bei DX12 jetzt zumindest nur auf die effizientere Ausnutzung der GPU Leistung. Stichwort: ACEs und schlechte AMD Treiber

Bei hardware.fr liegt eine 980 OC in 4k in einigen Spielen aber auch vor der Fury X. ;)

Schon klar das die 980 sich gut übertakten lässt, deswegen habe ich jetzt bewusst mit einer nicht übertakteten 980 gerechnet.

fondness
2016-01-24, 15:45:16
Dual-Fiji auf der VRLA (Virtual Reality Los Angeles):
https://twitter.com/FalconNW/status/691031637182656516

AnarchX
2016-01-24, 17:42:37
https://twitter.com/Roy_techhwood/status/690942579030958080
Wohl eine Full-Size-Karte mit Luftkühlung. Da wird wohl der Basis-Takt noch unter R9 Nano liegen.
Soll AMD damit noch etwa Promotion machen, aber für den Retail-Markt sehe ich die Karte nicht mehr.

iuno
2016-01-24, 17:57:24
https://twitter.com/Roy_techhwood/status/690942579030958080
Wohl eine Full-Size-Karte mit Luftkühlung. Da wird wohl der Basis-Takt noch unter R9 Nano liegen.
Naja, das ist jetzt vielleicht sehr optimistisch aber die Karte auf diesem Bild ist imho eine Referenz-390 oder 380. Mit Takt < Nano koennten sie es lieber grad lassen und die 295X2 mit 16 GiB neu auflegen. Wenn ich es mir recht ueberlege, waere das vielleicht sogar gar nicht so dumm, gerade fuer VR (mal von dem damit zusammenhaengenden Spott abgesehen). Waere dann fuer VR wohl relativ konkurrenzlos, solange Nvidia kein Aequivalent bringt.
Das Teil was sie verschenken muss ja nicht zwangslaeufig mit einer Dual-Fiji sein, auch wenn diese Konfiguration ebenfalls vor Ort ist. Die haben das Teil gestern verschenkt, irgendwer sollte endlich quatschen...
Interessant ist aber auch, dass es den Falcon Tiki bisher nur mit Nvidia Hardware gibt.

M4xw0lf
2016-01-24, 20:23:08
https://twitter.com/Roy_techhwood/status/690942579030958080
Wohl eine Full-Size-Karte mit Luftkühlung. Da wird wohl der Basis-Takt noch unter R9 Nano liegen.
Soll AMD damit noch etwa Promotion machen, aber für den Retail-Markt sehe ich die Karte nicht mehr.

Nur weil ein Radiallüfter draufsitzt, muss das nicht heißen, dass in der Mitte nicht noch zwei Kühlschläuche rausgehen. ;)

iuno
2016-01-24, 20:34:59
In dem Case ist aber kein Platz fuer einen Radi
edit: nehme das zurueck, aber zumindest haetten sie es umbauen muessen: http://www.xbitlabs.com/images/news/2012-06/fnw_tiki_2.jpg

BlacKi
2016-01-25, 10:55:19
wenn man sich das boardlayout ansieht, sieht man eigentlich nur 2 nano karten, zirpen 2 nano karten eigentlich lauter als eine gemini?`

bei einer 900-1000 euro karte wäre solches zirpen echt eine schande.
http://www.computerbase.de/2016-01/amd-htc-nutzt-radeon-fury-x2-fuer-die-vive-praesentation/

M4xw0lf
2016-01-25, 11:01:46
In dem Case ist aber kein Platz fuer einen Radi
edit: nehme das zurueck, aber zumindest haetten sie es umbauen muessen: http://www.xbitlabs.com/images/news/2012-06/fnw_tiki_2.jpg
Bliebe höchstens noch ein gemeinsamer Radi für 2 GPUs und die CPU... :ulol:
>400W an einem 12cm Radiator :uup:

wenn man sich das boardlayout ansieht, sieht man eigentlich nur 2 nano karten, zirpen 2 nano karten eigentlich lauter als eine gemini?`

bei einer 900-1000 euro karte wäre solches zirpen echt eine schande.
http://www.computerbase.de/2016-01/amd-htc-nutzt-radeon-fury-x2-fuer-die-vive-praesentation/
Moooment, das gezeigte Board

http://pics.computerbase.de/7/0/1/5/1/1-630.3902980805.jpg

kann eigentlich unmöglich zu der gezeigten Karte passen. Die 8xPin-Anschlüsse werden wohl kaum in Richtung des Radiallüfters liegen.

https://pbs.twimg.com/media/CZa4nSYUEAAcM6u.jpg:large

Kann natürlich nur ein Renderbildchen ohne echte Aussage sein.

Hübie
2016-01-25, 11:06:58
15 große Induktoren lassen darauf schließen, dass hier viel Energie verbraten wird. Das bekommst du sicher nicht mit einem popeligen Radiallüfter in den Griff. ;)

M4xw0lf
2016-01-25, 11:11:29
Wenn sie die Gesamtleistung auf 300W einbremsen, wäre das nicht mal ausgeschlossen.

iuno
2016-01-25, 11:39:59
Das ergibt aber leistungstechnisch keinen Sinn. Ist dann quasi eine sparsamere 295x2 ohne wakü

Botcruscher
2016-01-25, 12:06:52
Schneller als die 2 Hawaii dürften 2 Fiji auch bei 300W sein. Die 375W werden es aber schon werden. Mit Hybridwakü passt das schon. CPU ist entweder mit eingebunden oder Luftgekühlt.
Der Sinn der Karte hat sich eh schon lange erübrigt.

iuno
2016-01-25, 12:37:08
Vielleicht, aber eben nicht merklich. Die Nano ist ohne Tweaks schon kaum schneller als Hawaii (390X, okay, hat 5% mehr Takt als auf der 295x2). In UHD ist es ein bisschen, bei FHD quasi nichts. Und die Rift liegt sehr viel naeher an FHD als an WQHD.

Moooment, das gezeigte Board

http://pics.computerbase.de/7/0/1/5/1/1-630.3902980805.jpg

kann eigentlich unmöglich zu der gezeigten Karte passen.
Muss sie ja auch nicht, hat damit ja nichts zu tun ;) Ich glaube immer noch nicht, dass das Giveaway eine Fiji X2 drin hatte.

M4xw0lf
2016-01-25, 13:11:50
Muss sie ja auch nicht, hat damit ja nichts zu tun ;) Ich glaube immer noch nicht, dass das Giveaway eine Fiji X2 drin hatte.
Ein bekanntes Modell ist es aber offenbar auch nicht, jedenfalls gab es diese Kühlerabdeckung mit Radeon-Schriftzug noch nie in Verbindung mit einem Radiallüfter. Oder?

Botcruscher
2016-01-25, 13:21:55
Radialhybriden gab es bis jetzt nur bei NV Karten. Wobei Radiallüfter eben der kleineren Bauform geschuldet sind.

Kartenlehrling
2016-01-25, 13:34:15
Um warme Stauluft zu vermeinden gibts halt nichts bessers als die Radiallösunge,
da sie die Warme luft aus dem Gehäuse drücken.

iuno
2016-01-25, 13:53:02
Ein bekanntes Modell ist es aber offenbar auch nicht, jedenfalls gab es diese Kühlerabdeckung mit Radeon-Schriftzug noch nie in Verbindung mit einem Radiallüfter. Oder?
die Karte auf diesem Bild ist imho eine Referenz-390 oder 380.

http://www.ozone3d.net/public/jegx/201506/amd-radeon-r9-390x-grenada-gpu-02.jpg
http://2a6b40693c0c06c5a8e2-2c4d42d5d35878ad78a4c213fddee02c.r52.cf1.rackcdn.com/images/tGjzGD9kBm4Y.878x0.Z-Z96KYq.jpg
http://2a6b40693c0c06c5a8e2-2c4d42d5d35878ad78a4c213fddee02c.r52.cf1.rackcdn.com/images/7AsTRIlIjMTX.878x0.Z-Z96KYq.jpg
http://pbs.twimg.com/media/CZa4nSYUEAAcM6u.jpg

M4xw0lf
2016-01-25, 15:14:41
http://www.ozone3d.net/public/jegx/201506/amd-radeon-r9-390x-grenada-gpu-02.jpg
http://2a6b40693c0c06c5a8e2-2c4d42d5d35878ad78a4c213fddee02c.r52.cf1.rackcdn.com/images/tGjzGD9kBm4Y.878x0.Z-Z96KYq.jpg
http://2a6b40693c0c06c5a8e2-2c4d42d5d35878ad78a4c213fddee02c.r52.cf1.rackcdn.com/images/7AsTRIlIjMTX.878x0.Z-Z96KYq.jpg
http://pbs.twimg.com/media/CZa4nSYUEAAcM6u.jpg

Ah, überlesen. Stimmt, dieses Referenzdesign gab es ja zumindest in den Slides zur Vorstellung mal zu sehen.

HOT
2016-01-25, 15:36:59
Dual Hawaii -> 450W TDP, 460W Max-Power
Dual Fiji (Nano) -> 350W TDP (eben 2x 175W), Max-Power unbekannt

Man schaue sich das PCB an, da sieht man recht klar, dass es sich hier um zwei Nanos auf einer Platine handelt.

OBrian
2016-01-25, 23:21:32
Allein diese 100W weniger werden die Karte sicherlich attraktiver machen als die Dual-Hawaii. Der kleine RAM ist langfristig natürlich zu wenig, aber kurzfristig wohl noch ok, und solche Karten steckt sich keiner in den PC, um 5 Jahre damit ausgesorgt zu haben.

Jedenfalls dürfte der Entwicklungsaufwand für AMD sehr gering sein, man muß ja praktisch nur ein neues PCB entwerfen, und das nimmt ihnen möglicherweise auch noch Sapphire ab. Die Verkaufszahlen sind auch sicherlich nicht so irre hoch, aber was soll's, zumindest als PR-Stunt ist alles gut, was nicht zuviel Verlust bringt.

Sunrise
2016-01-25, 23:46:56
Und es hält sie aufgrund VR im Gespräch und überbrückt die Zeit bis Mitte des Jahres.

dildo4u
2016-01-31, 13:43:33
Dual Fiji hat 12 TFlops bei 375 Watt.

http://wccftech.com/amd-fury-x2-12-tflop-compute-vrla-winter-expo/

y33H@
2016-01-31, 13:45:41
Von 375W hat Roy nichts gesagt, nur 12 TF.

AnarchX
2016-01-31, 13:49:37
12TF@375W wären aus Marketingsicht ja eher bescheiden.
Mehr als 300W (PLX inbegriffen), sollten es aber nicht sein.

M4xw0lf
2016-01-31, 13:49:42
Können sogar weniger als 375W sein. Die Nano mit 185W kommt ja auf ca 6,5 TF.

AnarchX
2016-01-31, 13:51:36
Können sogar weniger als 375W sein. Die Nano mit 185W kommt ja auf ca 6,5 TF.
Die Nano wird mit bis zu 8,19 TFLOPs @ 175W von AMD beworben.

dildo4u
2016-01-31, 13:58:08
Werden vermutlich Thermische Limit's sein die den Takt unten halten,ich glaube nicht das sie die Karte mit zwei Wasserkühlern und Dual Radiator verkaufen werden wird vermutlich ne Luftkühlung sein.

M4xw0lf
2016-01-31, 14:02:54
Die Nano wird mit bis zu 8,19 TFLOPs @ 175W von AMD beworben.
Meine Werte waren halt realistisch :tongue:
Und von denen ausgehend sollten 12TF bei ~350W machbar sein.

aufkrawall
2016-01-31, 14:05:23
Die Nano wird mit bis zu 8,19 TFLOPs @ 175W von AMD beworben.
Das wird in der "Praxis" wohl um Welten nicht hinkommen, wenn die X bei Spielen schon über 300W ziehen kann.

dargo
2016-01-31, 14:43:23
Mal grober Anhaltspunkt von TH.
http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-10.html

Avg. Takt von ca. 875Mhz bei 186W.
http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-9.html

Das wären von der Fury X ausgehend 7,17 TFLOPs. Bei 12 TFLOPs wären imo ca. 300-320W realistisch. Jetzt ist halt offen welche Kühlung verwendet wird. Bei der Nano war es afaik so, dass schon beim Austausch vom Lüfter der Avg.Takt etwas gestiegen ist, womit wieder die TFLOPS steigen. Oder eben der Verbrauch bei gleichem Takt sinkt. Ca. 300W wären also durchaus denkbar.

Edit:
Aber ganz ehrlich. Ich weiß immer noch nicht für wen diese Karte mit 2x 4GB gut sein soll? Das verkommt mir immer mehr zu einer Machbarkeitsstudie.

aufkrawall
2016-01-31, 16:29:34
Mal grober Anhaltspunkt von TH.
http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-10.html

Avg. Takt von ca. 875Mhz bei 186W.
http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-9.html

Bei HPC ist der Verbrauch viel höher als bei Gaming bzw. der Takt um über 100Mhz geringer (wenn man dafür Torture heranzieht) und eigentlich ist die Flop-Angabe nur dafür interessant.

dargo
2016-01-31, 16:34:29
Und welchen Spieler sollte jetzt HPC bzw. Furmark interessieren?

aufkrawall
2016-01-31, 16:42:24
Welchen Spieler betreffen flop-Angaben?

fondness
2016-01-31, 16:47:12
Ist ja bei NV-GPUs nicht anders, dass sie bei höherer Last niedriger takten, von daher...

Gipsel
2016-01-31, 18:44:26
Bei HPC ist der Verbrauch viel höher als bei Gaming bzw. der Takt um über 100Mhz geringer (wenn man dafür Torture heranzieht) und eigentlich ist die Flop-Angabe nur dafür interessant.Die Aussage, daß bei HPC der Verbrauch höher wäre, ist so allgemein falsch. Es gibt da sehr weit variierende Workloads. Bei welchen, die z.B. beinahe nur die ALUs quälen, nicht viel mit dem local memory machen und auch die Textureinheiten und ROPs praktisch unangetastet lassen, dürfte der Verbrauch niedriger als bei einem fordernden Spiel sein. Und bei Workloads, die komplett bandbreitenlimitiert sind (und die ALUs z.B. nur 10-20% Auslastung zeigen), dürfte sich der Verbrauch sogar *deutlich* darunter bewegen. Längst nicht jeder (es ist sogar eine ziemliche Minderheit) läßt im HPC-Bereich exklusiv SGEMM oder Ähnliches auf GPUs laufen (und selbst da peaken die GPUs nicht, es hakt aber zumindest einige Bedingungen ab, ist also zumeist etwas, mit recht hohem Verbrauch [aber wohl unterhalb von Furmark Torture]).

aufkrawall
2016-01-31, 19:01:25
Es gibt aber HPC-Workloads, die wesentlich näher an Torture dran sind als Spiele.
Dass der Stromverbrauch bei entsprechender Ausnutzung der Rechenleistung höher als bei Spielen sein muss, kann man sich auch daher ableiten, dass die Spieleleistung der Radeons nicht zur Flop-Leistung passt.
Nimm mal als Beispiel einen auf die jeweilige GPU gut optimierten Compute-Kernel fürs Mining (wo die Radeons häufig deutlich leistungsfähiger sind als die Geforces). Das heizt wie Wahnsinn und wird dir sicher Igor auch bestätigen können.

Gipsel
2016-01-31, 21:01:43
Es gibt aber HPC-Workloads, die wesentlich näher an Torture dran sind als Spiele.Und es gibt Spiele, die wesentlich näher an Torture dran sind als andere Spiele. Die Variabilität bei HPC ist wohl größer als bei der Mehrzahl der Spiele. Im Mittel (falls man das überhaupt irgendwie sinnvoll festmachen kann) dürfte HPC eher unter fordernden Spielen liegen.
Dass der Stromverbrauch bei entsprechender Ausnutzung der Rechenleistung höher als bei Spielen sein muss, kann man sich auch daher ableiten, dass die Spieleleistung der Radeons nicht zur Flop-Leistung passt.Das Argument geht fehl. Zum einen nutzt ein Großteil der HPC-Workloads die Rechenleistung gar nicht besser als Spiele und zum zweiten vernachlässigen HPC-Workloads durchaus einige Teile von GPUs (die dann logischerweise weniger Strom verbrauchen). Ein gut optimierter Post-Processing-Shader steht z.B. irgendwelchen energiehungrigen HPC-Workloads im Prinzip in nichts nach. Werden die Datenstrukturen und Algorithmen komplizierter, mappen also nicht mehr so perfekt auf die Architektur der GPU, oder benötigt der gerade benutzte Algorithmus einfach recht viele Bytes/Flop, haben jede Menge HPC-Workloads doch erheblich mit Auslastungsproblemen zu kämpfen. Das ist gerade wegen der bereits erwähnten tendentiell höheren Variabilität der Workloads oft sogar ausgeprägter als bei Spielen.
Nimm mal als Beispiel einen auf die jeweilige GPU gut optimierten Compute-Kernel fürs Mining (wo die Radeons häufig deutlich leistungsfähiger sind als die Geforces). Das heizt wie Wahnsinn und wird dir sicher Igor auch bestätigen können.GPU-Mining != HPC

TLDR:
HPC-Workloads als Kategorie ist sehr breit und die Aussage, daß HPC-Workloads allgemein stromhungriger sind als Spiele, ist nicht haltbar. Es trägt der großen Variabilität schlicht keine Rechnung.

Unicous
2016-02-01, 15:07:35
Bei Zauba sind weitere "102-C98101-00" aufgetaucht. Ich bin mir nicht so sicher, dass das Polaris-GPUs sind und gehe eher von Refreshes oder gar Dual-Fiji aus.

Nakai
2016-02-01, 17:43:37
Ich denke auch, dass das keine Polaris-GPU sind.

Ich denke her, dass der "102-D00001-00" Polaris10 entspricht.

Grabhopser
2016-02-01, 18:38:04
Dual-Fiji ist doch eher C88801-00, hat auch den gleichen Zollwert wie Gemini

OBrian
2016-02-01, 23:40:47
evtl. ist es ja ein "refurbished" Fiji, also für die neue Serie vorbereitet, mit irgendwelchen Abwandlungen, z.B. anderem RAM. Oder auch nur minimal verändert.

Grabhopser
2016-02-03, 09:41:19
1-Feb-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO GRAPHIC CARD)P/N 102-C99398-00 (FOC) Canada Hyderabad Air Cargo NOS 2 221,206 110,603

Das sieht mit eher nach einem "refurbished" Fiji aus, die C Serie war mit 981 wohl doch noch nicht ausgereizt.:wink:

Sunrise
2016-02-03, 09:55:41
1-Feb-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO GRAPHIC CARD)P/N 102-C99398-00 (FOC) Canada Hyderabad Air Cargo NOS 2 221,206 110,603

Das sieht mit eher nach einem "refurbished" Fiji aus, die C Serie war mit 981 wohl doch noch nicht ausgereizt.:wink:
Das muss was ziemlich Dickes sein, sieht stark nach Dual-Fiji aus.

AngelDust 32
2016-02-03, 10:20:02
Bei knapp 1500€ sehr wahrscheinlich.

Leonidas
2016-02-04, 05:31:21
Dual-Fiji wird laut diesem Posting
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10933241#post10933241
aber mit "C883" gekennzeichnet".

Grabhopser
2016-02-04, 08:58:24
Interesting, C883 ist bei Zauba nicht zu finden, dort ist C888 der beste Dual-Fiji Kandidat.
Auch interessant ist die 109 am Anfang.

MilesEdgeworth
2016-02-04, 10:08:27
Wahrscheinlich denken die sich bei AMD inzwischen im Voraus gezielt Bezeichnungen für die versendeten Chips aus mit denen sie die Spekulanten verwirren können und lachen sich dann an den Bemühungen etwas abzuleiten schlapp.. :ugly:

Hübie
2016-02-04, 11:48:46
Wieso kommt die jetzt eigentlich so spät? Hab das nicht so verfolgt? Hängt das mit Vive / Rift zusammen?

Sunrise
2016-02-04, 11:57:35
Wieso kommt die jetzt eigentlich so spät? Hab das nicht so verfolgt? Hängt das mit Vive / Rift zusammen?
Um es kurz zu fassen: Weils sprichwörtlich keine Sau interessiert und Polaris alle interessiert.

AMD muss bzgl. VR eben was zeigen, und da bieten sich eben zwei GPUs (auf Fiji-Basis) an. Da sie aber selbst wissen, dass Polaris viel geiler wird, ist Dual-Fiji eigentlich schon eine ziemliche Todgeburt. Zusätzlich kann man noch ein paar Fijis verwursten, damit man (das Problem hat AMD öfter) Lagerbestände abbauen kann.

Was war nochmal deine Frage?

tm0975
2016-02-04, 12:54:11
Wieso kommt die jetzt eigentlich so spät? Hab das nicht so verfolgt? Hängt das mit Vive / Rift zusammen?

ja!

Kartenlehrling
2016-02-13, 09:29:44
Scott Wasson
Checkmate, rumor sites.
https://twitter.com/scottwasson/status/698353577765556224


Was soll damit gesagt werden?

M4xw0lf
2016-02-13, 09:34:18
https://twitter.com/scottwasson/status/698353577765556224


Was soll damit gesagt werden?
Ich kapiers auch nicht... aber einer von diesen Blöcken würde sich gut machen auf meinen Schreibtisch :usweet:

iuno
2016-02-13, 09:39:43
Nichts
Bezieht sich vermutlich auf https://mobile.twitter.com/scottwasson/status/697992391710474240
Reaktion der Spekulanten: dual Fiji ist auf dem weg! Reaktion darauf: eben das Bild mit "triple Fiji"

M4xw0lf
2016-02-13, 09:52:28
Nichts
Bezieht sich vermutlich auf https://mobile.twitter.com/scottwasson/status/697992391710474240
Reaktion der Spekulanten: dual Fiji ist auf dem weg! Reaktion darauf: eben das Bild mit "triple Fiji"
Das ergibt Sinn. (y)

Kartenlehrling
2016-02-13, 09:59:41
Wenn man zwei Fiji in die Kamera hält und
"alle" auf die dualkarte FijiX2 warten die eigentlich schon vor 3-6 Monate präsentiert werden sollte,
welche andere Reaktion erhofft man sich denn sonst davon?

Kartenlehrling
2016-02-19, 21:48:13
https://twitter.com/Roy_techhwood/status/700745825681428480

Ich dachte zuerst die Schrift wär auf dem Kopf, aber wenn man sich das Orginal ansieht macht es wieder Sinn.
https://pbs.twimg.com/media/CZa4nSYUEAAcM6u.jpghttps://pbs.twimg.com/media/CbmMf2IVAAAyv1i.jpg

Leonidas
2016-02-21, 08:45:45
War die Reaktion darauf, das WCCF Tech aus einem Twitter-Bild mit 2 Fiji-Chips in der Hand eine Story über eine jetzt kommende Fury X2 gemacht hatte:
http://wccftech.com/amd-teases-dual-fiji-xt-fury-x2-flagship-graphics-board/

y33H@
2016-02-21, 10:27:02
Optisch haben die Kisten ja irgendwie was ... würde sich gut machen für den CV1-Test :ulol:

Kartenlehrling
2016-02-22, 20:35:51
ich sag nur AMD R9 Fury x HDMI 1.4 wenn man den pc an den TV anschließt ist das ganz toll..
Hier noch ein Video zum DP1.2a > HDMI2.0 Adapter, diesmal Intel iGPU.
https://www.youtube.com/watch?v=4aQYnH4v0fg&feature=youtu.be
Club 3D Mini DisplayPort to HDMI 2.0 adapter with Skylake NUC

iuno
2016-02-23, 10:56:48
https://community.amd.com/community/gaming/blog/2016/02/22/radeon-graphics-cards-recommended-for-vr-by-steam-performance-test

AMD beginnt schon mal damit, die "X2" zu positionieren (s. Tabelle) :ulol:

Last year at GDC we talked about multi GPU scaling in VR, where the application lets one GPU render for the left eye, and the other GPU for the right eye. Though the work implementing multi-GPU into this application is not finished, it’s already showing significant performance uplift over a single GPU on Radeon cards.
you don't say...

Kartenlehrling
2016-02-23, 13:35:48
AMD beginnt schon mal damit, die "X2" zu positionieren (s. Tabelle) :ulol:




Da diese Tabelle anscheinen der SteamVR Test ist dein Pull oder Troll versuch verpufft.

Der Score 11 ist wohl das maximale, man muss dann schon der Frame-Wert mit dazu eintragen.
Wie dieser Wert errechnend wird ist ja auch nicht nachvollziehbar.
Da ich schon Test gesehen haben wo ein i5 einen 6core i7 geschlagen hat wo beide mit einer gtx980ti befeuert wurde.
Somit ist dieser Test genauso viel Wert wie Nvidia CAN I rUN iT (http://www.geforce.com/games-applications/pc-games/battlefield-3/gpu-analyzer)

Ich glaube keiner Statistik die ich nicht selbst erfast oder manipuliert habe.

horn 12
2016-02-23, 13:45:06
2x Nano mit vielleicht 750 bis 800 Mhz Boost
Diese Karte wird sich wohl unter 1000 Euro wiederfinden.

iuno
2016-02-23, 13:46:20
Dass es um den Test von Steam geht, hast du ja richtig erkannt, dass das ein Trollversuch sein sollte nicht

Ich fand es nur eine Erwaehnung Wert ,dass man die "X2" listet. Manchmal machen User aus weniger einen Post (um nicht zu sagen "'Redakteure' aus weniger eine 'News'" ;) )

Kartenlehrling
2016-02-23, 17:35:07
Ich fand es nur eine Erwaehnung Wert ,dass man die "X2" listet.
Ich kann das aus dem Blog nicht rauslesen, kannst du mal die Stelle aus dem Blog makieren?!

iuno
2016-02-24, 11:03:58
Naja, natuerlich nicht woertlich, aber daher habe ich auch "X2" in Anfuehrungszeichen geschrieben.
2*Nano sollte genau das sein, was man fuer die X2 erwarten kann und gerade im VR Bereich will AMD damit ja antreten. Ich glaube nicht an einen Zufall, sie haetten ja auch 2 Fury X oder 2 normale Fury auflisten koennen.
Interessant wird nur dann noch Preis, wenn man bedenkt, dass die beiden Nanos in *dieser* Liste kaum ueber der 980 Ti stehen.

Ich bleibe gespannt, ob die X2 noch zu mehr kommt als in ein paar Demo- oder Testsysteme fuer Entwickler. Wenn Polaris 11 an Hawaii rankommt, koennte man in ein paar Monaten auch damit eine dual-GPU Karte bauen, die nochmal effizienter ist und mehr Speicher hat.

Dural
2016-02-24, 13:05:26
Die x2 ist ein flopp bevor sie auf den markt kommt, 4gb sind einfach zuwenig für so eine karte, das dürfte amd in der zwischen zeit auch bemerkt haben, den sonst wäre die karte schon längst auf dem markt.

Kartenlehrling
2016-02-24, 13:46:25
...., dass die beiden Nanos in *dieser* Liste kaum ueber der 980 Ti stehen.


Du machts es ja schon wieder, bis du wirklich nicht @Sontin?
Die Liste zeigt ein falsche Bild, die Gtx980ti stemmt den Maximal Wert allein 10.8 (11),
das heißt aber nicht das die "X2" wirlich so schwach ist, nur das nach Messwert 11 nichts mehr gibt oder das AMD Multigpu nicht greift.
Aber nicht das eine Gtx980ti auf Augenhöhe einer "X2" ist wie du es schon wieder suggerieren versucht.

iuno
2016-02-24, 13:47:26
@Dural: Was du schreibst ist nichts neues und es bringt auch nichts, das immer zu wiederholen.
Man muss da abwarten, wie sich der Kram mit VR entwickelt. Wenn die Karte als reines DevKit gesehen und von einigen Studios auch so genutzt wird, kann es sich schon fuer AMD lohnen.

wie du es schon wieder suggerieren versucht.
Voelliger Bloedsinn, nimm mal deine Fanbrille ab. Ich habe das extra relativierend betont, das hat deine Brille aber offenbar sauber rausgefiltert.
Selbstverstaendlich sind 2 Nanos nicht mit einer 980 Ti zu vergleichen, aber wenn du mich schon fuer so bloed haeltst, muss es natuerlich an mir liegen :rolleyes: Nein, ich formuliere trotzdem zukuenftig nicht jeden Gedankengang so aus, als wuerde ich mit einem Kindergartenkind sprechen.
Was VR betrifft muss man aber erstmal die Entwicklung abwarten. Das ist sowieso nur ein Nischenmarkt und nicht jeder, der sich jetzt eine VR Brille holt, hat automatisch SLI/XFire (inkl. dual GPU Karten) oder moechte sich das im gleichen Schritt zulegen. Die Entwickler muessen das Konzept "1 GPU pro Auge" aufnehmen, ordentlich umsetzen und darauf optimieren bevor eine dual GPU Konstellation da die theoretischen Vorteile wirklich ausspielen kann. Und damit das passiert, muss es sich fuer die Studios wirtschaftlich lohnen. Das passiert aber nicht, wenn es nur eine Handvoll (das ist eine Hyperbel, nicht dass du gleich wieder hysterisch wirst) Kunden gibt.

VR braucht hohe Frameraten. Wenn die VR Entwicklungen mit single GPU im Hinterkopf passieren, wird auch eine 980 Ti in diesen Titeln schon viel FPS schaffen. Und genau wie das Ranking bei Steam gibt es auch da eine Obergrenze. Wenn das VR Display 90 Hz hat und die GPU konstant 90 Frames schafft, bringt eine zweite GPU auch nichts mehr. Ich glaube zwar nicht, dass es so kommt und die Titel allesamt derart anspruchslos sind, aber die Entwickler werden sich wenn es um VR geht hueten, Performance fuer Optik zu opfern.

Kartenlehrling
2016-02-24, 14:18:42
Aber es hat doch einen Grund wieso du deinen Betrag hier im "Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015" platzierst und
nicht im VR Forum und auf die Missstände von fehlenden MultiGPU Support.

iuno
2016-02-24, 14:21:12
Ja, weil es um die X2 geht. Du selbst hast doch das komplette Thema abschweifen lassen und mich wiederholt als Trottel darzustellen versucht. also Schluss damit jetzt :rolleyes:

Screemer
2016-02-24, 15:41:42
es geht eben nicht um die x2 sondern da stet 2x nano. das 11 das max. ist wurde nun auch ausführlich dargelegt und hat 0 relevanz für die geschwindigkeit von 2xnano und so weiter und so fort. im vr-thread ist das wesentlich besser aufgehoben.

Akkarin
2016-02-24, 17:08:47
Wie wahrscheinlich/möglich wäre es dass die FijiX2 mit HBM2 und 8gb/die kommt ?

IIRC gibt es ja keine grundlegende unterschiede zwischen HBM2 und HBM, sondern nur besseres manufacturing.

iuno
2016-02-24, 17:34:19
Moeglich: ja
Wahrscheinlich: nein

Langversion:
Die Hoffnung gab es immer, allerdings auch immer Zweifel. Ob Fijis Speichercontroller die doppelte Frequenz mitmacht, darf bezweifelt werden.
Ich weiss auch nicht, ob der Controller mit Pseudo Channels umgehen kann.
Inzwischen wissen wir auch, dass HBM2 stacks groesser sind (Grundflaeche als auch Hoehe), es muesste also auch ein neuer Interposer her. Damit die Bandbreite passt muesste AMD auch gleich auch 4 Stacks und mangels 2Hi Stacks auf 16 GiB gehen.
Ich halte das angesichts der 'Naehe' von Polaris nicht mehr fuer wahrscheinlich. Wenn sich abzeichnet, dass der groessere der beiden Chips, die zu Beginn erscheinen an Hawaii ran kommt, ist das imho vom Tisch.

Botcruscher
2016-02-24, 17:51:53
Nahezu ausgeschlossen.

Gipsel
2016-02-24, 21:21:26
Ich weiss auch nicht, ob der Controller mit Pseudo Channels umgehen kann.Die sind optional, das Feature muss nicht genutzt werden. HBM2 funktioniert auch ohne (dann halt nur als Speedbump).
Inzwischen wissen wir auch, dass HBM2 stacks groesser sind (Grundflaeche als auch Hoehe), es muesste also auch ein neuer Interposer her.Ob es viel Sinn macht, Fiji neu aufzulegen, ist tatsaechlich fraglich. Aber ein neuer Interposer ist so ziemlich das Einfachste daran. Und die Hoehe erfordert maximal eine Anpassung des Kuehlers (wird vielleicht sogar einfacher, da bei Fiji die Stacks minimal niedriger als die GPU sind, mit HBM2 hat man dann vielleicht sogar ziemlich die gleiche Hoehe). Uebrigens, das Ballout ist bei HBM und HBM2 absolut identisch und die Specs geben sowieso nur das an. Sowohl bei HBM als auch HBM2 (was ja eigentlich fast nur ein Speedbump mit sehr wenigen neuen Features ist) haengt die physische Groesse des Stacks immer vom Hersteller, dem jeweiligen Prozess bzw. der Kapazitaet ab, die ist nirgendwo in der Spec festgeschrieben (nur fuer die ballout Area ist das wie gesagt der Fall).
Damit die Bandbreite passt muesste AMD auch gleich auch 4 Stacks und mangels 2Hi Stacks auf 16 GiB gehen.Was heisst "mangels 2Hi Stacks"? Momentan mangelt es an jeglichen HBM2-Stacks abgesehen von Samples. Und angekuendigt sind fuer dieses Jahr sowohl 2Hi, 4Hi als auch 8Hi. Also das sollte kein wirkliches Problem sein.

ndrs
2016-02-24, 21:50:55
Was heisst "mangels 2Hi Stacks"? Momentan mangelt es an jeglichen HBM2-Stacks abgesehen von Samples. Und angekuendigt sind fuer dieses Jahr sowohl 2Hi, 4Hi als auch 8Hi. Also das sollte kein wirkliches Problem sein.
Zumal die GPU-Hersteller wahrscheinlich eh so ziemlich die einzigen Abnehmer für HBM sind. Ergo produzieren die RAM-Hersteller das was AMD und nV bestellen.

Knuddelbearli
2016-02-24, 21:55:32
Außerdem muss AMD ja nicht die doppelte Frequenz nutzen.

iuno
2016-02-25, 00:01:43
Die sind optional, das Feature muss nicht genutzt werden. HBM2 funktioniert auch ohne (dann halt nur als Speedbump).
Ja, die Implementierung. Ohne das nochmal geprueft zu haben war mir aber, dass ein Stack gebaut wird und dann eben Pseudo Channels hat oder eben nicht.
Habe eben nachgelesen, schau mal unter 3.2.1, gleich im ersten Absatz :wink:

Sowohl bei HBM als auch HBM2 (was ja eigentlich fast nur ein Speedbump mit sehr wenigen neuen Features ist) haengt die physische Groesse des Stacks immer vom Hersteller, dem jeweiligen Prozess bzw. der Kapazitaet ab, die ist nirgendwo in der Spec festgeschrieben (nur fuer die ballout Area ist das wie gesagt der Fall).
Ja, das ist klar. Es funktioniert trotzdem nicht, wenn die Stacks einfach breiter sind (und dazu gab es ja vor einiger Zeit was) und nicht mehr neben die GPU auf den Interposer passen.

Was heisst "mangels 2Hi Stacks"? Momentan mangelt es an jeglichen HBM2-Stacks abgesehen von Samples. Und angekuendigt sind fuer dieses Jahr sowohl 2Hi, 4Hi als auch 8Hi. Also das sollte kein wirkliches Problem sein.
Es ist aber angekuendigt, dass erstmal 4Hi Stacks kommen. 2 und 8 Hi spaeter, offenbar je nach Bedarf. Ausser AMD und Nvidia kann den Kram ja wohl aktuell keiner gebrauchen und wenn die keine Verwendung haben, wird es auch nicht gebaut.
Je nachdem, wie Hynix die 2Hi stacks baut, waeren die mglw. auch problematisch. Sollten sie genauso zwei Channels/die haben, kommt ein Stack ja nur auf 512 Bit.
Dass es allgemein an HBM2 mangelt ist ja wohl keine Erwaehnung wert, wenn die Frage lautet, ob Fiji mit HBM2 - wenn verfuegbar - neu aufgelegt wird?
Und zum Zeitlichen: Dass der ganze Gedankengang darauf beruht, dass Polaris Mitte des Jahres erwartet wird, habe ich ja geschrieben.
Wenn der grosse Polaris Hawaii Niveau erreicht (und > 4 GiB Speicher bieten kann, egal ob GDDR oder HBM), macht Dual Fiji noch weniger Sinn. Auf der Nano liegt Fiji nur minimal vor Hawaii, Polaris wird nochmal effizienter mit hoffentlich mehr RAM. Dann lieber dual GPU damit... Daher denke ich einfach nicht, dass es Sinn macht, fuer die paar Monate die Keule noch auszupacken. Fuer "Devkits", OK, aber nicht als Endkunden-Karte mit schlechter Presse...

Außerdem muss AMD ja nicht die doppelte Frequenz nutzen.
:facepalm:
Ja, das stimmt natuerlich.

Gipsel
2016-02-25, 01:38:47
Ja, die Implementierung. Ohne das nochmal geprueft zu haben war mir aber, dass ein Stack gebaut wird und dann eben Pseudo Channels hat oder eben nicht.
Habe eben nachgelesen, schau mal unter 3.2.1, gleich im ersten Absatz :wink:Tabelle 91 sagt noch klarer, daß nicht beides gleichzeitig geht ;). Es würde mich aber schon wundern, wenn die Stacks im Prinzip nicht beides können und das nur per e-fuse auf dem Baselayer oder Ähnliches konfiguriert wird. Das ist ja gut machbar, da Alles bereits vorhanden ist und nur minimal anders genutzt wird. Im Vergleich ist z.B. die Nutzung identischer Dies für 2Hi-, 4Hi- und 8Hi-Stacks komplizierter bzw. mit etwas Redundanz verbunden (aber auch nicht unmöglich).
Je nachdem, wie Hynix die 2Hi stacks baut, waeren die mglw. auch problematisch. Sollten sie genauso zwei Channels/die haben, kommt ein Stack ja nur auf 512 Bit.Jede Stackhöhe hat immer ein 1024Bit-Interface (sagt zumindest die Roadmap von SKHynix). Es gibt also je nach Stackhöhe eine unterschiedliche Anzahl von Channels pro Die (4 Channels pro Die bei 2Hi, 2 Channels pro Die bei 4 Hi und 1 Channel pro Die bei 8Hi). Theoretisch könnte man da sparen, wenn man weniger Bandbreite braucht, also dann z.B. bei einem 2Hi-Stack nur 512Bit des Interfaces belegen (um standardkonform zu bleiben, muß man aber natürlich das volle ballout nutzen und dann die entsprechenden Bits [channel_available] in den Konfigurationsregistern ausknipsen). Aber wo das wirklich interessant wäre (z.B. mobile oder embedded), setzt man wohl sowieso auf (vom Konzept her ähnliches) WideIO2-RAM, was von Haus aus mit 256Bit (vier 64bit channel) oder 512Bit (acht 64bit channel) Interface und meist als 2Hi- oder gar "mono" Stack daherkommt und auch etwas mehr auf Stromsparen getrimmt ist (z.B. niedrigere Spannung, niedrigere interne Frequenzen und dafür prefetch 4 statt 2 bei HBM; die Bandbreite pro Pin ist in etwa vergleichbar zu HBM).

iuno
2016-02-25, 09:04:30
Jede Stackhöhe hat immer ein 1024Bit-Interface (sagt zumindest die Roadmap von SKHynix). Es gibt also je nach Stackhöhe eine unterschiedliche Anzahl von Channels pro Die (4 Channels pro Die bei 2Hi, 2 Channels pro Die bei 4 Hi und 1 Channel pro Die bei 8Hi).
Gut, da habe ich nicht reingeschaut. Muss Hynix dann fuer 1, 2 und 4 Channels jeweils ein extra die bauen oder glaubst du auch hier, dass man ein flexibel einsetzbares die hat?

Aber wo das wirklich interessant wäre (z.B. mobile oder embedded), setzt man wohl sowieso auf (vom Konzept her ähnliches) WideIO2-RAM, was von Haus aus mit 256Bit (vier 64bit channel) oder 512Bit (acht 64bit channel) Interface und meist als 2Hi- oder gar "mono" Stack daherkommt und auch etwas mehr auf Stromsparen getrimmt ist
Baut das aktuell eigentlich jemand? Ich habe mal von Samsung gelesen, dass sie das planen, das ist aber schon laenger her...

Gipsel
2016-02-29, 14:40:06
Gut, da habe ich nicht reingeschaut. Muss Hynix dann fuer 1, 2 und 4 Channels jeweils ein extra die bauen oder glaubst du auch hier, dass man ein flexibel einsetzbares die hat?Wie das gemacht wird, haengt vermutlich von den projezierten Volumina der einzelnen Stackgroessen ab. Denn das entscheidet darueber, ob sich ein extra Die fuer jede Stackgroesse lohnt oder eben nicht. Da wage ich keine Prognose.
Baut das aktuell eigentlich jemand? Ich habe mal von Samsung gelesen, dass sie das planen, das ist aber schon laenger her...Samsung baut schon recht lange Wide-IO-RAM. Die PS-Vita hat das z.B. schon seit einigen Jahren drin (der VRAM ist ein einzelnes Wide-IO-RAM Die von Samsung, welches face to face direkt auf den Chip gemountet wird [also ohne TSVs]; der RAM hat uebrigens eine fuer Sony leicht abgeaenderte Anordnung der Pads gegenueber dem JEDEC-Standard, entspricht ihm aber ansonsten offenbar). Und seit letztem Jahr liefert Samsung laut Selbstauskunft Wide-IO2 aus.
Der Markt ist allerdings noch relativ klein. Insbesondere gegen LPDDR4 muss Wide-IO2 mit dem geringeren Platzbedarf und der potentiell hoeheren Performance erstmal die vermutlich hoeheren Kosten rechtfertigen.

Kartenlehrling
2016-03-14, 23:16:40
http://cdn.videocardz.com/1/2016/03/AMD-Radeon-Pro-Duo-Fury-X2-VideoCardz_com-10-1200x800.jpg

3x 8pin, 120mm x 40mm? Radiatorkühler, keine Luftkühlung!!

iuno
2016-03-14, 23:23:44
Quelle: http://videocardz.com/58547/amd-launches-radeon-pro-duo

Radeon Pro Duo :confused: wer findet den Namen noch bloed?
Sieht aber gut aus, imho. 2 x Fiji XT, also voll aktiv. Die Speicherlimitierung ist natuerlich schade.
Ich bin mal auf den Preis und die letztendliche Leistung in VR gespannt.

Damit ist endlich auch bestaetigt, dass die Karte in dem Tiki case keine FijiX2 war.

Botcruscher
2016-03-15, 00:20:03
Mal sehen ob der Zahnbohrer ersetzt wurde.

Nightspider
2016-03-15, 01:38:57
http://cdn2.24live.co/images/2016/03/15/1458002311268186.jpg

http://cdn2.24live.co/images/2016/03/15/1458002312393781.jpg

Kartenlehrling
2016-03-15, 01:51:26
Wieso sie nicht eine einzelne Kühlplatte genommen haben kann uns wohl nur Coolmaster erzählen, billiger und vorallem besser kann dieser "Baukasten" bestimmt nicht sein.

Loeschzwerg
2016-03-15, 07:30:58
Da hat sich einiges geändert:
http://cdn.wccftech.com/wp-content/uploads/2015/10/AMD-Dual-Fiji-XT-R9-Fury-X2-Gemini.jpg

Der ursprüngliche Plan sah bestimmt nur eine "Nano X2" vor, hätte aber vermutlich zu wenig Mehrleistung gebracht.

Flusher
2016-03-15, 09:17:46
Ich hab nicht ganz verstanden für wen die Karte nun letztlich sein soll? Für Entwickler von VR Games (mit entsprechendem Preis)? Oder für normalsterbliche Retailkunden?

Thunder99
2016-03-15, 09:31:11
primär Erstere.

Dural
2016-03-15, 09:31:59
AMD sagt doch vorerst nicht für Retail Kunden.

Was verständlich ist...

Korvaun
2016-03-15, 09:32:50
Der Name (und Preis) ist Programm. Also Entwickler, keine Endverbraucher.

Edit: Bezüglich Fiji mit 8GB HBM/HBM2, geshrinkter Fiji u.ä.: Die Chance beträgt genau 0%! Ende. AMD hat mehr als genug zu tun mit Polaris und Zen.

iuno
2016-03-15, 10:18:52
Also sind FirePros auch nur fuer entwickler? ;p

Ich denke, es ist auf jeden Fall sinnvoll, ein paar dieser Dinger dort unterzubringen, gerade wenn es um die neuen APIs geht (explicit multi adapter), gibt es sicher einiges zu lernen. Vielleicht wird mGPU dann zukuenftig mal eine groessere Rolle spielen.

Dann frage ich mich aber schon, warum sie das Teil dann ueberhaupt noch gross ankuendigen. Andersson von DICE hat ja schon vor einer gefuehlten Ewigkeit geteasert dass er eine noch unveroeffentlichte, wassergekuehlte Karte bekommen hat.

Kartenlehrling
2016-03-15, 13:41:58
Ein neues PCB haben sie aber entwickelt, 2cm länger und mehr Spannungswandler, 3x8pin anstelle von 2x , so hat man auch die 16 anstatt 12 Teraflops hinbekommen.

http://www.techpowerup.com/img/15-11-30/217a.jpg
http://www.techpowerup.com/img/16-03-15/Capture1616.jpg

Unicous
2016-03-15, 14:02:16
One thing that wasn't in @AMDRadeon's Pro Duo press release: it will be getting validated drivers for the relevant pro applications

https://twitter.com/RyanSmithAT/status/709644729118425088


Whatever that means.:wink:

iuno
2016-03-15, 14:05:36
Was soll es sonst bedeuten, als dass man die als FirePRO nutzen koennen wird?

FP64 Rate ist aber schon fix bei Fiji mit 16:1 oder?

Kartenlehrling
2016-03-15, 14:20:01
eine dual gpu die 1500€ koste mit profi Treiber wo man sonst für eine gpu 3600€ bezahlt.
Die werden im Vertriebslager bestimmt nicht alt.

iuno
2016-03-15, 14:23:29
Es wird ja nicht viele davon geben, zudem ist das natuerlich ein absoluter Spezialfall mit dem Verbrauch und der Kuehlung und "ohne" FP64 Leistung. Da kannst du nicht einfach mal deine Racks mit Pro Duos ausruesten ;)

Gipsel
2016-03-15, 14:26:59
Und weniger Speicher als die FirePros haben sie ja auch noch.

Zettabit
2016-03-15, 14:51:16
FirePro kann man die Karte ja nicht nennen mangels DP-Performance.

Also praktisch eine Konkurrenz zur M6000 von NVIDIA. Keine hohe DP-Performance, dafür in Sachen Grafik ein Biest.

iuno
2016-03-15, 14:52:52
Es gibt auch andere FirePros mit wenig DP, z.B. die W7100 (Tonga) mit 1:16. Das sind halt Workstation-Karten, keine reinen compute Teile fuer Racks

dildo4u
2016-03-15, 17:29:23
Erste 3D Mark Benches scheint ordentlich TDP limitiert zu sein.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Pro-Duo-Dual-Fiji-Wakue-Preis-Termin-1189187/