PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

maguumo
2015-06-03, 09:45:25
Fiji (C880) hat hier 40mm x 45,2mm (B x H)
HBM ist hier 9,5mm x 8,0mm (B x H)
Wie kommst du auf die Maße vom HBM? Was nutzt du als Maßstab?

Wenn der wirklich so groß ist sinds vielleicht doch 4Gb Slices, die letzten Werte die wir hatten waren doch 5x7mm?

derF
2015-06-03, 09:49:40
Ich schätze mal seinen Bildschirm...?
Es ging um die Größenverhältnisse.

maguumo
2015-06-03, 09:52:05
Ich schätze mal seinen Bildschirm...?
Es ging um die Größenverhältnisse.

Dann würden Angaben in mm doch keinen Sinn machen? Liest sich für mich nach Absolutwerten.

dargo
2015-06-03, 09:55:20
Gab ein Update :usad:
Wo ist da der Unterschied?
Wir haben die Headline und Einleitung angepasst, da AMDs Matt Skinner nicht von der schnellsten Grafikkarte sprach, sondern dem weltweit flottesten Chip: "HBM enables us to build the fastest GPU in the world", sagte der Vizepräsident wortwörtlich auf der AMD-Pressekonferenz.

fondness
2015-06-03, 09:58:09
Ohje, wenn die Karte nicht mal in selektierten AMD-Lab-Benchmarks die schnellste ist, wird das kein Fest.

MfG,
Raff

Wenn man die TITAN X nicht schlägt macht es auch keinen Sinn von der schnellste Karte der Welt zu sprechen.

M4xw0lf
2015-06-03, 10:00:26
Wenn man die TITAN X nicht schlägt macht es auch keinen Sinn von der schnellste Karte der Welt zu sprechen.
Ich denke dabei eher an die 295X2. Deshalb die Unterscheidung in fastest GPU und fastest card.

mironicus
2015-06-03, 10:00:33
"HBM ermöglicht es uns die schnellste GPU der Welt zu bauen."

Da Grafikkarten in der Regel nur eine GPU haben, wäre eine Karte mit der schnellsten GPU der Welt auch die schnellste Single-Grafikkarte der Welt.

Pirx
2015-06-03, 10:00:45
Wie kommst du auf die Maße vom HBM? Was nutzt du als Maßstab?

Wenn der wirklich so groß ist sinds vielleicht doch 4Gb Slices, die letzten Werte die wir hatten waren doch 5x7mm?
ne das kann man imho nur relativ sehen, seine Werte wären viel zu hoch

Loeschzwerg
2015-06-03, 10:01:47
Wo ist da der Unterschied?

Naja, zwischen "schnellste Karte vorstellen" und "HBM ermöglicht es die schnellste GPU zu bauen" ist schon ein Unterschied. Ersteres wäre absolut, letzteres sehr schwammig und nimmt AMD nicht in die Pflicht.

Grestorn
2015-06-03, 10:03:09
Ich hoffe ehrlich, dass AMD über die Performance konkurrieren kann, die Karte also mindestens auf Augenhöhe mit der 980Ti, eher noch etwas schneller ist, um den VRAM Nachteil auszugleichen. AMD braucht eine Karte, bei der sie auch ordentlich Marge haben und die sich trotzdem gut verkauft.

Damit man R&D machen kann, braucht man flüssige Mittel. Und wenn man nur über den Preis konkurrieren kann, hat man eigentlich schon fast verloren auf einem derart schnelllebigen Markt bei dem R&D so essentiell ist.

Sunrise
2015-06-03, 10:03:45
Dann würden Angaben in mm doch keinen Sinn machen? Liest sich für mich nach Absolutwerten.
Ist einfach anhand des Bildes mit einem Measure Tool in mm gemessen. Mir ging es da aber sowieso erstmal nur um die Größenverhältnisse, weil wir sonst nichts anderes haben wo wir uns orientieren können.

Wer jetzt mutig ist, der rechnet das Verhältnis mit den bekannten realen HBM-Größen (wie von Gipsel gepostet) auf die Chipgröße um und wird staunen. Ein schärferer Schnappschuss wäre aber besser, durch die unscharfen Ränder ist es schwierig.

dargo
2015-06-03, 10:06:03
Naja, zwischen "schnellste Karte vorstellen" und "HBM ermöglicht es die schnellste GPU zu bauen" ist schon ein Unterschied. Ersteres wäre absolut, letzteres sehr schwammig und nimmt AMD nicht in die Pflicht.
HBM ermöglicht es uns, die schnellste GPU der Welt zu bauen
Heißt für mich nichts anderes als, dass die Rohleistung ziemlich hoch sein muss wenn GDDR5 + breites SI nicht mehr reicht. Das einzige Fragezeichen ist für mich nur noch, ob die tatsächlich Gaming meinen?

Edit:
Hatten wir eigentlich das schon?
52098

Die 640GB/s waren also Fake.

fondness
2015-06-03, 10:07:03
Ich finde das Bild von Lisa etwas seltsam, da der HBM-Speicher dort fast quadratisch ist, das passt nicht so recht zu den Angaben von Hynix.

[MK2]Mythos
2015-06-03, 10:07:06
Ist einfach anhand des Bildes mit einem Measure Tool in mm gemessen. Mir ging es da aber sowieso erstmal nur um die Größenverhältnisse, weil wir sonst nichts anderes haben wo wir uns orientieren können.

Wer jetzt mutig ist, der rechnet das Verhältnis mit den bekannten realen HBM-Größen (wie von Gipsel gepostet) auf die Chipgröße um und wird staunen. Ein schärferer Schnappschuss wäre aber besser, durch die unscharfen Ränder ist es schwierig.

Ich bin nicht mutig und dazu noch faul. :D Wie war denn dein Ergebnis (Schätzung)?

M4xw0lf
2015-06-03, 10:08:39
Das Ergebnis bleibt pi mal Daumen identisch, irgendwas zwischen 500 und 550 mm² in etwa.

Ohje, wenn die Karte nicht mal in selektierten AMD-Lab-Benchmarks die schnellste ist, wird das kein Fest.

MfG,
Raff
Versteh ich jetzt nicht. Fastest GPU in the world klingt doch absolut nicht nach dem, was du da schrobst?

maguumo
2015-06-03, 10:10:23
Ich finde das Bild von Lisa etwas seltsam, da der HBM-Speicher dort fast quadratisch ist, das passt nicht so recht zu den Angaben von Hynix.

Der HBM dürften die schwarzen Rechtecke sein, die quadratischen, bunt glänzenden Flächen eher der Interposer.

Sunrise
2015-06-03, 10:11:44
Ich finde das Bild von Lisa etwas seltsam, da der HBM-Speicher dort fast quadratisch ist, das passt nicht so recht zu den Angaben von Hynix.
Ist mir auch aufgefallen und eigenartigerweise sind die HBMs auf dem Bild breiter als hoch (das merkt man aber nur wenn man nachmisst). Aber sehr eigenartig, weil der Interposer muss dann breiter sein, als wenn man die HBM um 90 Grad gedreht verbaut hätte. Als wären das verschiedene Samples.

M4xw0lf
2015-06-03, 10:12:41
Der HBM dürften die schwarzen Rechtecke sein, die quadratischen, bunt glänzenden Flächen eher der Interposer.
In der Tat.

y33H@
2015-06-03, 10:14:09
Ohje, wenn die Karte nicht mal in selektierten AMD-Lab-Benchmarks die schnellste ist, wird das kein Fest.Wer redet von AMD-Lab-Werten? :confused:

mironicus
2015-06-03, 10:14:09
Ich finde das Bild von Lisa etwas seltsam, da der HBM-Speicher dort fast quadratisch ist, das passt nicht so recht zu den Angaben von Hynix.

Ist ja auch HMB2-Speicher, das ist das große Geheimnis bis zum Schluss. :D :D

Oder eine Spezialanfertigung für AMD, bisher nicht dokumentiert. :)

Sunrise
2015-06-03, 10:15:12
Der HBM dürften die schwarzen Rechtecke sein, die quadratischen, bunt glänzenden Flächen eher der Interposer.
Ach du scheisse, du hast Recht! Krasse optische Täuschung. :eek:

OK, dann stimmen die Maße von vorher doch noch.

R.I.P.
2015-06-03, 10:16:21
Das Ergebnis bleibt pi mal Daumen identisch, irgendwas zwischen 500 und 550 mm² in etwa.


Versteh ich jetzt nicht. Fastest GPU in the world klingt doch absolut nicht nach dem, was du da schrobst?

Keine Sorge, man merkt hier wieder mal die grüne Tendenz bestimmter Redaktöre :freak:

Ihr solltet die Twitter Auusagen von Roy@AMD verfolgen, der ist ziemlich angepisst von den "scheinbar" falschen rumors über den schlechtgeredeten Speed von Fiji

M4xw0lf
2015-06-03, 10:18:38
Wer redet von AMD-Lab-Werten? :confused:
Konntest du was messen? :eek:

Loeschzwerg
2015-06-03, 10:18:50
Ihr solltet die Twitter Auusagen von Roy@AMD verfolgen, der ist ziemlich angepisst von den "scheinbar" falschen rumors über den schlechtgeredeten Speed von Fiji

Betroffene Hunde bellen und so ;D

Duplex
2015-06-03, 10:20:00
Titan X wird man nicht schlagen können.

"R9-290X" 2816 SP > "Fiji" 4096 SP = 45,5%

"GTX980" 2048 SP > "Titan X" 3072 SP = 50,0%

Titan-X 20% schneller in FullHD und 15% schneller in UltraHD als Fury !

Timbaloo
2015-06-03, 10:21:45
Oh goldig, die Milchmädchen rechnen wieder :)

Sunrise
2015-06-03, 10:23:31
...Ihr solltet die Twitter Auusagen von Roy@AMD verfolgen, der ist ziemlich angepisst von den "scheinbar" falschen rumors über den schlechtgeredeten Speed von Fiji
Das Internet wird eben gesteuert von denen, die in der Überzahl sind und wenn AMD da nichts Gegenteiliges zeigt, dann wird sich das solange halten bis am 16. Juni endlich mal mehr Fakten kommen.

Bisher wissen wir nur, dass das Ding bei 4096 ALUs je nach den finalen Taktraten um die 8.5 TFLOPS SP haben wird und das gäbe dann anhand meiner Hochrechnungen von Hawaii (ohne Tonga-Verbesserungen) min. Titan X bzw. 980 Ti-Leistung. Aber auch nur dann, wenn AMD es geschafft hat, dass der Rest des Chips ordentlich mitskaliert.

Wenn AMD das geschafft hat, dann ist bis auf die Menge des VRAM eine Titan X (ohne OC) problemlos angreifbar.

dargo
2015-06-03, 10:23:55
Titan X wird man nicht schlagen können.

"R9-290X" 2816 SP > "Fiji" 4096 SP = 45,5%

:facepalm:

Wie oft denn noch? Fiji ist kein breiterer Hawaii! Wie soll das auch gehen? Dann würde das Ding über 400W ziehen. Man spricht davon, dass Fiji nicht mehr Strom verbrauchen soll als Hawaii. Selbst wenn du die Ersparnis beim Stromvebrauch durch HBM abziehst kommst du nicht auf 250-280W TDP. Jedenfalls nicht mit einem aufgeblasenen Hawaii.

Edit:
Ich habe nochmal nachgerechnet... Fiji entspricht mit den angeblichen 8,5TFLOPs ziemlich genau einem doppelten Tonga mit 2048SPs und 1000Mhz. Aber eventuell ist Fiji auch was völlig Neues.

Ailuros
2015-06-03, 10:24:26
Oh goldig, die Milchmädchen rechnen wieder :)


:whisper: Spielverderber....

Das Internet wird eben gesteuert von denen, die in der Überzahl sind und wenn AMD da nichts Gegenteiliges zeigt, dann wird sich das solange halten bis am 16. Juni endlich mal mehr Fakten kommen.

Bisher wissen wir nur, dass das Ding bei 4096 ALUs je nach den finalen Taktraten um die 8.5 TFLOPS SP haben wird und das gäbe dann anhand meiner Hochrechnungen von Hawaii (ohne Tonga-Verbesserungen) min. Titan X bzw. 980 Ti-Leistung. Aber auch nur dann, wenn AMD es geschafft hat, dass der Rest des Chips ordentlich mitskaliert.

Wenn AMD das geschafft hat, dann ist bis auf die Menge des VRAM eine Titan X (ohne OC) problemlos angreifbar.

Die Dinger sind konkurrenzfaehig; etwas besonderes aber trotzdem nicht und das werden die fanboys eben nicht so leicht schlucken koennen.

fondness
2015-06-03, 10:25:09
Selbst die 4096 SPs sind bis dato durch nichts bestätigt.

y33H@
2015-06-03, 10:26:41
Konntest du was messen? :eek:Die 13.337 Punkte im Firestrike Extreme heb ich mir für nächste Woche auf.

M4xw0lf
2015-06-03, 10:30:37
Die 13.337 Punkte im Firestrike Extreme heb ich mir für nächste Woche auf.
:tongue:

Mr.Y
2015-06-03, 10:33:53
Die 13.337 Punkte im Firestrike Extreme heb ich mir für nächste Woche auf.
13337 Pkt im Firestrike Extreme bestaetigt (y) :freak:
Wer bastelt schnell nen Balkendiagramm? :D

Megatron
2015-06-03, 10:35:20
Die 13.337 Punkte im Firestrike Extreme heb ich mir für nächste Woche auf.
Warum hast du denn nicht im Uber Mode getestet? :biggrin:

mironicus
2015-06-03, 10:35:28
GTX 980 Ti GTX Titan X GTX 980 GTX 780 Ti Radeon R9 290X Radeon R9 295X2
3Dmark Firestrike 14,081 14,210 11,377 9,749 10,056 15,833
3Dmark Firestrike Extreme 7,370 7,558 5,864 4,838 5,041 8,753
3Dmark Firestrike Ultra 3,943 4,124 3,150 2,432 2,704 4,888

Vergesst nicht, die Redakteure wissen bereits mehr als wir, die haben schon Benchmarks von AMD gesehen - bzw. die wissen was wir zu erwarten haben. Und jetzt können sie mit uns spielen... :D

Noebbie
2015-06-03, 10:36:57
Da hier so viel Gutes steht, hau ich auch noch einen raus:

Fury erscheint zu Release mit HL3 Bundle. HL3 confirmed.

Grestorn
2015-06-03, 10:46:59
@mironicus:
Firestrike Extreme auf Titan X:

mit OC: 9368 (http://www.3dmark.com/fs/4719074)
ohne OC: 7854 (http://www.3dmark.com/fs/4669623)

Isen
2015-06-03, 10:47:40
R9 380 4gb $199
R9 390 8gb $299
R9 390x 8gb $399
Fiji pro 4gb hbm $599
Fiji xt 4gb hbm $749
Fiji xt /xtx 8gb hbm $849
Fiji vr 2x8gb hbm $1399-$1499

http://www.dsogaming.com/news/rumour-amd-fiji-models-revealed-will-come-with-both-4gb-8gb-cheapest-model-at-599/

Wunschvorstellung ;P

Skysnake
2015-06-03, 10:51:03
Schwache Leistung, ich hätte die Karte mindestens auf TitanX Niveau erwartet.
Wenn die Karte dann auch noch über 300 Watt zieht, dann wird AMD keine Marktanteile erobern können, sondern eher verlieren.

Der Rebrand der r9 290x ist ja auch nichts halbes und nix ganzes.
Was heist hier mindestens?

Titan X ist ein kompromisslos auf Gameing ausgelegter Chip im großen und Ganzen.

Abseits von CAD mit vergleichsweise großen Modellen kannste das Ding in die Tonne treten, da DP unbrauchbar ist im Endeffekt.

Wenn man so hart an der Grenze arbeitet, das man 12GB unbedingt braucht, zusammen mit der etwas größeren Leistung im Vergleich du GK110, dann kann man auch überlegen, ob die 16GB von der S10000 nicht doch noch! geiler sind.

nVidia hat sich da in meinen Augen in eine unglückliche Lage gebracht. GK110 ist der DP King bei Ihnen bis Pascal kommt. Das Ding unterliegt aber schon Hawaii in DP und RAM-Menge. Gegen Fiji wird man wohl in DP ziemlich untergehen, genau wie in der Speicherbandbreite. Bezüglich RAM-Menge wird man aber wohl am Anfang besser dastehen. Bleibt also nur noch CUDA als Schnittstelle, was die Leute an einen bindet.

AMD ist aber auch in keiner ganz glücklichen Lage, so lange nicht zumindest die 8GB für Fiji kommen, können Sie den high RAM-CAD Markt sich mit der Karte abschminken. Der Punkt dabei ist aber, dass der Markt gar nicht soooo auf Rechenleistung geht, wo man ja im Vergleich zu Hawaii zulegt, der ja noch immer VOR GK110 und jeder anderen nVidia Karte liegt. Man hat also selbst ohne Fiji in dem Bereich etwas im Angebot.

Genau so sieht es quasi in allen Profisegmenten aus. Wem der RAM von Fiji nicht langt, muss eben auf GK110/Hawaii gehen, wenn er DP braucht, und wenn er noch auf DP verzichten kann, kann er GM200 statt GK110 nehmen, da mehr Rechenleistung, höhere Bandbreite und bessere Effizienz.

nVidia bedient also mit 2 Chips (GK110&GM200) ziemlich genau den gleichen Markt, wobei Sie sich nicht stark unterscheiden. AMD hat zwei Chips, die sich stark unterscheiden. Einmal FETT RAM-Menge und gute Rechenleistung in SP und DP, und das andere mal FETT RAM-Bandbreite und sehr gute Rechenleistung in SP und DP. Man muss also einfach schauen, wie wichtig einem RAM-Menge ist.

Im Prinzip ist das deutlich interessanter bezüglich Auswahl als bei nVidia, wo man sich zwischen SP und DP entscheiden muss. Kann man aber natürlich von der Argumentation auch umdrehen.

Am Ende wird man sehen müssen, wie der Markt reagiert auf das Angebot von nVidia und AMD. Wirklich überzeugen konnte nVidia im Profibereich aber wohl nicht mit GM200. Spannend wird sein, ob Ihnen ihr CUDA-Dongle mit der Software den Arsch rettet, oder die Leute Ihnen den Stinkefinger zeigen, und die geringeren Hardwarekosten in Software stecken, um sich unabhängig von CUDA und damit von nVidia zu machen.

Wenn man dem Messemagazin zur letzten SC (also kein Revolverblatt) glauben mag, dann prüft zumindest ein Großteil des Marktes, ob man nicht auf OpenCL umsteigen kann/will. Es wird also aktiv nachgerechnet/evaluiert. Das ist etwas, was nVidia gar nicht schmecken dürfte.

250-285W. Wenn man 4GB + HBM + Wakü bedenkt ist das immer noch schlechter als Maxwell.
Dafür ist Maxwell ein DP-Grüppel, und hat nVidia uns nicht mit Kepler und der Titan gelehrt, das man die Performance eines Supercomputers im Heimrechner brauch, und DP da GANZZZZZZZZZZ doll wichtig und doll ist?

War das nicht von vielen mit ein Grund, um den hohen Preis zu rechtfertigen? :rolleyes:

Man sollte einfach verstehen, dass AMD evtl. die DP nicht streichen will. Wer weiß, ob Fiji wieder ein DP Monster wird. Nvidia zaubert bei ihren Karten auch nicht. Siehe Kepler...:rolleyes:
This.

Spannend wird halt, ob die Rechnung für AMD auf geht. Was auf jeden Fall funktioniert ist das man der Branche zeigt, wie hässlich es ist, sich an eine propritäre API zu ketten.

Wenn AMD es schafft CUDA eher als Nachteil in das Lastenheft der Entscheider zu bringen, dann hat sich Fiji sicherlich gelohnt, auch wenn man Potenzial im Gamersektor verschenkt hat. Für den Gesamtkonzern mit CPUs und APUs ist es wichtig, denn ohne OpenCL/HSA wird man nicht dauerhaft auskommen bei AMD.

DP Performance ist irrelevant, die GPU Shader hätte AMD unabhängig von der Fertigung pro Takt wenigstens 25% schneller machen müssen.

Ah yeah, ich liebe solche Argumentationen.

Wo warst du bei Titan, nVidia an den Pranger zu stellen? Verzeih, wenn du draufgeschlagen hast, aber ich kann mich nicht daran erinnern. Es war doch unisono so, das Titan als das Nonplusultra als Entwicklerkarte dargestellt wurde (was Sie NICHT! ist) und ein riesen MArkt prognostiziert wurde...

Ganz zu schweigen davon, das man den Preis auch! für Gamer damit gerechtfertigt hat... -.-

Ich war da sehr sehr sehr allein mit der Kritik, das die DP-Leistung zwar sicher nett ist, aber eben Features wie GPUDirect2.0 nicht gehen, und damit die KArte sehr stark an Reiz verliert. Genau wie die nicht optimierten OpenGL-Treiber usw.

Der Profimarkt gehört immer noch Nvidia, AMD ist hier nur altes Eisen, wirklich beeindrucken kann AMD niemanden, erst recht nicht mit einer Dual Karte mit 2x 4GB :tongue:
Und was verkauft nVidia?

Dual GK1x0....

Yeah, das ist natürlich leading edge Technik :facepalm:

Vor allem hatte man sich doch über AMDs KArte spöttelnd geäußert, und macht nun genau das Gleiche, wo man ansonsten bei ALLEN! HArdwaredaten hinter AMD stehen würde seit Hawaii...

Mit 4GB kannst du den Profimarkt sowieso knicken :)
Nicht wirklich, siehe oben, Hawaii ist nicht aus der Welt, und es braucht auch nicht jeder >4GB. Die Frage ist, wie viele Leute kommen auch mit 4GB aus? ;)

Wobei man eigentlich sicher davon ausgehen kann, das man bis die FirePro kommt auch 8GB da sein werden. Das entspannt die Frage schon gewaltig. Aber selbst mit 4GB würde es genug Leute geben, für die es kein ernsthaftes PRoblem wäre.

RAM ist halt nice to have. Es beruhigt ungemein ;)

Die Frage ist eher, ob die Leute es auch wirklich kaufen, für die es OBJEKTIV! die bessere KArte wäre. Aktuell ist das ja nicht wirklich immer der FAll, was ja auch AMDs extrem niedriger Marktanteil zeigt. Bzw. selbst wenn es nicht für jeden passt, durch ihren niedrigen Marktanteil kann er selbst dann stark steigen, wenn man deutlich weniger als nVidia verkauft. Das ist halt der Vorteil, wenn man mit niedrigen Positionen startet ;)

Ich freue mich auf den Release :)

Und nebenbei hat AMD nicht umsonst die Architektur GNC genannt. Es langt einfach das Geld nicht für die Entwicklung wie nvidia sie macht sondern sie verbessern nur inkrementell die Architektur. Wie gut oder schlecht das funktioniert sehen wir ja bisher durch 1.0 bis 1.2 . Potenzial ist nach wie vor vorhanden :)
Oder man kann auch sagen, nVidia ist gezwungen viel Geld zu verbrennen, weil Sie auch viel bullshit bauen, wie die 192 ALUs/SM....

Man kann für fast alles immer eine positive und eine negative Sicht bei solchen SAchen einnehmen, :rolleyes:

Dann versteh ich auch nicht, wieso es unbedingt HBM sein musste. Bei Spielen braucht man die hohe Speicherbandbreite nicht zwingend und im professionellen Bereich sind die 4GB einfach nicht genug, das wird bei Spielen ja schon knapp. 8GB GDDDR5 mit 6 Gbps dürften für Spiele ausreichend sein (man hat ja nun DCC). Der Stromverbrauch wäre zwar höher, aber nicht um Welten. Wenn AMD Erfahrungen mit HBM sammeln wollte, könnte man das doch auch im Labor machen, oder nicht?
Im Profimarkt kann man damit mit zwei unterschiedlichen Produkten nVidia angreifen, womti die am Ende praktisch in keiner Einzeldisziplin mehr vorne sind. Da rettet Sie am Ende dann nur noch die Software und der CUDA-Dongle.

Die Frage ist halt, ob das funktioniert, oder ob die beiden Produkte nicht doch irgendwo jeweils eine Schwäche haben, die nVidia mit einer KArte dann doch attraktiver macht, also als Gesamtpaket.

GPU-Direct2 könnte so etwas z.B. für den HPC-Bereich sein. Ich hoffe WIRKLICH! das AMD da endlich was bringt. Ich kann das echt nicht verstehen, das man da so lange ZEit schon nichts gleichwertiges bringt.... Es sollte ja nun wirklich kein Hexenwerk sein... (Habe in dem Themenbereich ja selbst einiges gemacht)

Hm, kann es sein, dass Tonga auch HBM kann? Vielleicht hat Fiji ja auch GDDR5-Interfaces, die sich deaktivieren lassen. Das würde bei der Die-Größe doch kaum auffallen. Ist es möglich, dass beide Chips beides können?
Ähm....GDDR5 Interfaces sind GIGANTISCH! Und HBM wird jetzt zwar nicht so riesig sein, aber einfach vernachlässigen kannste das nicht, und so einfach zweckentfremden geht auch nicht bzw wäre aus meiner Sicht eine dumme Idee. Dafür sind die Interfaces einfach zu verschieden.

Das würde sich extrem nagativ auf die Effizienz und die Größe auswirken.

Pick
2015-06-03, 10:52:18
Die 13.337 Punkte im Firestrike Extreme

:eek::eek::eek:

M4xw0lf
2015-06-03, 10:53:03
:eek::eek::eek:
He's just trolling, you know ;)

fondness
2015-06-03, 10:53:57
Bingo, Nvidia ist mit GM200 absolut an die Grenze gegangen, das muss man auch mal sehen. >600mm², man hat DP gestrichen, man hat alle neuen Feature gestrichen die ursprünglich noch auf der Roadmap standen. Das Ding ist kompromisslos auf maximale Spieleleistung ausgelegt und das wohl nicht durch Zufall, man wusste natürlich was AMD bringt.

Skysnake
2015-06-03, 10:56:49
Man könnte auch sagen, nVidia hat mit der Brechstange unbedingt die Gamerkrone für sich sichern wollen, dafür aber zumindest den HPC-Bereich komplett geopfert, den Sie davor noch soooo umjubelt haben.

Das ist ziemlich typisch nVidia. Man springt genau da hin, wo man im Moment denkt, die besten Chancen zu haben. Ich empfinde das nicht gerade als sehr verlässlich für einen Geschäftspartner.

Mal ganz abgesehen davon, das ich mir ziemlich verarscht vorkommen würde, wenn man sich so anschaut, wie nVidia selbst immer wieder 180° turns hinlegt, und dabei mit keiner Wimper zuckt...

Loeschzwerg
2015-06-03, 10:58:41
Bis jetzt kann sich NV solche Spielchen zumindest erlauben ;)

Skysnake
2015-06-03, 11:00:22
Die Dinger sind konkurrenzfaehig; etwas besonderes aber trotzdem nicht und das werden die fanboys eben nicht so leicht schlucken koennen.
Wenn Fiji gleichauf mit GM200 ist, dann wäre das doch absolut genial!

GM200 ist quasi der aus Karbon, Titan usw gefertigte offene Einsitzer, dessen Motor vorgewärmt werden muss, damit er nicht zerreist beim starten und keine Straßenzulassung hat.

Wenn Fiji da als gediegener GranTourismo fast die gleiche Rundenzeit hinlegt, und dabei noch 4 Sitze und ne Klima- und Musikanlage hat, dann ist das doch ein MEGA Erfolg ;)

Gut die Sache mit dem RAM bleibt immer bestehen, aber das Gesamtpaket entscheidet, wie sehr der RAM schmerzt. Selbst 4 GB sind kein NOGO, ansonsten dürfte NIEMAND! GM204 kaufen....

mironicus
2015-06-03, 11:06:47
Wenn Fiji gleichauf mit GM200 ist, dann wäre das doch absolut genial!

Und ohne dabei auf DP-Leistung zu verzichten... :D

Duplex
2015-06-03, 11:11:33
Eine gute Karte braucht keine Wasserkühlung :D

M4xw0lf
2015-06-03, 11:12:16
Und ohne dabei auf DP-Leistung zu verzichten... :D
Das wird spannend zu sehen sein. Sollte Fiji mit 1:2 DP-rate daherkommen, wäre das schon ein Brett - 4TFLOPS FP64 Leistung? :cool:

dargo
2015-06-03, 11:13:47
Eine gute Karte braucht keine Wasserkühlung :D
Ja... wir wissen schon, dass GM200 schlecht ist.

mironicus
2015-06-03, 11:14:19
Eine gute Karte braucht keine Wasserkühlung :D
Menschen brauchen eine eigene Meinung. ;D

Ailuros
2015-06-03, 11:16:00
Wenn Fiji gleichauf mit GM200 ist, dann wäre das doch absolut genial!

Ich hab Deinen gesamten vorigen SCHROTT erstmal gar nicht gelesen um mir erstmal meine Nerven zu schonen. Ich hab nichts dergleichen behauptet, ergo behalt Deine merkwuerdigen und einseitigen Interpretationen gefaelligst fuer Dich selber.

GM200 ist quasi der aus Karbon, Titan usw gefertigte offene Einsitzer, dessen Motor vorgewärmt werden muss, damit er nicht zerreist beim starten und keine Straßenzulassung hat.

NV hat mit Maxwell bis jetzt ein Schweinegeld kassiert und wird es auch weiterhin machen, eben weil die Effizienz von den Dingern zu gut ist.

Wenn Fiji da als gediegener GranTourismo fast die gleiche Rundenzeit hinlegt, und dabei noch 4 Sitze und ne Klima- und Musikanlage hat, dann ist das doch ein MEGA Erfolg ;)

Gut die Sache mit dem RAM bleibt immer bestehen, aber das Gesamtpaket entscheidet, wie sehr der RAM schmerzt. Selbst 4 GB sind kein NOGO, ansonsten dürfte NIEMAND! GM204 kaufen....

Bullshit hoch 2 und wir reden darueber nochmal nach dem launch.

Blediator16
2015-06-03, 11:16:38
Es kann theoretisch kein Zufall sein, wenn Nvidia nur 2 Monate nach der X eine gleichschnelle TI raushaut inkl. Wasserkühler und Monster Custom Lösungen. 12gb hin oder her totaler overkill.

Sunrise
2015-06-03, 11:17:10
Bis jetzt kann sich NV solche Spielchen zumindest erlauben ;)
Ich habe das Relevante mal fett markiert.

Sowas wie GM200 werden wir deshalb auch vorerst nichtmehr sehen. GP100 wird ein mixed-precision und DP-Monster, eben wie es AMD mit Hawaii vorgemacht hat.

Wenn AMD hier am Ball bleibt, dann hauen sie recht fix nächstes Jahr Arctic Islands raus. Sie dürften da jetzt eine ganze Menge R&D und Erfahrung in dem Bereich haben, bei NV sehe ich eher wieder eine Aufholjagd starten, denn man braucht erstmal was, was überhaupt gegen die DP-Leistung von AMD ankommen kann.

Da werden die Karten wieder völlig neu gemischt.

Die reinen Verkaufszahlen sprechen allerdings weiterhin für NV, Maxwell hat NV dort in keinem Falle geschadet, eher das Gegenteil. Auch wenn das manche gerne anders darstellen. Die Profi- und Consumer-Märkte ticken sowieso völlig unterschiedlich.

Skysnake
2015-06-03, 11:25:07
Klar ist GMxxx erfolgreich wie sau im Gameing-Bereich. Genau dafür ist es ja gebaut worden.

Es wäre eher ein Armutszeugnis von nVidia, wenn Sie nicht mit GM200 bis auf +/- 1 bis 3 die LEistung von Fiji erreichen würden, bei tendenziell besserer Perf/W.

Wer was anderes erwartet hat Sie nicht mehr alle.

Vergiss bitte nicht, das Gameing immer! nur einer von zwei gleichwertigen! Märkten für mich ist.

Und GM200 ist in meinen Augen da einfach ein Fail im Vergleich zu GK110. DP für die bessere Effizienz usw zu opfern empfinde ich als nicht hinnehmbare Einschränkung. Es gibt sicherlich Teilmärkte, die das anders sehen, aber das ist schon ein gewaltiger Einschnitt.

Ganz grundlos hat nVidia das DP-Pferd ja auch nicht Jahre lang geritten.

Duplex
2015-06-03, 11:28:40
Wenn die Fertigung nicht bei 600mm² limitieren würde, dann könnte Nvidia noch größere Chips bauen, z.b. 32 SMM mit 4096 Shader, dann wäre der Stromverbrauch immer noch hinter AMD.

Ailuros
2015-06-03, 11:29:08
Fiji Varianten sind unter Bedingungen etwas schneller als GM204/200 je nach Fall aber nicht mit geringerem Stromverbrauch. Wenn Leistung von sich alleine ein zu 100% eigenstaendiger Massstab waere, waere jegliche GPU Affaere um zich Mal einfacher. Leistung kann eben NICHT steril ausserhalb von Bildqualitaet und Stromverbrauch betrachtet werden und in letzter Zeit kommen noch Gott sei Dank frametimes dazu in reviews.

Klar ist GMxxx erfolgreich wie sau im Gameing-Bereich. Genau dafür ist es ja gebaut worden.

AMD ist noch etliche Lichtjahre von einem anstaendigen Marktanteil in professionellen Maerkten.


Vergiss bitte nicht, das Gameing immer! nur einer von zwei gleichwertigen! Märkten für mich ist.

Nur kann jeglicher Profi-Markt egal fuer wen NICHT R&D fuer einen high end chip finanzieren. Das eigentliche Volumen liegt im desktop/gaming Markt und Profi Maerkte sind nach wie vor high margin/low volume.

Und GM200 ist in meinen Augen da einfach ein Fail im Vergleich zu GK110. DP für die bessere Effizienz usw zu opfern empfinde ich als nicht hinnehmbare Einschränkung. Es gibt sicherlich Teilmärkte, die das anders sehen, aber das ist schon ein gewaltiger Einschnitt.

Du gehoerst auch zu den exotischen Voegeln hier die die Larabee Enkelkinder als "berrauschend" ansehen obwohl sie als gaming GPUs der letzte Dreck waeren, ergo koennen wir es auch schnell ueberholen. Dass GM200 DP fehlt ist zwar bedauernswert und sicher ein Kritikpunkt fuer NVIDIA, es aendert aber trotzdem nichts am vorigen.

Ganz grundlos hat nVidia das DP-Pferd ja auch nicht Jahre lang geritten.

....und sie werden es auch weiterhin tun. NVIDIA ist aber nicht derjenige hier der ein image Problem hat oder nur mangelnden support vorweisst. Es geht hier um AMD und diese haben ein ziemlich grosses Problem in beiden vorigen Felden. Ein fertiges Produkt nicht zur Tuer rauszubekommen weil man das Treiberteam bis zum kotzen kastriert hat ist eine Blamage ohnegleichen. Wenn AMD wirklich auch auf den HPC Markt zielen will sollten sie sich dringend das Thema support generell nochmal ueberdenken.

Skysnake
2015-06-03, 11:29:36
Ich habe das Relevante mal fett markiert.

Sowas wie GM200 werden wir deshalb auch vorerst nichtmehr sehen. GP100 wird ein mixed-precision und DP-Monster, eben wie es AMD mit Hawaii vorgemacht hat.

Wenn AMD hier am Ball bleibt, dann hauen sie recht fix nächstes Jahr Arctic Islands raus. Sie dürften da jetzt eine ganze Menge R&D und Erfahrung in dem Bereich haben, bei NV sehe ich eher wieder eine Aufholjagd starten, denn man braucht erstmal was, was überhaupt gegen die DP-Leistung von AMD ankommen kann.

Da werden die Karten wieder völlig neu gemischt.

Ansolut /sign. Die Frage ist nur, ob das eine nicht zu lange Durststrecke ist, in der sich die Leute nach anderweitigen Optionen umschauen.


Die reinen Verkaufszahlen sprechen allerdings weiterhin für NV, Maxwell hat NV dort in keinem Falle geschadet, eher das Gegenteil. Auch wenn das manche gerne anders darstellen. Die Profi- und Consumer-Märkte ticken sowieso völlig unterschiedlich.
Naja, AMD hat Apple zumindest mal wieder bekommen, das wird schon schmerzen.

Ansonsten muss man sich mal anschauen, wie sich dieses Jahr weiter entwickelt. Consumer und Profimarkt darf man aber wirklich gar nicht mischen.

Für den Consumer-Markt hat nVidia genau das Richtige gemacht und ein Top Produkt gebracht, was die Marktverhältnisse absolut rechtfertigt! Das muss man schlicht so anerkennen.

Dafür hat man aber auch einiges geopfert. Ob es die auf mittlere Sicht richtigen Entscheidungen für beide Märkte zusammen waren, werden wir in 2-3 Jahren sehen. Für Gamer/Consumer war es die richtige, ich hoffe darüber muss man nicht reden.

Skysnake
2015-06-03, 11:31:03
Wenn die Fertigung nicht bei 600mm² limitieren würde, dann könnte Nvidia noch größere Chips bauen, z.b. 32 SMM mit 4096 Shader, dann wäre der Stromverbrauch immer noch hinter AMD.
Wir leben aber in der Realität und nicht in Wünsch-dir-was-Hausen...

Es ist ja nicht so, als ob AMD und jedweder andere Chiphersteller dann nicht auch ganz andere Designs bringen würde...

Duplex
2015-06-03, 11:38:49
Anfang 2016 sollte Pascal in 16FF kommen, GP104/204 sollte dann bei 300mm² >35% auf GM200 drauflegen können. Mal sehen was AMD dann zeigen wird.

[MK2]Mythos
2015-06-03, 11:40:06
Wenn die Fertigung nicht bei 600mm² limitieren würde, dann könnte Nvidia noch größere Chips bauen, z.b. 32 SMM mit 4096 Shader, dann wäre der Stromverbrauch immer noch hinter AMD.
Und wenn meine Oma zwei Reifen und ne Klingel hätte, dann wär sie ein Fahrrad.

Ailuros
2015-06-03, 11:42:04
Anfang 2016 sollte Pascal in 16FF kommen, GP104/204 sollte dann bei 300mm² >35% auf GM200 drauflegen können. Mal sehen was AMD dann zeigen wird.

Tu Dir selber einen Gefallen und hoer auf irgendwelchen zufaelligen und rein erfundenen Bloedsinn als Tatsache zu praesentieren.

Wenn die Fertigung nicht bei 600mm² limitieren würde, dann könnte Nvidia noch größere Chips bauen, z.b. 32 SMM mit 4096 Shader, dann wäre der Stromverbrauch immer noch hinter AMD.

Gibt es irgend einen Wettbewerb hier heute fuer die daemlichste Spekulation oder was? Erstens gab es nie einen Plan fuer so einen so grossen Maxwell chip und zweitens kannst Du Gift drauf nehmen dass ein 32 SMM chip unter 28nm eine UNMENGE mehr Strom vebrauchen wuerde als AMD's Fiji top dog.

Raff
2015-06-03, 11:47:00
....und sie werden es auch weiterhin tun. NVIDIA ist aber nicht derjenige hier der ein image Problem hat oder nur mangelnden support vorweisst. Es geht hier um AMD und diese haben ein ziemlich grosses Problem in beiden vorigen Felden. Ein fertiges Produkt nicht zur Tuer rauszubekommen weil man das Treiberteam bis zum kotzen kastriert hat ist eine Blamage ohnegleichen. Wenn AMD wirklich auch auf den HPC Markt zielen will sollten sie sich dringend das Thema support generell nochmal ueberdenken.

Hast du dazu vielleicht Zahlen (Entlassungen o. Ä.)? :) AMD betonte schließlich jüngst eine Qualitätsoffensive. Diese wird wohl kaum nur in der QA betrieben.

MfG,
Raff

Loeschzwerg
2015-06-03, 11:56:23
Da werden die Karten wieder völlig neu gemischt.

Denke ich nicht, die Entwicklung läuft doch mit Pascal und zukünftigen Generationen parallel weiter. Maxwell ist eine "Sonderlocke" zu großen Stücken der Beschränkung auf 28nm geschuldet.

mironicus
2015-06-03, 12:04:58
Hast du dazu vielleicht Zahlen (Entlassungen o. Ä.)? :)

Es bleiben nur diejenigen übrig, die bereit sind für 8,50 Euro pro Stunde zu arbeiten, dabei 24 Stunden am Tag zur Verfügung stehen, auf ein eigenes Privatleben und den Aufbau einer Familie verzichten. :freak:

Blediator16
2015-06-03, 12:07:20
Hands on with one of PowerColor's next-gen Radeon R9 390X video cards

Read more at http://www.tweaktown.com/news/45669/hands-one-powercolors-next-gen-radeon-r9-390x-video-cards/index.html



1x6pin 1x8pin.

Das ist nicht die "Fury" Karte.

derguru
2015-06-03, 12:09:47
sieht irgendwie krank aus.:eek:;D

mironicus
2015-06-03, 12:10:09
Ist wohl eine Hawai (kann man an der Slotblende erkennen).
Wasserkühlungen sind der neueste Trend. :D
Aber hässlich ist das Teil. :D

Blediator16
2015-06-03, 12:11:03
sieht irgendwie krank aus.:eek:;D

http://thereformedbroker.com/wp-content/uploads/2010/10/decepticon-tradebots.jpg

:freak:

mironicus
2015-06-03, 12:13:42
Und auch noch höher als 2 Slots, Fail.

Blediator16
2015-06-03, 12:14:54
Und auch noch höher als 2 Slots, Fail.

Sieht für mich nach 2 Slot aus.

dargo
2015-06-03, 12:18:00
Anfang 2016 sollte Pascal in 16FF kommen, GP104/204 sollte dann bei 300mm² >35% auf GM200 drauflegen können. Mal sehen was AMD dann zeigen wird.
Träum weiter.

Und auch noch höher als 2 Slots, Fail.
Und warum? In einem normalen Miditower ist genug Platz. Solange man dadurch leise Karten bekommt sollts mir recht sein.

Loeschzwerg
2015-06-03, 12:19:12
Ist wohl eine Hawai (kann man an der Slotblende erkennen).
Wasserkühlungen sind der neueste Trend. :D
Aber hässlich ist das Teil. :D

Steht sogar im Artikel was es ist ;) Bezüglich Optik absolute Zustimmung und bei einer DEVIL13 hätte ich 2x 8Pin erwartet.

Blediator16
2015-06-03, 12:20:47
Steht eigentlich nicht drinne. Und laut denen ist das Design wohl auch nicht final.

Loeschzwerg
2015-06-03, 12:25:48
Es steht doch im ersten Absatz dass es nicht Fury ist, ist doch Aussage genug :confused:

Blediator16
2015-06-03, 12:27:18
Es steht doch im ersten Absatz dass es nicht Fury ist, ist doch Aussage genug :confused:

Ich glaube es geht eher um rebrand oder doch etwas feingetuntes. Dass es keine Fury ist, habe ich ja bereits geschrieben.

mironicus
2015-06-03, 12:36:37
Ein besseres Foto. Rein platzmäßig könnten da höchstens noch 2 weitere HBM-Stacks drauf. Wie sieht es eigentlich mit der Rückseite aus? Kann man da auch HBM-Stacks verbauen? :D

maximus_hertus
2015-06-03, 12:37:11
Anfang 2016 sollte Pascal in 16FF kommen, GP104/204 sollte dann bei 300mm² >35% auf GM200 drauflegen können. Mal sehen was AMD dann zeigen wird.

Für doofe (wie mich) - Januar / Februar 2016 kommt eine Performance Karte (GP x04), die 35+(!)% schneller als die TX ist?

Quasi die größte Sensations-Grafikkarte ALLER Zeiten?


Kleiner Recap: Halbe Die-Größe, wohl über 100W weniger Verbrauch UND 35 und mehr % schneller? Never.

Duplex
2015-06-03, 12:42:37
War doch bei GF110 > GK104 nicht viel anders ;)
Ich traue Nvidia alles zu, erst recht nachdem man gezeigt hat das 50% mehr Effizienz bei gleicher Node kein Problem sind.
AMDs leere Kassen tun mir aber sehr leid.

Troyan
2015-06-03, 12:47:24
Laut Hardware.fr sind die 4GB von AMD bestätigt worden.

M4xw0lf
2015-06-03, 12:48:28
Laut Hardware.fr sind die 4GB von AMD bestätigt worden.
Hm? Daran zweifelt doch spätestens seit den Bildern vom Package (hier) niemand mehr.

Troyan
2015-06-03, 12:49:49
Man weiß nie. ;)

Menace
2015-06-03, 12:51:28
Wenn man diesem Thread weiter zurückverfolgt, ist es schon "lange" bekannt, dass es (zunächst?) 4 GB sind. Aber man könnte noch etwas darauf rumreiten.

Es sind NUR 4 GB!!!111

Ailuros
2015-06-03, 12:52:50
War doch bei GF110 > GK104 nicht viel anders ;)
Ich traue Nvidia alles zu, erst recht nachdem man gezeigt hat das 50% mehr Effizienz bei gleicher Node kein Problem sind.
AMDs leere Kassen tun mir aber sehr leid.

Hat zwar nichts mehr mit dem Thema zu tun, aber 40G-->28HP TSMC :rolleyes::freak:

Troyan
2015-06-03, 12:54:45
Es sind 4GB für HBM1. Das hat AMD gegenüber Hardware.fr gesagt - maschinelle Übersetzung:

It explained that although in fact relatively simple to implement, this possibility was not foreseen in the HBM 1. against AMD has proposed for the HBM 2 and was then chosen for this memory happen next year.

In the immediate future, Fiji will have to settle for 4 GB. Joe Macri reiterates the argument that it would not be a problem and its engineers would have focused on optimizing memory use, a field that had been neglected so far, looking for more bandwidth usually causing a wide memory bus that automatically increased capacity.
http://www.hardware.fr/news/14241/computex-amd-fiji-ses-4-go-hbm-photo.html

Skysnake
2015-06-03, 12:55:37
Hm? Daran zweifelt doch spätestens seit den Bildern vom Package (hier) niemand mehr.
Das Bild sagt dazu gar nichts aus, da man an den nicht erkennen kann, ob ein Stack 1GB oder 2GB hat ;)

Man kann nur sagen, das man kein Dual-STack hat, was eh schon immer ziemlich hahnebüchen war.

@Devil handson:
Das Ding ist mal hässlich wie die Nacht :freak:

Zudem würde ich mich der Meinung der anderen anschließen, dass das sogar mehr als 2 Slots sind. Das wäre echt :facepalm:

Auf dem ersten Bild steht btw. 4G und 8G auf dem PCB, wenn ich das richtig erkennen kann, und das Kästchen bei 8G ist ausgefüllt.

Ich gehe mal spontan am ehesten von Tonga oder Hawaii aus.

Screemer
2015-06-03, 12:58:34
Man lässt einfach immer schön außer acht, dass gm1204 auch über die 300w peakt und der durschnittsverbrauch großteils "nur" einem besseren powermanagment geschuldet ist. Da ziehe ich bzgl. Maxwell meinen Hut vor NV, glaube allerdings AMD kann das auch. Wir werden sehen.

derguru
2015-06-03, 12:59:52
Wenn man diesem Thread weiter zurückverfolgt, ist es schon "lange" bekannt, dass es (zunächst?) 4 GB sind. Aber man könnte noch etwas darauf rumreiten.

Es sind NUR 4 GB!!!111
ja leider, amd bremst sich zunächst selbst aus egal wie schnell sie am ende auch wird. wegen des speichermankos könnte ich mir vorstellen das es dadurch preislich sehr attraktiv wird. (~550€)

Timbaloo
2015-06-03, 13:07:55
Man lässt einfach immer schön außer acht, dass gm104 auch über die 300w peakt und der durschnittsverbrauch großteils "nur" einem besseren powermanagment geschuldet ist. Da ziehe ich bzgl. Maxwell meinen Hut vor NV, glaube allerdings AMD kann das auch. Wir werden sehen.
Was imho auch der Grund ist warum man für GM200 nicht auf fett DP macht, der Perf/W-Vorteil gegenüber GK210 wäre nur gering gewesen weil man das Powermanagement von Maxwell in HPC-Workloads nicht sinnvoll nutzen könnte.

Dawn on Titan
2015-06-03, 13:12:37
Man lässt einfach immer schön außer acht, dass gm104 auch über die 300w peakt und der durschnittsverbrauch großteils "nur" einem besseren powermanagment geschuldet ist. Da ziehe ich bzgl. Maxwell meinen Hut vor NV, glaube allerdings AMD kann das auch. Wir werden sehen.

Was ist GM104?? Und einen GM204 der 300W aufnimmt, würde ich (ohne extrem OC BIOS) mal gerne sehen.

uweskw
2015-06-03, 13:15:03
Warten wir es doch einfach ab wie Fiji sich mit 4GB gegen die 980Ti mit 6GB behauptet.
Bei der Bandbreite kann ich mir gut vorstellen, dass 4GB HMB durch effizienteres Speichermanagement besser abschneidet als 6GB DDR Speicher. Und das in praktisch allen Lebenslagen.
Warten wirs doch einfach ab und bewerten AMD Fiji nach seiner tatsächlichen Leistung.

greetz
US

Raff
2015-06-03, 13:15:37
Was ist GM104?? Und einen GM204 der 300W aufnimmt, würde ich (ohne extrem OC BIOS) mal gerne sehen.

Er meint vielleicht GK104. Die hochgezüchteten Modelle (GTX-770-OC) liegen im Mittel bei 250 Watt.

MfG,
Raff

moonraker
2015-06-03, 13:19:44
Man lässt einfach immer schön außer acht, dass gm104 auch über die 300w peakt und der durschnittsverbrauch großteils "nur" einem besseren powermanagment geschuldet ist. Da ziehe ich bzgl. Maxwell meinen Hut vor NV, glaube allerdings AMD kann das auch. Wir werden sehen.

Was ist GM104?? Und einen GM204 der 300W aufnimmt, würde ich (ohne extrem OC BIOS) mal gerne sehen.


Bittesehr:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Genau das ist ja das Effizienzgeheimnis von Maxwell, kurzzeitige Leistungsspitzen um danach gleich wieder abzufallen, was im Mittel dann die kleinere Leistungsaufnahme ergibt.

Menace
2015-06-03, 13:21:59
@derguru & uweskw:

Es war ironisch gedacht, da -ohne wirklich greifbare Ergebnisse- auf Grund der 4GB alle 3 Beiträge "Fail" gerufen wird. Wie nachteilig das sich auswirkt kann momentan keiner hier im Forum sagen (weil sie es nicht wissen oder vielleicht sogar unter nda stehen).

Dawn on Titan
2015-06-03, 13:25:59
Bittesehr:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Genau das ist ja das Effizienzgeheimnis von Maxwell, kurzzeitige Leistungsspitzen um danach gleich wieder abzufallen, was im Mittel dann die kleinere Leistungsaufnahme ergibt.

Darf ich dann sagen, dass eine 290X über 400W nimmt?

http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-4.html

Duplex
2015-06-03, 13:27:21
Hat zwar nichts mehr mit dem Thema zu tun, aber 40G-->28HP TSMC :rolleyes::freak:
Und?
28nm HP > 16FF+
Ohne das der Chip größer wird kannst du 100% mehr Einheiten auf dem DIE platzieren.

Ravenhearth
2015-06-03, 13:33:43
Wenn die Fury mit 4GB kommt, dann darf die 390X doch unter keinen Umständen mit 8GB kommen. Es sei denn, AMD bringt in paar Monaten tatsächlich eine 8GB-Version der Fury. Alles andere wäre doch ein Witz :(

Isen
2015-06-03, 13:34:22
August munkelt man ja ... ^^

moonraker
2015-06-03, 13:34:45
Darf ich dann sagen, dass eine 290X über 400W nimmt?

http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-4.html


Richtig, eine Wassergekühlte Übertaktete Karte ;) die normalen nehmen sich aber auch um die 340W Peak, vergleichbar zur 980

Noebbie
2015-06-03, 13:36:10
Wenn die Boardpartner noch kein Bios etc. haben, dann wirds am 16. Juni einen Paperlaunch geben und Anfang August kommen die ersten Karten in allen Variationen. Mit 4 und 8GB. Die 4GB Version kommt bestimmt nicht allein...

Troyan
2015-06-03, 13:38:16
Vefügbarkeit wurde doch auf dem Investorevent für das zweite Halbjahr angekündigt. Reviewers scheinen ja auch noch keine Karten zu haben und es sind weniger als 2 Wochen.

Richtig, eine Wassergekühlte Übertaktete Karte ;) die normalen nehmen sich aber auch um die 340W Peak, vergleichbar zur 980

Und eine Customkarte der Gigabyte GTX980 mit einem Powerlimit von 300W ist dagegen fair? :freak:

Isen
2015-06-03, 13:39:30
Hat man nicht gesagt, dass die kurze Zeit später, nach der Vorstellung im Handel erhältlich sein sollen? War doch auf der FAD?

moonraker
2015-06-03, 13:42:46
Vefügbarkeit wurde doch auf dem Investorevent für das zweite Halbjahr angekündigt. Reviewers scheinen ja auch noch keine Karten zu haben und es sind weniger als 2 Wochen.



Und eine Customkarte der Gigabyte GTX980 mit einem Powerlimit von 300W ist dagegen fair? :freak:


Wer redet von der Custom Karte?

http://media.bestofmicro.com/C/O/455352/gallery/14-Nvidia-GeForce-GTX-980-Reference-All-Rails-Total_r_600x450.png

Referenz 980

Screemer
2015-06-03, 13:44:20
Bittesehr:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Genau das ist ja das Effizienzgeheimnis von Maxwell, kurzzeitige Leistungsspitzen um danach gleich wieder abzufallen, was im Mittel dann die kleinere Leistungsaufnahme ergibt.
sorry hatte mich vertippt.

vielen dank. genau diesen test hätte ich auch verlinkt. das scheint aber wohl keiner auf dem schirm zu haben. das sind noch ref. modelle und die ganzen "meine 980 macht 1,5ghz"-schreier sind da noch nicht mal mit abgedeckt.
Darf ich dann sagen, dass eine 290X über 400W nimmt?

http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-4.html
das darfst du druchaus, wenn du von peaken sprichst wie ich.

M4xw0lf
2015-06-03, 13:45:22
Wenn die Fury mit 4GB kommt, dann darf die 390X doch unter keinen Umständen mit 8GB kommen. Es sei denn, AMD bringt in paar Monaten tatsächlich eine 8GB-Version der Fury. Alles andere wäre doch ein Witz :(
Deswegen heißt das Ding Fury und nicht R9 3x0.

Ravenhearth
2015-06-03, 14:01:02
Deswegen heißt das Ding Fury und nicht R9 3x0.

Damits keiner merkt :upara: Verglichen wird natürlich trotzdem.

HOT
2015-06-03, 14:05:50
Wenn die Boardpartner noch kein Bios etc. haben, dann wirds am 16. Juni einen Paperlaunch geben und Anfang August kommen die ersten Karten in allen Variationen. Mit 4 und 8GB. Die 4GB Version kommt bestimmt nicht allein...
Hm, könnte sein, aber ich denke, dass AMD einfach die Chinesenleaks aussparen möchte. Kein BIOS -> keine Leaks. Die lassen die Karten bauen (im Referenzdesign ausschließlich bis 16.6.) und geben das BIOS erst bei der Auslieferung an die Händler frei. Custom Fury Pro kommen sicherlich sowieso erst Wochen später auf den Markt und Custom FuryXT gibts nicht. Vielleicht die 8GB-Variante.

Wenn man das Teil am 16. launcht mit nur 4GB ist das ganz schön selbstbewusst finde ich. Man hätte ja auch noch bis August warten können, so lange ist das ja nicht hin.

M4xw0lf
2015-06-03, 14:07:57
Hm, könnte sein, aber ich denke, dass AMD einfach die Chinesenleaks aussparen möchte. Kein BIOS -> keine Leaks. Die lassen die Karten bauen (im Referenzdesign ausschließlich bis 16.6.) und geben das BIOS erst bei der Auslieferung an die Händler frei.
Das ist sooooo uncool. :(

moonraker
2015-06-03, 14:10:07
Wäre aber wirksam.

M4xw0lf
2015-06-03, 14:11:25
Wäre aber wirksam.
Ja eben ^^

Noebbie
2015-06-03, 14:12:48
Dafür kassiert man dann den 4GB Shitstorm. Würde mich als AMD mehr nerven.

Troyan
2015-06-03, 14:12:57
Oder die sind einfach noch nicht soweit...
Laut Tridam von Hardware.fr soll es Reviews erst Ende Juni geben.

M4xw0lf
2015-06-03, 14:14:39
Oder die sind einfach noch nicht soweit...
Laut Tridam von Hardware.fr soll es Reviews erst Ende Juni geben.
Ach nee jetzt. :mad:

derF
2015-06-03, 14:17:23
Damits keiner merkt :upara: Verglichen wird natürlich trotzdem.
Klar wirds das. Wird auch krampfhaft versucht werden Fälle zu finden, wo's dann auf der 390X mit 8 GB besser läuft als auf der Fury mit 4 GB. Ist ja auch richtig so, aber wird vermutlich zeigen, dass der geringere Speicher nur einen sehr geringen Anteil der Spieler jucken wird. Gejammert wird dann trotzdem als ob niemand was mit der Karte anfangen könnte.

r3ptil3
2015-06-03, 14:18:39
Oder die sind einfach noch nicht soweit...
Laut Tridam von Hardware.fr soll es Reviews erst Ende Juni geben.

Ab dem 16.Juni dürfte dann eh schon genug geleaked werden...

dargo
2015-06-03, 14:28:26
Dafür kassiert man dann den 4GB Shitstorm. Würde mich als AMD mehr nerven.
Ich verstehe das Gejammer wegen der 4GB überhaupt nicht.

Mal angenommen Fiji XT ist knapp über der Leistung der Titan X. Dann sollte Fiji Pro sich ziemlich genau zwischen GTX 980 und GTX 980TI positionieren. Neuerdings heißt es Fiji ist "nur" noch ~500mm² groß. GM204 ist zwar nur 398mm² groß. Wenn Fiji Pro aber wirklich schneller als GTX980 ist und etwas langsamer als GTX 980TI dann wäre er dennoch gut positioniert. GM200 ist nämlich 601mm² groß. Die 4GB reichen wie gesagt zu 99% bis 1440p ohne MSAA aus. Und kommt mir jetzt nicht mit irgendwelcher kaputten Software wie Shadow of Mordor oder so einen Schrott. Schrottige Software wird es immer mal geben. Genauso gibt es sehr gute Beispiele wie aktuell Witcher 3 oder Ryse wo man wenig Speicher dank gutem Streaming braucht, letzteres halt Schlauch. Sollte wenige Monate später tatsächlich Fiji mit 8GB kommen ist doch alles in Butter. Natürlich würden Fiji 6GB von Anfang an besser passen. Manche möchten halt noch etwas Reserve. Es geht aber nun mal nicht.

Noebbie
2015-06-03, 14:31:34
Ich verstehe das Gejammer wegen der 4GB überhaupt nicht.

Mal angenommen Fiji XT ist knapp über der Leistung der Titan X. Dann sollte Fiji Pro sich ziemlich genau zwischen GTX 980 und GTX 980TI positionieren. Neuerdings heißt es Fiji ist "nur" noch ~500mm² groß. GM204 ist zwar nur 398mm² groß. Wenn Fiji Pro aber wirklich schneller als GTX980 ist und etwas langsamer als GTX 980TI dann wäre er dennoch gut positioniert. GM200 ist nämlich 601mm² groß. Die 4GB reichen wie gesagt zu 99% bis 1440p ohne MSAA aus. Und kommt mir jetzt nicht mit irgendwelcher kaputten Software wie Shadow of Mordor oder so einen Schrott. Schrottige Software wird es immer mal geben. Genauso gibt es sehr gute Beispiele wie aktuell Witcher 3 oder Ryse, letzteres halt Schlauch. Sollte wenige Monate später tatsächlich Fiji mit 8GB kommen ist doch alles in Butter. Natürlich würden Fiji 6GB von Anfang an besser passen. Manche möchten halt noch etwas Reserve. Es geht aber nun mal nicht.

Seh ich genau so.

Trotzdem erntet AMD gerade den Shitstorm. :D

Da können 4GB noch so lange reichen.

dargo
2015-06-03, 14:41:49
Seh ich genau so.

Trotzdem erntet AMD gerade den Shitstorm. :D

Ach, da muss man einfach durch.

Ich habe mal das Bild von CB geklaut.
52103

Wenn Fiji Pro sich irgendwo bei 115% positioniert dann ist doch alles in Ordnung. Natürlich muss auch der Preis stimmen. GM204 gibts jetzt mit gutem Custom-Kühler für 500€. In dem Bereich müsste Fiji Pro dann auch landen.

Dawn on Titan
2015-06-03, 14:45:14
Seh ich genau so.

Trotzdem erntet AMD gerade den Shitstorm. :D

Da können 4GB noch so lange reichen.

Evtl. weil man 3,5GB für ne Performacnekarte fixxen lies und nun erklärt, dass 4GB für ne absolute High-End-karte reichen.

M4xw0lf
2015-06-03, 14:46:06
Ach, da muss man einfach durch.

Ich habe mal das Bild von CB geklaut.
52103

Wenn Fiji Pro sich irgendwo bei 115% positioniert dann ist doch alles in Ordnung. Natürlich muss auch der Preis stimmen. GM204 gibts jetzt mit gutem Custom-Kühler für 500€. In dem Bereich müsste Fiji Pro dann auch landen.
Nä, ausgehend von deinem Bildchen dürfens schon 120+x sein. Fiji sollte sich auch abgespeckt gut vor einen GM204 setzen.

boxleitnerb
2015-06-03, 14:47:04
Man lässt einfach immer schön außer acht, dass gm104 auch über die 300w peakt und der durschnittsverbrauch großteils "nur" einem besseren powermanagment geschuldet ist. Da ziehe ich bzgl. Maxwell meinen Hut vor NV, glaube allerdings AMD kann das auch. Wir werden sehen.

Hatte nicht mal Ailuros gesagt, dass das Unsinn ist? Wenn du dich auf den Test bei THG bezieht, war das nicht ein OC- Modell mit erhöhter Spannung...und der Test wurde später glaube ich auch nochmals korrigiert.

M4xw0lf
2015-06-03, 14:47:56
Hatte nicht mal Ailuros gesagt, dass das Unsinn ist? Wenn du dich auf den Test bei THG bezieht, war das nicht ein OC- Modell mit erhöhter Spannung...und der Test wurde später glaube ich auch nochmals korrigiert.
Nein. Aber diese Leistungspeaks ändern ja nichts am Durchschnittsverbrauch.

Lurtz
2015-06-03, 14:48:11
Seh ich genau so.

Trotzdem erntet AMD gerade den Shitstorm. :D

Da können 4GB noch so lange reichen.
Jahrelang knausert nVidia beim VRam, keinen interessierts, kaum tut es AMD -> Shitstorm ;D Wie immer halt.

Ravenhearth
2015-06-03, 14:48:17
Evtl. weil man 3,5GB für ne Performacnekarte fixxen lies und nun erklärt, dass 4GB für ne absolute High-End-karte reichen.

Das Problem bei der 970 ist ja nicht, dass sie nur 3,5GB hätte...

dargo
2015-06-03, 14:52:52
Nä, ausgehend von deinem Bildchen dürfens schon 120+x sein. Fiji sollte sich auch abgespeckt gut vor einen GM204 setzen.
Oh Leute... wollt ihr jetzt mit mir über sowas unwichtiges wie +/-5% diskutieren? Das ist doch schei... egal. Wichtig ist nur, dass Fiji Pro schneller als GM204 ist um ihn besser gehen GM200 Salvage zu positionieren. ~500mm² vs. ~400mm² hat man schon verloren. 500mm² gegen ~600mm² sehen wieder sehr gut aus.

Das Problem bei der 970 ist ja nicht, dass sie nur 3,5GB hätte...
Traurig genug, dass das viele immer noch nicht raffen.

fondness
2015-06-03, 14:55:20
In Wahrheit wird der Einfluss der Fertigungskosten eh überschätzt. NV hat jahrelang teils doppelt so große Dies gegen AMD stellen müssen und es war auch kein Problem. Wichtig ist das die Verkaufszahlen passen, Marge ist da im High-End genug drauf keine Angst.

Dawn on Titan
2015-06-03, 14:56:26
FPS ohne W sind heute nichts wert.

Screemer
2015-06-03, 14:57:55
Hatte nicht mal Ailuros gesagt, dass das Unsinn ist? Wenn du dich auf den Test bei THG bezieht, war das nicht ein OC- Modell mit erhöhter Spannung...und der Test wurde später glaube ich auch nochmals korrigiert.
die peaks sind da und da gibts auch nix zu deuteln. hawaii peakt über die 400w. die stromsparmechanismen von maxwell sind einfach spitze. wollte nur mal in erinnerung rufen, dass die niedrigen werte eben auch erkauft werden müssen.

Sunrise
2015-06-03, 14:58:07
FPS ohne W sind heute nichts wert.
Im High-End brauche ich aber FPS und diejenigen, die sich ihren GM200 jetzt schönreden und dann klamheimlich hinterrücks volles Rohr übertakten bis zum geht nicht mehr, die interessieren sich sicher nicht für W, sondern für alles, was der Chip hergibt. Das ist eine ziemlich verlogene Nummer, die einige abziehen.

Und Fiji wird auch Stromsparverbesserungen haben, keine Angst.

So Beiträge wie "wenn NV, dann" (gilt auch für AMD) sollten eigentlich direkt entsorgt werden. Und das Marketing zitieren ist genauso sinnvoll. Wir wollen hier Fakten.

AMD muss min. konkurrenzfähig sein, und 20-30W mehr interessieren echt keine Sau, genausowenig wie +5% Mehrleistung. Wir wollen alle ein ordentlichen durchzugsstarken Chip der weder übers Limit gebrügelt ist und 500W verbraucht (das sollte logisch sein), noch total leistungsmäßig untergeht. Aber damit rechnet doch hoffentlich niemand hier oder?

Duplex
2015-06-03, 14:59:39
NV hat jahrelang teils doppelt so große Dies gegen AMD stellen müssen und es war auch kein Problem. Wichtig ist das die Verkaufszahlen passen, Marge ist da im High-End genug drauf keine Angst.
Bei Nvidia funktoniert das auch ohne Probleme, die verkaufen allgemein mehr Chips, aber bei AMD läuft das leider ganz anders, genau wie im APU Markt macht man mit größere DIEs nur Verluste. Die GPU Sparte von AMD macht nur 5% Gewinn, deshalb gibt AMD auch kaum noch Geld für die Entwicklung aus, man verkauft zu wenig, die Marktanteile sinken!!!

Troyan
2015-06-03, 15:00:57
Das Problem bei der 970 ist ja nicht, dass sie nur 3,5GB hätte...

Eigentlich ist genau das DAS Problem. :freak:
Und das jemand, der genau deswegen die Karte zurückgegeben hat, sich hinstellt und 18% Speicher bei 40% Mehrleistung als okay verkauft, macht es irgendwie ironisch. ;D

dargo
2015-06-03, 15:01:02
FPS ohne W sind heute nichts wert.
Toll... dann frage ich mich für wen GM200 kam, vorallem die OC Varianten mit teilweise Hybridkühlung? Immer diese idiotischen Anmerkungen. :rolleyes:

Eigentlich ist genau das DAS Problem. :freak:

Eigentlich hast du aus dem 970-er Debakel nichts verstanden. Aber das verwundert sicherlich niemanden hier.

fondness
2015-06-03, 15:02:58
Eigentlich ist genau das DAS Problem. :freak:


Nur für Leute die sich dumm stellen. Für alle anderen wurde das im entsprechenden Thread zur genüge ausdiskutiert.

StefanV
2015-06-03, 15:05:23
FPS ohne W sind heute nichts wert.
...aber nur bei AMD...

Als die Thermi Karten gesoffen haben wie 'nen Loch und z.T. 100W mehr gefressen haben als die AMD Karten, war das egal...
Jetzt, wo AMD mal 'nen bisserl mehr verbraucht, sind sie auf einmal nicht mehr zu empfehlen...

Und dass ATi lange Zeit deutlich sparsamere Karten als nV hatte, wird da auch unter den Tisch gekehrt.
Vergleiche mal Rage 128 vs. Riva TNT2 -> erstere ist auch mit abmontiertem Lüfter sehr kühl, letztere recht heiß...

nVidia war erst mit Kepler vs. GCN etwas besser als ATi/AMD, was auch gern übersehen wird...

PS:
Mein i7/920 säuft mit der GTX570 'nen Stück mehr als mit der R9-280X.

Und jetzt aufeinmal ist es ein Drama, wenn AMD in diesem Breich liegt?!

Troyan
2015-06-03, 15:08:33
Eigentlich hast du aus dem 970-er Debakel nichts verstanden. Aber das verwundert sicherlich niemanden hier.

Verstanden? Abgesehen vom moralischen Standpunkt:
Was genau ist bei 18% Mehrspeicher für 40% Mehrleistung besser?
Was machen genau die 4GB einer Fiji Karte zu einem besseren Produkt als die 3,5GB der GTX970?

Oder liegt es einfach daran, dass nun AMD in solch einer Position ist und du das irgendwie gut reden musst? :freak:

Sunrise
2015-06-03, 15:08:38
Mein i7/920 säuft mit der GTX570 'nen Stück mehr als mit der R9-280X.

Und jetzt aufeinmal ist es ein Drama, wenn AMD in diesem Breich liegt?!
Vor allem wenn man sich mal anschaut, wieviele noch nen Sandy als CPU im Rechner haben, den einige auf 5GHz hochprügeln und die schreiben sich hier dann allen Ernstes nen Wolf weil AMD 50W Mehrverbrauch hat. Da sind sicherlich die W relevant. NOT.

Wärens 100W mehr und deutlich schlechtere Leistung OK, aber wer sowas bei Fiji echt erwartet der sollte lieber bis zum 16. warten und mal wieder einen Realitätscheck machen.

Duplex
2015-06-03, 15:09:21
Als die Thermi Karten gesoffen haben wie 'nen Loch und z.T. 100W mehr gefressen haben als die AMD Karten, war das egal...
Jetzt, wo AMD mal 'nen bisserl mehr verbraucht, sind sie auf einmal nicht mehr zu empfehlen...

Damals war die Lage aber noch anders als heute, Nvidia war bei Tesselation & BQ deutlich besser als AMD, AF war bei AMD erst durch GCN einwandfrei.

dargo
2015-06-03, 15:09:43
Verstanden? Abgesehen vom moralischen Standpunkt:
Was genau ist bei 18% Mehrspeicher für 40% Mehrleistung besser?

Hier ist deine Spielwiese. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560256)

Godmode
2015-06-03, 15:11:27
Ich verstehe das Gejammer wegen der 4GB überhaupt nicht.

Mal angenommen Fiji XT ist knapp über der Leistung der Titan X. Dann sollte Fiji Pro sich ziemlich genau zwischen GTX 980 und GTX 980TI positionieren. Neuerdings heißt es Fiji ist "nur" noch ~500mm² groß. GM204 ist zwar nur 398mm² groß. Wenn Fiji Pro aber wirklich schneller als GTX980 ist und etwas langsamer als GTX 980TI dann wäre er dennoch gut positioniert. GM200 ist nämlich 601mm² groß. Die 4GB reichen wie gesagt zu 99% bis 1440p ohne MSAA aus. Und kommt mir jetzt nicht mit irgendwelcher kaputten Software wie Shadow of Mordor oder so einen Schrott. Schrottige Software wird es immer mal geben. Genauso gibt es sehr gute Beispiele wie aktuell Witcher 3 oder Ryse wo man wenig Speicher dank gutem Streaming braucht, letzteres halt Schlauch. Sollte wenige Monate später tatsächlich Fiji mit 8GB kommen ist doch alles in Butter. Natürlich würden Fiji 6GB von Anfang an besser passen. Manche möchten halt noch etwas Reserve. Es geht aber nun mal nicht.

Ich weiß nicht wie AMD mit dem Speicher umgeht, aber mir war die 980 mit 4 GB deutlich zu klein bemessen für meine Anforderungen. Klar wenn einem 144p ohne MSAA genügt, dann reichen auch die 4 GB VRAM, aber wozu dann überhaupt eine Highendkarte, das schafft ja auch eine Midrange Karte.

Unicous
2015-06-03, 15:12:47
Seitenweise dummes Gequatsche.

dargo
2015-06-03, 15:12:57
Ich weiß nicht wie AMD mit dem Speicher umgeht, aber mir war die 980 mit 4 GB deutlich zu klein bemessen für meine Anforderungen. Klar wenn einem 144p ohne MSAA genügt, dann reichen auch die 4 GB VRAM, aber wozu dann überhaupt eine Highendkarte, das schafft ja auch eine Midrange Karte.
Für hohe fps. Nicht jeder spielt gerne unter 50fps, trotz VRR.

Mal ein Beispiel da ich gerade hier zum testen eine 290x habe. Ich sehe diese Karte für 1080p vollkommen ausreichend für aktuelle Games. Für 1440p finde ich sie teilweise schon etwas zu schwach. Da wären mir +~40% Leistung lieber. Also eher sowas wie Fiji Pro.

Seitenweise dummes Gequatsche.
*zustimm*

Typisch 3DC halt.

Troyan
2015-06-03, 15:12:57
Ich kenne den Thread. Dort geht es zu 90% um den moralischen Standpunkt.

Hier geht es um den technischen Aspekt. Fiji wird erheblich schneller sein als eine GTX970, trotzdem nur 18% mehr Speicher besitzen.

Ich kann verstehen, wenn leute ihre GTX970 wegen der Verarsche zurückgegeben haben. Was dagegen ironisch ist, wenn man es gemacht hat, weil die 3,5GB nicht ausreichend für die Zukunft wären und sich dann hinstellen und 4GB - oder 18% mehr - als vollkommen in Ordnung bezeichnen.

aufkrawall
2015-06-03, 15:15:24
Ich kenne den Thread. Dort geht es zu 90% um den moralischen Standpunkt.

Das ändert an den technischen Begebenheiten rein gar nichts.


Hier geht es um den technischen Aspekt. Fiji wird erheblich schneller sein als eine GTX970, trotzdem nur 18% mehr Speicher besitzen.

Das zeigt, dass du das Problem der 970 immer noch nicht verstanden hast.

Sunrise
2015-06-03, 15:18:03
Was machen genau die 4GB einer Fiji Karte zu einem besseren Produkt als die 3,5GB der GTX970?
Ist das jetzt dein Ernst?

boxleitnerb
2015-06-03, 15:19:48
...aber nur bei AMD...

Als die Thermi Karten gesoffen haben wie 'nen Loch und z.T. 100W mehr gefressen haben als die AMD Karten, war das egal...
Jetzt, wo AMD mal 'nen bisserl mehr verbraucht, sind sie auf einmal nicht mehr zu empfehlen...

Und dass ATi lange Zeit deutlich sparsamere Karten als nV hatte, wird da auch unter den Tisch gekehrt.
Vergleiche mal Rage 128 vs. Riva TNT2 -> erstere ist auch mit abmontiertem Lüfter sehr kühl, letztere recht heiß...

nVidia war erst mit Kepler vs. GCN etwas besser als ATi/AMD, was auch gern übersehen wird...

PS:
Mein i7/920 säuft mit der GTX570 'nen Stück mehr als mit der R9-280X.

Und jetzt aufeinmal ist es ein Drama, wenn AMD in diesem Breich liegt?!

In den letzten Jahren fiel da nur Fermi negativ auf. 8800GT vs 3870 oder GTX260 vs 4870 hielten sich bei der Effizienz etwa die Waage. 2900XT war schlecht, bei Release von R520/580 war NV mindestens gleichauf wenn nicht effizienter. Später mit neueren Spielen könnte sich das geändert haben, wüsste aber nicht wer das nochmals nach gemessen hätte. Beim Highend ist es ein Mythos, dass AMD fast immer effizienter war.

mironicus
2015-06-03, 15:22:49
Das mit der GTX 970 war ja Betrug, und von Betrügern sollte man nichts kaufen.

Dawn on Titan
2015-06-03, 15:25:01
...aber nur bei AMD...

Als die Thermi Karten gesoffen haben wie 'nen Loch und z.T. 100W mehr gefressen haben als die AMD Karten, war das egal...
Jetzt, wo AMD mal 'nen bisserl mehr verbraucht, sind sie auf einmal nicht mehr zu empfehlen...

Und dass ATi lange Zeit deutlich sparsamere Karten als nV hatte, wird da auch unter den Tisch gekehrt.
Vergleiche mal Rage 128 vs. Riva TNT2 -> erstere ist auch mit abmontiertem Lüfter sehr kühl, letztere recht heiß...

nVidia war erst mit Kepler vs. GCN etwas besser als ATi/AMD, was auch gern übersehen wird...

PS:
Mein i7/920 säuft mit der GTX570 'nen Stück mehr als mit der R9-280X.

Und jetzt aufeinmal ist es ein Drama, wenn AMD in diesem Breich liegt?!

Man nannte sie Thermi weil sie so sparsam waren? Der Punkt ist, wenn ich zwei Karten vergleichen will, dann spielt der Verbrauch eine Rolle, ob es den Kunden interessiert, das ist dann seine Entscheidung.


Das zeigt, dass du das Problem der 970 immer noch nicht verstanden hast.

ist auch völlig egal, wer damals es total geil fand, wenn jemand R290X 8GB als Vergleich nutzte, der muss sich nun nicht wundern wenn 4GB für eine neue High-End-karte als möglicherweise knapp angesehen werden.

Loeschzwerg
2015-06-03, 15:31:09
Als die Thermi Karten gesoffen haben wie 'nen Loch und z.T. 100W mehr gefressen haben als die AMD Karten, war das egal...

Die GTX 480 wurde doch verrissen ohne Ende und hat im Ref-Design eigentlich nirgends eine Empfehlung bekommen -.-

r-or
2015-06-03, 15:39:24
Wieder mal sehr schwierig diesen Thread zu lesen... und warum ihr immer mit der 970 als Vergleich kommt, ist mir schleierhaft. Alle diejenigen haben damals eben nichts kapiert.

___________
@Topic

Ich denke, für Konsolenspiele der akt. Generation sind die 4 GB ausreichend, zumindest wenn Texturen auf demselben Level verwendet werden. DA am PC es aber oft höher aufgelöste verwendet werden (da ja viele wohl auch in 4k spielen wollen) ist es selbst für Cross Gen Platform wahrscheinlich sehr knapp.

Sobald dann PC only Titel kommen (Star Citizen etc), muss man wohl definitv die Texturqualität runterfahren.

Aufgrund der mangelhaften Zukunfssicherheit würde ich mir die Karte darum nicht holen...

Agent117
2015-06-03, 15:45:31
edit: wenn man vom Teufel spricht... PCGH spekuliert aufgrund eines Die-Shots aus der Carrizo Präsentation: http://www.pcgameshardware.de/AMD-Radeon-R9-285-2G-Grafikkarte-259969/News/Tonga-GPU-mit-256-Bit-Interface-und-32-CUs-1160632/

Danke, da sieht man ja schon par interessante Sachen.
6MCs und somit 384Bit sowie noch viel extra Sauce links auf dem DIE.
Wäre auch mal interessant zu wissen, vieviel Platz HSA 1.0 braucht.

Wenns gut läuft, gibts Tonga XT dann mit 3 und 6Gb.
Hab mal anhand von Benchmarks grob überschlagen, dass man mit möglichen 1050Mhz Takt ca. 10% vor der 280X rauskommt und schon in der Nähe der 290 ist.
Wenn er dann noch 15% sparsamer als die 280X und einfacher zu kühlen ist, bekäme man hier ein rundes Produkt, was Nvidia mit einer weiteren GM 204 Salvage Lösung kontern müsste.

Ravenhearth
2015-06-03, 15:48:53
Wie viel DP:SP hat Tonga denn eigentlich? Wirklich nur 1:8? Oder doch mehr?

M4xw0lf
2015-06-03, 15:50:52
Wie viel DP:SP hat Tonga denn eigentlich? Wirklich nur 1:8? Oder doch mehr?
Weiß man nicht.

Korvaun
2015-06-03, 16:15:20
Sobald dann PC only Titel kommen (Star Citizen etc), muss man wohl definitv die Texturqualität runterfahren.

Aufgrund der mangelhaften Zukunfssicherheit würde ich mir die Karte darum nicht holen...


Wobei z.b. Star Citizen wohl frühestens Ende 2016 wirklich kommt, und bis dahin gibts ja dann schon die Nachfolgegeneration in 14/16nm. Wer also jetzt Fiji4GB kauft der hat locker 1,5 Jahre was davon. Leute die 4K/SLI/SuperAA-Modi/downsampling/etc. ausgiebig nutzen müssen natürlich vorsichtig sein...

uweskw
2015-06-03, 16:23:34
Nochmal: 4GB VRAM sind sehr viel für ein Spiel. Mit hoher Bandbreite und effizientem Speichermanagement kann man besser abschneiden als 6GB DDR in der 980Ti. Wartet es doch bitte ab. Hier entscheidet die viel beschworene Effizienz.

greetz
US

Timbaloo
2015-06-03, 16:28:38
Also ich frage mich immernoch was die höhere Bandbreite an der Größe des RAMs ändern soll. Was soll da der Wirkmechanismus sein?

Kartenlehrling
2015-06-03, 16:33:15
Das ändert an den technischen Begebenheiten rein gar nichts.
Das zeigt, dass du das Problem der 970 immer noch nicht verstanden hast.


Witzig ist das es Nvidia uns erklären will,
aber wieso nehmen sie dafür eine GeForce GTX 680 (with 2 GB of dedicated video memory) on Windows 8
:confused:


https://developer.nvidia.com/content/are-you-running-out-video-memory-detecting-video-memory-overcommitment-using-gpuview
Are You Running Out of Video Memory? Detecting Video-Memory Overcommitment using GPUView

aufkrawall
2015-06-03, 16:33:37
Das Thema gabs ja nun schon ein paar Mal, und die Antwort war immer, dass man nicht wie durch Zauberei Speicherbelegung ohne Nachteile senken kann.

Wie wurde immer darauf rumgeritten, dass 3GB für die Leistung der 780 Ti zu wenig sind, aber jetzt sollen 4GB mit Fiji-Leistung auf einmal für 4k reichen.
Lachhaft.

woodsdog
2015-06-03, 16:34:42
Nochmal: 4GB VRAM sind sehr viel für ein Spiel. Mit hoher Bandbreite und effizientem Speichermanagement kann man besser abschneiden als 6GB DDR in der 980Ti. Wartet es doch bitte ab. Hier entscheidet die viel beschworene Effizienz.

greetz
US


Diese Aussage basiert auf was genau? Bauchgefühl? Wunschdenken?

Asaraki
2015-06-03, 16:35:07
Ich weiß nicht inwiefern das Gültigkeit hat, aber je höher die Bandbreite desto weniger bringt ein halten/precachen von Daten. Denke aber die Sache ist sehr komplex und bis auf ganz wenige hier wird kaum einer wirklich die Warums verstehen sondern einfach auf bestehende Erfahrungswerte zurückgreifen. Eine immens höhere Bandbreite kann durchaus aber "unerwartete" Effekte haben

-/\-CruNcher-/\-
2015-06-03, 16:38:38
:whisper: Spielverderber....



Die Dinger sind konkurrenzfaehig; etwas besonderes aber trotzdem nicht und das werden die fanboys eben nicht so leicht schlucken koennen.

Jo vieles davon wird aber durch den HBM erst erreicht was ist dann wenn Nvidia mit Pascal nachzieht dann geht das ganze doch von vorne loss man erkauft sich erstmal nur Zeit das natürlich auch gut so :)

Mal sehen wie viele wirklich diese Summe hinblättern werden und wie es im Performance vs Nvidia aussieht.

Das Thema gabs ja nun schon ein paar Mal, und die Antwort war immer, dass man nicht wie durch Zauberei Speicherbelegung ohne Nachteile senken kann.

Wie wurde immer darauf rumgeritten, dass 3GB für die Leistung der 780 Ti zu wenig sind, aber jetzt sollen 4GB mit Fiji-Leistung auf einmal für 4k reichen.
Lachhaft.

Nö nicht durch Zauberei aber durch hartes R&D, Nachteile daraus kann man minimieren so das sie nicht mehr sichtbar sind nennt man Effizienz und Fortschritt (kostet aber nicht wenig) ;)

Agent117
2015-06-03, 16:40:15
Wie viel DP:SP hat Tonga denn eigentlich? Wirklich nur 1:8? Oder doch mehr?

Ich hab mir mal die Mühe gemacht und ein CU von Tahiti und Tonga mit Photoshop ausgemessen.
Tahitis CUs sind um 6,5% größer.

Ich komme bei Tahiti auf 5,54mm² (hatte das größer in Erinnerung??)
und bei Tonga auf 5,20mm².

Habe als Vorlage für die Lage der CUs das hier genommen.
http://extreme.pcgameshardware.de/attachments/674032d1376553895-leak-zur-neuen-grafikkarten-generation-von-amd-hawaii-amd-r1000-tahiti-die-shot-marked.preview.jpg

Der DIE-Shot von Tonga wurde im beyond3d Forum schon perspektivisch entzerrt.
http://i.imgur.com/Q5MVBsz.jpg

Auffallend am Tonga DIE ist, dass die CUs oben und unten bis an das Speicherinterface reichen. Bei Tahiti liegt der Speichercontroller noch dazwischen. Bei Tonga liegt dieser vermutlich links neben den linken CU-Block.

6,5% Flächenersparnis lassen mich eher zu den Schluss kommen, dass Tonga auch 1/2 oder 1/4 DP kann.
Bleibt halt noch die Frage, wieviel Platz die Logik für FP16 in Tongas CUs benötigt.

woodsdog
2015-06-03, 16:40:37
ja, es ist wahrscheinlich mega effizient, andauernd alles wieder über pci-e zu schaufeln.

dargo
2015-06-03, 16:41:50
Wie wurde immer darauf rumgeritten, dass 3GB für die Leistung der 780 Ti zu wenig sind, aber jetzt sollen 4GB mit Fiji-Leistung auf einmal für 4k reichen.
Lachhaft.
Keiner sagt (außer vielleicht paar Trottel), dass die 4GB für 4k reichen. Für 4k ist die Karte eh zu langsam, wie auch schon GM200. Über 4k können wir gerne bei Pascal High-End und dem AMD-Gegner sprechen, sofern die GPU-Last in Spielen nicht deutlich wieder steigt.

Troyan
2015-06-03, 16:43:09
Laut PCGH unterstützt Carrizo nur Feature Level 12_0:
http://www.pcgameshardware.de/DirectX-12-Software-255525/Videos/AMD-Carrizo-FX-8800P-DirectX-12-Futuremark-API-Overhead-Test-1160659/

Wie hoch wird die Wahrscheinlichkeit sein, dass Fiji als einzige GPU im Portfolio Feature Level 12_1 unterstützen wird?!

aufkrawall
2015-06-03, 16:53:12
Keiner sagt (außer vielleicht paar Trottel), dass die 4GB für 4k reichen. Für 4k ist die Karte eh zu langsam, wie auch schon GM200. Über 4k können wir gerne bei Pascal High-End und dem AMD-Gegner sprechen, sofern die GPU-Last in Spielen nicht deutlich wieder steigt.
Ich hab seit 1,5 Jahren WQHD und da reicht die 980-Leistung und -Speicher bisher problemlos. Aufrüstdruck 0.

Ich rechne mit einem guten 4k IPS A-Sync Display-Support in sechs Monaten, und dann sind Fiji und GM200 immer noch das Maß der Dinge und müssen auch dort so gut überzeugen, wie es geht.
Entsprechend wird sich der Fokus in den Tests stärker auf 4k verschieben.
Wenn ich in WQHD gut ohne A-Sync auskomme, sind 4k mit schnellerer GPU und A-Sync auch nicht das Riesenproblem.

dargo
2015-06-03, 17:01:18
Wenn ich in WQHD gut ohne A-Sync auskomme, sind 4k mit schnellerer GPU und A-Sync auch nicht das Riesenproblem.
Das Thema hatten wir schon. Was für dich kein Problem ist muss nicht für andere gelten. Wer mit niedrigen Frameraten leben kann kommt sicherlich auch mit GM200 oder halt Fiji bei 4k zurecht (letzteres mit 4GB halt etwas knapp bemessen, 6GB wären besser). Ich sehe das halt anders, und daran ändert VRR überhaupt nichts. Für mich sind Beides gute 1440p GPUs.

Sunrise
2015-06-03, 17:05:44
Es scheint übrigens jetzt anhand des Tonga-Shots von AMD bestätigt zu sein, dass Tonga doch ein 384bit SI hat:
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-71

Das würde das neue LineUp wieder deutlich interessanter machen. Vor allem bei den Speicherkonfiguration. Von 2GB, 4GB, 6GB bis 8GB theoretisch alles dabei. Fiji wird wohl die große Ausnahme (vorerst).

Wenn Fiji also doch um die 600mm² hat (gemessen am letzten Bild von Lisa, was die Relationen klarer macht), dann hat das Ding ordentlich Leistung. Da ist genug Platz für eine gute Skalierung nach oben. Will garnicht wissen, wieviel Transistoren das Ding pro mm² hat, wenn AMD da weiterhin Vollgas gegeben hat. Da Ding wird wohl >9 Milliarden Transistoren haben.

Gipsel
2015-06-03, 17:11:47
Und ein schönerer Fiji-Shot aus dem B3D-Forum:

http://i.imgur.com/56gPDvd.jpg

Edit:
Versucht sich mal noch einer dran mit dem Interposer (vermutlich 26mm x 33mm) als Maßstab? Das Ding ist nicht größer als ~500mm².

Schnoesel
2015-06-03, 17:17:41
Für 4K würde ich mir auch sicherlich nicht die 4GB Variante holen. Bei 1440p gehe ich da noch mit. 4K ist für mich aber nicht gangbar mit Leistung von Fiji oder TitanX/GTX 980TI.

Imo ist 1440p der Sweetspot bei den Karten. GTA 5 oder Witcher 3 @ 4k zeigt doch auf dass hier noch nix zu holen ist.

Nightspider
2015-06-03, 17:19:54
Falls im August wirklich eine 8GB Version kommt wäre das auch verschmerzbar. Das wären nur 2 weitere Monate.

Ravenhearth
2015-06-03, 17:20:25
Will garnicht wissen, wieviel Transistoren das Ding pro mm² hat, wenn AMD da weiterhin Vollgas gegeben hat. Da Ding wird wohl >9 Milliarden Transistoren haben.

9 Mrd. auf 600mm² waren 15 Mio./mm². Aber das glaub ich gar nicht.

r3ptil3
2015-06-03, 17:27:53
Als im August wirklich eine 8GB Version kommt wäre das auch verschmerzbar. Das wären nur 2 weitere Monate.

Verschmerzbar wäre eigentlich gar nichts. Fiji kommt zu spät und das weiss AMD.

Die 980 war ohne Konkurrenz seit 8 Monaten und die 980 TI ebenfalls für eine Weile. Fiji wird vermutlich das gleiche erleben wie die 290X. Muss vermutlich sogar zwei Generationen der Konkurrenz ertragen.

Sunrise
2015-06-03, 17:29:41
Danke Gipsel.

Ich habs mal perspektisch korrigiert:

http://abload.de/img/imagewop5o.jpg

Thunder99
2015-06-03, 17:29:57
Ich kenne den Thread. Dort geht es zu 90% um den moralischen Standpunkt.

Hier geht es um den technischen Aspekt. Fiji wird erheblich schneller sein als eine GTX970, trotzdem nur 18% mehr Speicher besitzen.

Ich kann verstehen, wenn leute ihre GTX970 wegen der Verarsche zurückgegeben haben. Was dagegen ironisch ist, wenn man es gemacht hat, weil die 3,5GB nicht ausreichend für die Zukunft wären und sich dann hinstellen und 4GB - oder 18% mehr - als vollkommen in Ordnung bezeichnen.
Ich verweise gerne auf die Links aus meiner Signatur die eine GTX970 als sehr problematisch zeigen mit ihren "3,5GB". Kurz, es sind halt 3,5+0,5GB was das Problem ist (eine reine 3,5GB Karte wäre da die bessere Wahl gewesen)

Fiji mit nur 4GB für den Anfang sehe ich als verschmerzbaren Kompromiss. Wenn sie es schaffen die Speicherbelegung generell zu optimieren kommt es dann auch für die anderen GPU´s zu nutze?

w0mbat
2015-06-03, 17:30:10
Verschmerzbar wäre eigentlich gar nichts. Fiji kommt zu spät und das weiss AMD.

Die 980 war ohne Konkurrenz seit 8 Monaten und die 980 TI ebenfalls für eine Weile. Fiji wird vermutlich das gleiche erleben wie die 290X. Muss vermutlich sogar zwei Generationen der Konkurrenz ertragen.

Die 980Ti ist noch gar nicht wirklich Verfügbar :freak:

Blediator16
2015-06-03, 17:30:31
Verschmerzbar wäre eigentlich gar nichts. Fiji kommt zu spät und das weiss AMD.

Die 980 war ohne Konkurrenz seit 8 Monaten und die 980 TI ebenfalls für eine Weile. Fiji wird vermutlich das gleiche erleben wie die 290X. Muss vermutlich sogar zwei Generationen der Konkurrenz ertragen.

Klar einmal so passiert und es wird sich nie wieder etwas ändern. So wie mit der 2900 von ATI und Fermi bei NV...ops kam doch alles anders als man so gedacht hat :rolleyes:

Agent117
2015-06-03, 17:39:47
Danke Gipsel.

Ich habs mal perspektisch korrigiert:


Ich komme auf 509mm². Ausgehend von den 858mm² großen Interposer.

Also wohl wirklich nur um die 500 groß

w0mbat
2015-06-03, 17:42:04
Hier ist die Pressekonferenz: https://www.youtube.com/watch?v=QQ92qWdVLsM

StefanV
2015-06-03, 17:58:50
Wieder mal sehr schwierig diesen Thread zu lesen... und warum ihr immer mit der 970 als Vergleich kommt, ist mir schleierhaft. Alle diejenigen haben damals eben nichts kapiert.
Weil die GTX 970 von vielen Leuten immer noch als super tolle Karte ohne Einschränkung angesehen wird und ohne Bedenken empfehlungen bekommt. Da wird nicht einmal auf die 'Vorteile' der Karte hingewiesen...

Vor allem wenn man sich mal anschaut, wieviele noch nen Sandy als CPU im Rechner haben, den einige auf 5GHz hochprügeln und die schreiben sich hier dann allen Ernstes nen Wolf weil AMD 50W Mehrverbrauch hat. Da sind sicherlich die W relevant. NOT.

Wärens 100W mehr und deutlich schlechtere Leistung OK, aber wer sowas bei Fiji echt erwartet der sollte lieber bis zum 16. warten und mal wieder einen Realitätscheck machen.
Ja, genau so schauts auch. Es wird IMMER so dargestellt, dass AMD sonst wie viel schlechter wäre und alles andere immer deutlich toller/besser ist. Auch wenns völliger Bullshit ist...

Und dann wird sich hier über ein paar Watt @ Default echauffiert, aber man selbst hat ein bis an die Kotzgrenze geknüppeltes System...

Und mal so ein paar Werte:
FX 8350 ist im Idle mit dem i7-3820 vergleichbar und liegt bei etwa 80W mit der 280X.
Unter Last gibts auch keine nenneswerten Unterschiede.

Der i7/920 liegt aber mal locker 50-70W höher im Idle. Unter Last ist der Unterschied etwas geringer...

Und das ist dann meistens zwischen 250 und 300W, mit der 280X.
Und mit der GTX 570 ist schlicht kein Unterschied zur 280X vorhanden...


Aber man versucht halt gewaltsam jeden Strohhalm zu finden, um seine Anschaffung zu rechtfertigen.
Sprich: Hier wird mehr als eindeutig mit zweierlei Maß gemessen. Und zwar sowas von.


PS: ein LGA775 System mit C2D E4k/E6k säuft im Idle deutlich mehr als 'nen Phenom 2...
Und das ist wirklich nicht wenig. Zum Teil gehts auf 100W - ohne GraKa!
Einen 45nm C2D/C2Q habe ich leider gerade nicht.

Damals war die Lage aber noch anders als heute, Nvidia war bei Tesselation & BQ deutlich besser als AMD, AF war bei AMD erst durch GCN einwandfrei.
...was jetzt genau was an dem Zustand, dass die Thermis gesoffen wie 'nen Loch haben, ändert??
Die Radeon HD 5870 war nicht nennenswert schlechter als die GTXen, hat aber deutlich weniger gesoffen. Und damals war der Unterschied noch deutlich größer als es jetzt ist!

Die GTX400 Serie hatte z.B. auch keinen funktionierenden Idle Modus. Der kam erst mit der 500er Serie!

Und wer 'nen SLI/CF System möchte, hat mit nV Karten auch 'nen höheren Verbrauch als bei AMD.
Da säuft nämlich die 2. Grafikkarte nämlich nichts bzw so gut wie nichts!!

Tamagothi
2015-06-03, 17:59:59
:ufinger: Alter ich komme auf 644 mm² :ufinger:

Edit: Der interposer ist 1093 mm²

Schnoesel
2015-06-03, 18:04:58
Spricht er nicht eindeutig von "the fastest graphics card in the world?!"

https://youtu.be/QQ92qWdVLsM?t=290

Sunrise
2015-06-03, 18:05:51
@Gipsel & Agent117:
Ich habe mich auf die HBM-Angaben verlassen, weil es die einzig verlässliche Angabe derzeit ist.

Optischer Vergleich:

Wenn wir von den 7,29mm Kantenlänge (längste Seite) des HBMs ausgehen, dann passen auf die Höhe gesehen etwa 3,75x HBMs auf die Höhe von Fiji. Fiji ist also überschlagen alleine schon >3,75 x 7,29mm = >27mm hoch.

Wenn ich jetzt von 5,48mm Kantenlänge in die Breite ausgehe, dann passen hier 4,15x HBMs in die Breite. Fiji ist also min. schonmal 4,15 x 5,48mm = >22,742mm breit.

Messungen:

Ich komme hier also deutlich über 600mm², mit der korrekten Messung habe ich für Fiji aka. C880 652mm² ausgerechnet.
Der Interposer ist auch deutlich größer als 858mm². Ich habe 1104mm² ausgerechnet.

Ich habe also nicht nur gerechnet, sondern es eben selbst nochmal mit Copy & Paste der HBMs optisch nachgeprüft, das sollte also ungefähr stimmen.

basix
2015-06-03, 18:07:21
Ich komme auf 509mm². Ausgehend von den 858mm² großen Interposer.

Also wohl wirklich nur um die 500 groß

509mm2 für quasi einen verdoppelten Tonga, welcher 365mm2 misst, finde ich schon stark. Wenn man folgende Masse nimmt:

Ich hab mir mal die Mühe gemacht und ein CU von Tahiti und Tonga mit Photoshop ausgemessen.
Tahitis CUs sind um 6,5% größer.

Ich komme bei Tahiti auf 5,54mm² (hatte das größer in Erinnerung??)
und bei Tonga auf 5,20mm².


...dann sind 32 * 5.2mm2 = 166.4mm2. Das deckt sich relativ gut mit 365mm2 + 166.4mm2 = 531.4mm2 abzüglich HBM-Flächenvorteil

Oder haben sie die Color Compression wieder rausgekickt, da genug Bandbreite vorhanden?

Loeschzwerg
2015-06-03, 18:09:01
Spricht er nicht eindeutig von "the fastest graphics card in the world?!"

https://youtu.be/QQ92qWdVLsM?t=290

"A small form-factor graphics card that is the fastest in the world" ;)

Tamagothi
2015-06-03, 18:10:03
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52104&stc=1&d=1433347771


Rechnet selber mal

Edit @ Langeweile:

Interposer.

Höhe: 126.92/31.86= 3,98

Breite: 166,61/24,03=6,93

3,98*7,29+6,93*5,48= ca.1100 mm²

Fiji:

Höhe: 120,34/31,86= 3,77

Breite: 103,39/24,03=4,30

3,77*7,29+4,30*5,48= ca.647 mm²

Blediator16
2015-06-03, 18:10:19
536mm2 kamen bei mir raus

Schnoesel
2015-06-03, 18:11:14
"A small form-factor graphics card that is the fastest in the world" ;)

Guter Einwand :biggrin:

captain_drink
2015-06-03, 18:12:59
Welchen Sinn hätte es eigentlich, Tonga (wie es scheint) mit einem 384-Bit-SI zu bringen? Dann hätte man doch gleich Tahiti behalten können.

Flusher
2015-06-03, 18:14:36
Wenn Fiji-Karten wirklich so kurz sind, dann würde es sich für AMD anbieten diese den Herstellern als ideale Karte für Steam-Machines unter die Nase zu halten.

basix
2015-06-03, 18:15:51
Rechnet selber mal

Ich komme auf abartige 651mm2 :freak: Sicher, dass die Perspektive stimmt und das Bild nicht noch verzerrt ist?

StefanV
2015-06-03, 18:16:53
Welchen Sinn hätte es eigentlich, Tonga (wie es scheint) mit einem 384-Bit-SI zu bringen? Dann hätte man doch gleich Tahiti behalten können.
Effizienzsteigerung + neueres Featureset...

Tonga hat einige Verbesserungen gegenüber Tahiti, siehe z.B. die Tesselations Performance...

Blediator16
2015-06-03, 18:17:00
Ich komme auf abartige 651mm2 :freak: Sicher, dass die Perspektive stimmt und das Bild nicht noch verzerrt ist?

Die Frage ist jetzt von welchen Größen der HMB Chips alle ausgehen :biggrin:

Epichardkore
2015-06-03, 18:19:06
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52104&stc=1&d=1433347771


Rechnet selber mal

Was sind denn das für Maße? Soll das eine Küchenfliese sein?

Wenn so ein zarter Chinesenfinger ca. 13mm breit ist, denke ich das die lange Seite ohne den HBM, 39mm misst. 😂😂

Korvaun
2015-06-03, 18:19:34
@Gipsel & Agent117:
Ich habe mich auf die HBM-Angaben verlassen, weil es die einzig verlässliche Angabe derzeit ist.

Optischer Vergleich:

Wenn wir von den 7,29mm Kantenlänge (längste Seite) des HBMs ausgehen, dann passen auf die Höhe gesehen etwa 3,75x HBMs auf die Höhe von Fiji. Fiji ist also überschlagen alleine schon >3,75 x 7,29mm = >27mm hoch.

Wenn ich jetzt von 5,48mm Kantenlänge in die Breite ausgehe, dann passen hier 4,15x HBMs in die Breite. Fiji ist also min. schonmal 4,15 x 5,48mm = >22,742mm breit.

Messungen:

Ich komme hier also deutlich über 600mm², mit der korrekten Messung habe ich für Fiji aka. C880 652mm² ausgerechnet.

Der Interposer ist auch deutlich größer als 858mm². Ich habe 1104mm² ausgerechnet.

Ich habe auch nicht nur gerechnet, sondern es eben selbst nochmal mit Copy & Paste der HBMs optisch nachgeprüft, das sollte also stimmen.

27*22,7 macht rund 610mm2, würde ja gut zum GM200 passen ;)
Das wäre dann ein richtiges Monster, wenn man noch die Flächenersparnis durch das HBM-Interface berücksichtigt...

Loeschzwerg
2015-06-03, 18:21:31
Wenn ich von den 35mm² aus der AMD Folie ausgehe, dann komme ich auf etwa 840-890mm² für den Interposer.

Sunrise
2015-06-03, 18:22:08
27*22,7 macht rund 610mm2, würde ja gut zum GM200 passen ;)
Das wäre dann ein richtiges Monster, wenn man noch die Flächenersparnis durch das HBM-Interface berücksichtigt...
Jup, wobei das wirklich nur optisch mit einem Gitter über dem Bild war, also quasi per Augenmaß (das wird zwangsläufig nicht ganz stimmen), da ging es mir nur darum, dass wir definitiv über 600mm² sind.

Die Messung ist dann tatsächlich anhand des Verhältnisses der Realwerte der HBMs mit der Differenz zu den Bildmaßen gemessen, das sollte recht gut passen, ich habe dort sogar nochmal gemittelt (4 Messungen nacheinander).

Wie du schon sagst, Fiji scheint also wirklich ein ziemlich fettes Teil zu sein, da will ich jetzt wirklich unbedingt ein paar Leistungswerte sehen. Dieses Mal scheint man nicht an Fläche gespart zu haben, wie bei Hawaii.

mironicus
2015-06-03, 18:28:02
Spricht er nicht eindeutig von "the fastest graphics card in the world?!"

https://youtu.be/QQ92qWdVLsM?t=290

Also ehrlich gesagt, nachdem ich die Pressekonferenz nur einmal gesehen habe, würde ich NIEMALS darauf schließen, das der Typ meint, das Fiji die schnellste Grafikkarte der Welt sei, das ist komplett aus dem Zusammenhang gerissen. ;D

Möchtegernjournalisten! ;D

Loeschzwerg
2015-06-03, 18:30:22
Möchtegernjournalisten! ;D

Ich würde sagen, immer bedacht auf die größte Schlagzeile :D

dargo
2015-06-03, 18:30:46
Mal eine Frage... wieviel Fläche wird durch das Wegfallen vom 512Bit Speichercontroller wieder für andere Sachen frei? Gibt es da Schätzungen?

basix
2015-06-03, 18:32:41
Vorhin habe ich Tonga +32 CUs = 531mm2 gerechnet, und das ohne den HBM-Bonus. Was hat AMD da noch drin versteckt? :freak: 1000 Shader mehr...

Oder ist das zu 100% ein doppelter Tonga inkl. Frontend etc.? Klar, ohne doppelte VCE, PCI-E Interface usw.

dargo
2015-06-03, 18:36:53
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52104&stc=1&d=1433347771


Rechnet selber mal

Edit @ Langeweile:

Interposer.

Höhe: 126.92/31.86= 3,98

Breite: 166,61/24,03=6,93

3,98*7,29+6,93*5,48= ca.1100 mm²

Fiji:

Höhe: 120,34/31,86= 3,77

Breite: 103,39/24,03=4,30

3,77*7,29+4,30*5,48= ca.647 mm²
WTF? ;D Nehme dir einen Zollstock in die Hand und schaue nochmal nach was 12,7cm sind. :D

Botcruscher
2015-06-03, 18:37:10
Mal eine Frage... wieviel Fläche wird durch das Wegfallen vom 512Bit Speichercontroller wieder für andere Sachen frei? Gibt es da Schätzungen?

Das neue 4096 wird wohl kaum kleiner sein.

basix
2015-06-03, 18:40:55
WTF? ;D Nehme dir einen Zollstock in die Hand und schaue nochmal nach was 12,7cm sind. :D

Naja, die Werte sind auch nur untereinander im Verhältnis korrekt ;) Als Referenz dient die Kantenlänge 31.86mm = 7.29mm vom HBM

Screemer
2015-06-03, 18:41:32
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52104&stc=1&d=1433347771


Rechnet selber mal

Edit @ Langeweile:

Interposer.

Höhe: 126.92/31.86= 3,98

Breite: 166,61/24,03=6,93

3,98*7,29+6,93*5,48= ca.1100 mm²

Fiji:

Höhe: 120,34/31,86= 3,77

Breite: 103,39/24,03=4,30

3,77*7,29+4,30*5,48= ca.647 mm²
wtf?
13x~17cm für den interposer?
3,2x2,4cm für hbm?

HBM Dies sind ~5,5x7,3mm groß.

never ever!
brr. hab die letzten 5 zeilen nicht mehr gelesen, da ich schon so den kopf geschüttelt habe. sehe, dass du das ganze dann noch ins verhältniss gesetzt hast. könnte also hinkommen.

Tamagothi
2015-06-03, 18:41:54
Ist doch scheiß egal ob mm -> cm -> m -> km -> Lichjahre. Das verhältniss bleibt bei diesem Bild +- das selber

Epichardkore
2015-06-03, 18:42:14
WTF? ;D Nehme dir einen Zollstock in die Hand und schaue nochmal nach was 12,7cm sind. :D

Ich sage ja .... Küchenfliese. ..

basix
2015-06-03, 18:42:49
Rofl, ein bisschen die grauen Zellen anstrengen sollte doch noch drin sein? :rolleyes:

Loeschzwerg
2015-06-03, 18:43:42
Mal eine Frage... wieviel Fläche wird durch das Wegfallen vom 512Bit Speichercontroller wieder für andere Sachen frei? Gibt es da Schätzungen?

Die 512Bit nehmen ca. 50-55mm² an Fläche ein, wenn man den Tonga Shot als Maß nimmt und ich keinen Schmarrn gerechnet habe.

Wie viel kleiner soll das HBM Interface im Verhältnis zu GDDR5 sein?

Sunrise
2015-06-03, 18:43:54
Ist doch scheiß egal ob mm -> cm -> m -> km -> Lichjahre. Das verhältniss bleibt bei diesem Bild +- das selber
Eben, ist auch allemal einfacher als da jetzt mit Maßen ranzugehen, so nah wie unsere beiden Ergebnisse sind.

Für Fiji habe ich 652mm² und du 647mm².
Für den Interposer habe ich 1104mm² und du 1100mm².

Also wenn das nicht passt, dann weiß ich nicht, krass dass wir so nahe beeinander sind. :D

Tamagothi
2015-06-03, 18:44:19
WTF? ;D Nehme dir einen Zollstock in die Hand und schaue nochmal nach was 12,7cm sind. :D

Bei über 50k Post habe ich mehr erwartet :ulol5:

Interposer:

29mm X 38mm

Fiji

27,5mm x 23,5mm

Sunrise
2015-06-03, 18:46:25
Interposer:

29mm X 38mm

Fiji

27,5mm x 23,5mm
Das sind meine:

Fiji real

B = 23,782mm
H = 27,416mm

Interposer real

B = 38,134mm
H = 28,957mm

Unglaublich nahe beeinander.

Hübie
2015-06-03, 18:48:35
Die Maße stimmen vorn und hinten nicht. Und nein auch nicht in mm. Und nein es ist eben nicht egal. Pfuschen kann jeder.

Traurig dass einige soviel schreiben aber nichts sagen. Die GTX 970 hat 4GB die auch genutzt werden (wenn nötig). Das letzte Stück ist halt langsamer angebunden. Volumen nicht mit Durchsatz verwechseln :rolleyes:

Und egal ob 4 oder 12 GB: Beim Texturdownload ist PEG (30GB/s->16GB/s->300GB/s) immer der Flaschenhals, obwohl es in den meisten Fällen ausreicht. Swapping findet halt mit TX nur wenig bis gar nicht statt. Intelligentes Streaming braucht aber keine 12 GB.

moonraker
2015-06-03, 18:49:23
Die 26,2 x 22,7 ~600mm²
Allerdings mit 7mm Kantenlänge statt mit 7,29 gerechnet, kann also etwas drunter liegen.

Screemer
2015-06-03, 18:50:30
Die Maße stimmen vorn und hinten nicht. Und nein auch nicht in mm. Und nein es ist eben nicht egal. Pfuschen kann jeder.
er soll am besten das bild neu machen ohne mm und alles ist gut. die mm kommen dann durch das verhältniss zu den hmb-maßen in mm.

blöde frage, warum kommt coda nur auf ~500mm².

dargo
2015-06-03, 18:50:57
Naja, die Werte sind auch nur untereinander im Verhältnis korrekt ;) Als Referenz dient die Kantenlänge 31.86mm = 7.29mm vom HBM
Jetzt klingelts bei mir. ;)

Sunrise
2015-06-03, 18:51:16
Die Maße stimmen vorn und hinten nicht. Und nein auch nicht in mm. Und nein es ist eben nicht egal. Pfuschen kann jeder.
Ist es jetzt wirklich so schwer zu verstehen, wie wir das errechnet haben? Wir haben die Realmaße von HBM genommen und haben das ins Verhältnis der gemessenen Werte des HBMs auf dem Bild gesetzt und bekommen dann einen Faktor. Danach nutzen wir diesen Faktor und rechnen anhand der am Bild gemessenen Werte die Diegröße aus, einfacher geht es kaum.

Ignoriert doch mal die mm auf seinem Bild, die hat er nur für sich persönlich hinzugefügt (weil er die zum Rechnen braucht), nehmt z.B. meins eine Seite weiter vorher, das ist ohne Angaben.

Loeschzwerg
2015-06-03, 18:53:22
Fiji real

B = 23,782mm
H = 27,416mm


21,1 x 24,5 => ~517mm²

Ich saß gerade total bescheuert mit dem Lineal vor dem Bildschirm... :freak:

Als Basis habe ich die kurze Seite des HBM (laut AMD Folie 5mm) genommen.

Keine Ahnung wie ihr da auf so brachiale Dimensionen kommt ^^

basix
2015-06-03, 18:54:39
Aber etwas ist gut: Die Stimmung im Thread hat sich eindeutig zum positiven gewandt, oder ist das nur meine eigene? ;D

Tamagothi
2015-06-03, 18:55:36
Naja die Rechnung kann nur stimmen falls Wirklich HBM Gen1 mit 7,29mm x 5,48mm drauf ist

Ne auch meine ;D

Sunrise
2015-06-03, 18:56:16
21,1 x 24,5 => ~517mm²

Ich saß gerade total bescheuert mit dem Lineal vor dem Bildschirm... :freak:

Als Basis habe ich die kurze Seite des HBM (laut AMD Folie 5mm) genommen.

Keine Ahnung wie ihr da auf so brachiale Dimensionen kommt ^^
Gipsel hatte den Slide mit den HBM-Realwerten gepostet (die 5mm x 7mm waren stark abgerundet). Die sind real 5,48mm x 7,29mm groß.

Jetzt rechne nochmal. :D

Gipsel
2015-06-03, 18:57:20
Oder der HBM ist schon in Hynix' 2y-Prozeß hergestellt. Das würde etwas geringere Abmaße erklären. Die genannten Werte von 5,48 mm x 7,29mm (inklusive sidemold, ohne sind es 5,1mm x 6,91mm) gelten ja für die erste Iteration im 2x-Prozeß. Ende des Jahres soll es bereits erste DDR4-Chips aus dem 2z-Prozeß geben (die Angaben 2x, 2y und 2z von Hynix übersetzen sich etwa in 29, 25 und 20nm oder so) und momentan werden bereits 4Hi-gestackte DDR4-Chips im 2y-Prozeß ausgeliefert.

Die Annahme von 50mm x 50mm für das Package wäre mit einem 26mm x 33mm Interposer konsistent und ergäbe eine Größe für die HBM-Dies von ~4,7mm x 6,3 mm. Das untere Limit für die Maße wäre die von der JEDEC spezifizierte Größe der Ballout-Area des Stacks (wenn es keine Spezialanfertigung ist). Und die beträgt exakt 6,05mm x 3,264mm, da liegt man also mit den genannten Annahmen noch drüber. Und 25nm sollten gegenüber 29nm in etwa Dies von 74% der Größe ergeben (25²/29²).
Jetzt rechnen wir mal:
4,7*6,3 / (5,48*7,29) = 0,74 :D

Gipsel
2015-06-03, 19:00:05
Ich sage ja .... Küchenfliese. ..
Küchenfliesen sind sowas:
http://www.theinquirer.net/img/4200/bluey.jpg?1241332030
IBM Power5

http://www.modestolan.com/xwred1/power4.jpeg
IBM Power4

Tamagothi
2015-06-03, 19:00:28
647 * 0,74 = 478,78

Meinst du so? ^^

Loeschzwerg
2015-06-03, 19:00:53
Gipsel hatte den Slide mit den HBM-Realwerten gepostet (die 5mm x 7mm waren stark abgerundet). Die sind real 5,48mm x 7,29mm groß.

Jetzt rechne nochmal. :D

Ah, ok :)

Dann bin ich bei:
23,1 x 26,8 = ~619mm²

~517mm² bei 5mm als Referenz
~619mm² bei 5,48mm als Referenz

Edit:
Mit 5,1mm als Referenz...

21,5 x 24,9 = ~535mm²

Und das Ende vom Lied: Wir können es nicht genau sagen, aber ich schätze unter 600mm².

Korvaun
2015-06-03, 19:01:24
http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf

Laut dem pdf von Hynix Seite 13 ist nen HBM Gen1 ca. 5,48 * 7,29mm groß, da muss man aber noch jeweis etwas abziehen für die "side mold" (0,4mm). Also die sichtbare, glänzende Fläche sollte ca. 5,1 * 6,9mm groß sein.

Daraus ergibt sich dann Aufgrund der Dieshots ein Fiji der ca. 570mm2 groß ist!

Ravenhearth
2015-06-03, 19:09:49
Mit 26x33mm für den Interposer sind es knapp über 500mm².

basix
2015-06-03, 19:12:25
Also liebe Freunde, nun ganz ganz einfach für alle ;D

Voraussetzung: Der HBM hat wirklich 7.29mm Kantenlänge und das Bild ist nicht verzerrt

Sunrise
2015-06-03, 19:13:30
Danke Gipsel für den Hinweis.

Mit Abzug des Sidemolds bekomme ich dann folgende Werte:

5,48 - 0,380 = 5,1mm
7,29 - 0,380 = 6,91mm

Fiji neu real (HBM-Korrektur)

B = 22,748mm
H = 26,224mm 597mm²

Interposer neu real (HBM-Korrektur)

B = 36,476mm
H = 27,698mm 1010mm²

So langsam ist mir schwindelig, Gipsel, kommt noch was dazu oder darf ich gehen? :D

AngelDust 32
2015-06-03, 19:13:38
Mit dem Geodreieck am Bildschirm gemessen mit der Annahme (HBM = 5,1 x 6,9) = ~524mm²

Ravenhearth
2015-06-03, 19:14:51
Also liebe Freunde, nun ganz ganz einfach für alle ;D

Voraussetzung: Der HBM hat wirklich 7.29mm Kantenlänge und das Bild ist nicht verzerrt

Fiji ist NICHT 648mm² groß.

Loeschzwerg
2015-06-03, 19:15:59
Sagen wir einfach zwischen 500-600mm² :freak: Denn jetzt haben wir eh bald alle Werte durch ;D

Und größer als 600mm² halte ich persönlich für Mumpitz.

basix
2015-06-03, 19:16:22
Fiji ist NICHT 648mm² groß.

Fiji selbst wahrscheinlich nicht, aber das DIE inkl. Verschnitt. Irgendwas um knapp 600+ wird am ehesten eintreffen.

Sunrise
2015-06-03, 19:17:51
Sagen wir einfach zwischen 500-600mm² :freak: Denn jetzt haben wir eh bald alle Werte durch ;D

Und größer als 600mm² halte ich persönlich für Mumpitz.
Hätte auch irgendwie was oder? GM200 und Fiji praktisch gleich groß? Da kann man paar geile weitere (ich wags kaum auszusprechen) MESSUNGEN :D machen. Ok, bin dann mal einkaufen...

Ravenhearth
2015-06-03, 19:17:59
Mit den korrekten Werten für Interposer und HBM sind es tatsächlich nur etwas über 500mm².

Korvaun
2015-06-03, 19:18:16
500-600 mm² mit Tendenz Richtung 600mm² :)
Auf alle Fälle nen ordentlicher Brummer...

Flusher
2015-06-03, 19:23:55
Mit den korrekten Werten für Interposer und HBM sind es tatsächlich nur etwas über 500mm².

Die da wären?

Gipsel
2015-06-03, 19:28:40
Btw., ich schmeiße mal 505mm² (als Angabe von AMD ohne den Verschnitt am Rand) in den Topf. Oder sollte ich gar 498mm² sagen, just for kicks?
Oder der HBM ist schon in Hynix' 2y-Prozeß hergestellt. Das würde etwas geringere Abmaße erklären. Die genannten Werte von 5,48 mm x 7,29mm (inklusive sidemold, ohne sind es 5,1mm x 6,91mm) gelten ja für die erste Iteration im 2x-Prozeß. Ende des Jahres soll es bereits erste DDR4-Chips aus dem 2z-Prozeß geben (die Angaben 2x, 2y und 2z von Hynix übersetzen sich etwa in 29, 25 und 20nm oder so) und momentan werden bereits 4Hi-gestackte DDR4-Chips im 2y-Prozeß ausgeliefert.

Die Annahme von 50mm x 50mm für das Package wäre mit einem 26mm x 33mm Interposer konsistent und ergäbe eine Größe für die HBM-Dies von ~4,7mm x 6,3 mm. Das untere Limit für die Maße wäre die von der JEDEC spezifizierte Größe der Ballout-Area des Stacks (wenn es keine Spezialanfertigung ist). Und die beträgt exakt 6,05mm x 3,264mm, da liegt man also mit den genannten Annahmen noch drüber. Und 25nm sollten gegenüber 29nm in etwa Dies von 74% der Größe ergeben (25²/29²).
Jetzt rechnen wir mal:
4,7*6,3 / (5,48*7,29) = 0,74 :D

http://abload.de/img/fiji_by9o6q.png

Alternative wäre vielleicht, daß sie wirklich irgendwoher größere Interposer bekommen und das Package dann z.B. 54mm x 54mm, der Interposer 28mm x 36mm mißt, die GPU ~580mm² groß ist und HBM bleibt dann bei den altbekannten Maßen (ohne sidemold).

Ravenhearth
2015-06-03, 19:30:40
Die da wären?

33x26 bzw. 4.7x6.3mm, siehe Gipsel.

M4xw0lf
2015-06-03, 19:32:04
http://abload.de/img/fiji_by9o6q.png
:D
Ich denke etwas jenseits der 500 werden es - ich denke an diese eine Folie mit den "fertiggestellten Chipdesigns", einmal >300mm², einmal >500mm².

moonraker
2015-06-03, 19:33:07
m Werte bitte als mm interpretieren :D Ist nur als "referenzierter Grundriss" in einem Häuslebauer CAD.

http://www.fotos-hochladen.net/uploads/fiji6tfaoh8wks.png

mironicus
2015-06-03, 19:35:18
Wenn der Chip <500mm² hat und damit einen Chip >600 mm² schlägt, wäre das eine perfekte Demütigung. :D

Ravenhearth
2015-06-03, 19:36:18
Sieht nach ~600mm² vs. ~500mm² aus.

Effe
2015-06-03, 19:41:00
@moonraker: 578m²? Keine schlechte Wohnfläche, sogar mit 4 Anbauten a 34m². Wann kann ich einziehen? :D

Gipsel
2015-06-03, 19:44:05
:D
Ich denke etwas jenseits der 500 werden es - ich denke an diese eine Folie mit den "fertiggestellten Chipdesigns", einmal >300mm², einmal >500mm².Ich habe den entscheidenden Teil meines früheren Posts ja nicht umsonst gefettet. Meiner ersten Schätzung nach sind es tatsächlich minimal über 500mm². Aber mit einem Pixel weniger...
Wie gesagt, just for kicks. ;)

basix
2015-06-03, 19:52:38
Alternative wäre vielleicht, daß sie wirklich irgendwoher größere Interposer bekommen und das Package dann z.B. 54mm x 54mm, der Interposer 28mm x 36mm mißt, die GPU ~580mm² groß ist und HBM bleibt dann bei den altbekannten Maßen (ohne sidemold).

Und was ist genau "HBM 1.5" oder eben der 2y Prozess? Ist das nur eine DIE Size Reduktion oder verbirgt sich noch anderes dahinter?

Skysnake
2015-06-03, 19:58:25
http://abload.de/img/fiji_by9o6q.png

Alternative wäre vielleicht, daß sie wirklich irgendwoher größere Interposer bekommen und das Package dann z.B. 54mm x 54mm, der Interposer 28mm x 36mm mißt, die GPU ~580mm² groß ist und HBM bleibt dann bei den altbekannten Maßen (ohne sidemold).
Kann es auch sein, das ein Interposer größer ist als der Bereich, den man mit einer Belichtung bearbeiten kann?

Es ist schon auffällig, dass der Interposer zwei unterschiedlich gefärbte Flächen hat.

Der HBM braucht ja auch keine Kontakte bis zum Rand. Man könnte also auch die Wafer mit etwas Versatz belichten, wo halt nichts ist auf dem Silizium. Also quasi größer Ausschneiden ;)

Kann mal einer ausrechnen, ob das passen würde, wenn man die maximale Größe der Belichtung annimmt für den abgesetzen Teil vom Interposer?

w0mbat
2015-06-03, 20:08:25
Und was ist genau "HBM 1.5" oder eben der 2y Prozess? Ist das nur eine DIE Size Reduktion oder verbirgt sich noch anderes dahinter?

Ich habs schon vorher benannt, 32GB via dual-link HBM!

Ravenhearth
2015-06-03, 20:08:51
Ich habs schon vorher benannt, 32GB via dual-link HBM!

Troll?

Gipsel
2015-06-03, 20:14:55
Kann es auch sein, das ein Interposer größer ist als der Bereich, den man mit einer Belichtung bearbeiten kann?

Es ist schon auffällig, dass der Interposer zwei unterschiedlich gefärbte Flächen hat.

Der HBM braucht ja auch keine Kontakte bis zum Rand. Man könnte also auch die Wafer mit etwas Versatz belichten, wo halt nichts ist auf dem Silizium. Also quasi größer Ausschneiden ;)
Interessante Idee. Man belichtet jeweils 26mm x 33mm (Reticle Limit der meisten Belichter), versetzt den Wafer aber um mehr als das zwischen den Belichtungen und schneidet auch größere Dies aus. Da die Ballout-Area von HBM wirklich nicht bis an den Rand geht (die Maße hatte ich ja schon genannt 6,05mm x 3,264mm). Gewinnt man so noch ein paar Millimeter. Und das würde auch die unterschiedliche Färbung am Rand des Interposers erklären.
Kann mal einer ausrechnen, ob das passen würde, wenn man die maximale Größe der Belichtung annimmt für den abgesetzen Teil vom Interposer?590mm². So ganz grob.
22,7mm x 26,0mm für die GPU (was offiziell dann vermutlich 550-560mm² werden), beim HBM bleibt es dann bei etwa 5,1mm x 6,9mm (also die offiziellen Abmessungen ohne sidemold).

Tamagothi
2015-06-03, 20:16:02
Kann mal einer ausrechnen, ob das passen würde, wenn man die maximale Größe der Belichtung annimmt für den abgesetzen Teil vom Interposer?

könnte sogar hinhauen. Bin beim ersten mal auf eine 0% Differenz gekommen ;D

Ravenhearth
2015-06-03, 20:17:37
Also sind zwei Möglichkeiten offen. Entweder sind es rund 500mm² oder 580-595mm².