PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Botcruscher
2015-05-31, 11:33:25
Ich spreche nicht von Mobile sondern Desktop. Mobile hat ein ganz anderes Preisgefüge, da kannst du HBM besser unterbringen.

Für den Desktop baut doch keiner mehr extra low und mid-chips. Wenn die Kosten von HBM in die Nähe von GDDR5 kommen ist die Sache gelaufen.

fondness
2015-05-31, 11:35:05
Bei einer Ausgangslage von ~250mm² 28nm mit 128-Bit für $199 ist da doch durchaus Potential, wenn AMD "mitzieht".

Du meinst wohl eher wenn Nvidia mitzieht. AMD wird HBM mit Sicherheit weiter aggressiv einsetzen und vermarkten.

Dawn on Titan
2015-05-31, 11:37:46
Ich spreche nicht von Mobile sondern Desktop. Mobile hat ein ganz anderes Preisgefüge, da kannst du HBM besser unterbringen.

Aber die kleinen GPUs gehen halt viel ins mobile Segment. Und ich glaube nicht, dass es sich lohnt eine Version mit HBM Interface und eine mit GDDR Interface zu bauen.

HBM1 hatte ja das Problem, das man für Grafikkarten den Endausbau brauchte. Bei HBM2 braucht man für kleine bis mittlere Karten nicht unbedingt die maximale Komplexität. Mit 1-2 Stacks lässt sich eigentlich der Markt abdecken.

Ist natürlich ne knappe Wette, aber HBM2 könnte ab H2/16 attraktiver sein. Mich würde es aber nicht wundern wenn wir zuerst noch einen GP107 sehen, der als erstes 16nm Produkt auftaucht und GDDR nutzt.

dargo
2015-05-31, 11:38:32
Für den Desktop baut doch keiner mehr extra low und mid-chips. Wenn die Kosten von HBM in die Nähe von GDDR5 kommen ist die Sache gelaufen.
Aha... und für wen ist dann das?
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+750#xf_top
http://geizhals.de/?cat=gra16_512&xf=1440_R7+260#xf_top

Es gibt für den Desktop sogar noch sowas, trotz IGP bei Intel.
http://geizhals.de/?cat=gra16_512&xf=1439_210#xf_top
http://geizhals.de/?cat=gra16_512&xf=1440_R5+230#xf_top

Edit:
Schau dir mal an was Nvidia noch als Gaming Grafikkarten betitelt.
http://www.nvidia.de/object/geforce-desktop-graphics-cards-de.html

AnarchX
2015-05-31, 11:43:26
Die GTX 750er sind nun auch bald ein Jahr alt und die anderen Chips noch älter. Soetwas könnten auch über 2016 hinaus noch verkauft werden (z.B. als Rebrand), die Frage ist halt ob AMD und Nvidia noch neue GPUs in 2016 vorstellen werden, die GDDR5 unterstützten. Gerade GM206 könnte wohl noch in ein paar kleineren Version erscheinen und mit seinem Feature-Set für 2016 eine brauchbare Mainstream-Lösung für $99-149 darstellen.

Botcruscher
2015-05-31, 11:44:17
Das Wort extra absichtlich überlesen? Die kleinen Chips machen ihren Schnitt im Mobilsegment. Der Desktop ist quasi Mitverwertung. Die Schwäche im Mobilsegment ist ja einer der Gründe warum AMD so schlecht da steht.

dargo
2015-05-31, 11:52:29
Die GTX 750er sind nun auch bald ein Jahr alt und die anderen Chips noch älter. Soetwas könnten auch über 2016 hinaus noch verkauft werden (z.B. als Rebrand), die Frage ist halt ob AMD und Nvidia noch neue GPUs in 2016 vorstellen werden, die GDDR5 unterstützten. Gerade GM206 könnte wohl noch in ein paar kleineren Version erscheinen und mit seinem Feature-Set für 2016 eine brauchbare Mainstream-Lösung für $99-149 darstellen.
Das könnte natürlich passieren. Ist aber dann auch nichts anderes als ich schon sagte... HBM erst bei GPUs mit Rohleistung X. ;) Theoretisch könnte man 2016 einen GM206 nur shrinken und unter anderem Namen verkaufen. Wobei ich hier so meine Bedenken habe. Die Preise bei 14/16nm werden sicherlich wieder explodieren.

BlacKi
2015-05-31, 11:59:47
Eine spannende Frage bleibt ja auch wann HBM2 ausreichend verfügbar ist. HBM1 steht seit Mitte 2014 auf der Hynix Roadmap, erst ein Jahr später, Mitte 2015 wird es das erste Serienprodukt geben. HBM2 steht erst ab Anfang Q2 2016 auf der Hynix-Roadmap...


und lauffähige hbm1 karten gabs schon letzten herbst vor ca 9m. d.h. also im frühjahr16 kann man hbm2 auf pascal erwarten, und sie testen bereits pascal karten mit hbm2 ?

dargo
2015-05-31, 12:06:12
Pascal im Frühjahr 2016? Träum weiter. Höchstens der Nachfolger der GTX750, ich gehe aber davon aus, dass dich Mainstream nicht wirklich interessiert. Performance bis High-End @Pascal würde ich nicht vor Ende 2016, Anfang 2017 erwarten.

BlacKi
2015-05-31, 12:16:47
Pascal im Frühjahr 2016? Träum weiter. Höchstens der Nachfolger der GTX750, ich gehe aber davon aus, dass dich Mainstream nicht wirklich interessiert. Performance bis High-End @Pascal würde ich nicht vor Ende 2016, Anfang 2017 erwarten.

die mittel/kleinen pascal chips (weniger als die hälfte des gm204) werden wohl die leistung der 970/980 haben. aber vermutlich nicht viel günstiger als jene, aber bei der hälfte des verbrauchs. interessieren tun diese karten mich, obs sie meine 970 ersetzen könnten kann ich noch nicht sagen.

aufkrawall
2015-05-31, 12:18:45
Als ob ein Chip in GK104-Größe so teuer wäre in 16nm. Und Maxwell ist im Frühjahr auch schon über zwei Jahre alt...

fondness
2015-05-31, 12:27:15
Als ob ein Chip in GK104-Größe so teuer wäre in 16nm. Und Maxwell ist im Frühjahr auch schon über zwei Jahre alt...

GM200 ist im Frühjahr 2016 gerade mal ein Jahr alt, GM204 1,5 Jahre. Zumindest wenn man unter Frühjahr März versteht.

Sunrise
2015-05-31, 12:27:35
Die Kostenfrage bzgl. HBM-Designs kann man eigentlich ganz gut aufschlüsseln.

Der Si-Interposer selbst dürfte spottbillig sein (UMC produziert die auf 65nm), und wie bei Silizium üblich skalieren diese Kosten mit der Fläche. Die Wafer bekommt man auf 65nm aber hinterhergeschmissen.

Das wirklich Komplexere ist ja das Packaging. Während man bei GPUs normalerweise den Die direkt auf dem Package sitzen hat, der dann wiederum auf dem PCB sitzt, kommt beim Einsatz von Interposer und HBM eben noch der Interposer zwischen Package und dem GPU-Die und den HBM-Base Dies (Logik-Die) hinzu.

Hier dürfte dann vor allem die Menge an Mikro-Bumps entscheidend dafür sein, wie teuer das Packaging wird. Denn je mehr Kontakte man davon anbringen muss, je schwieriger wird das 2.5D-Packaging und umso mehr Fehler kann es geben.

Wenn ich also sowieso schon eine richtig fette GPU mit vielen Kontakten habe und dann noch viele HBM-Module, wird die Geschichte sicherlich sehr schnell sehr teuer. Aufgrund dessen hatte ich auch schon letztes Jahr geschrieben, dass 8GB mit 1GB-Modulen wahrscheinlich ziemlich teuer wird, da ist es evtl. sogar besser, man baut zwei komplette Fiji-Module auf das PCB, auch wenn das natürlich keine Lösung für das eigentliche "Problem" darstellt. Weil viel billiger wird das in Summe dann zwar nicht, man könnte sich aber den enormen Aufwand mit zwei verschiedenen Interposer-Designs komplett sparen. Diesem Punkt wird IMHO viel zuwenig Beachtung geschenkt.

Zumindest gilt das für HBM1, bei HBM2 würde man logischerweise gleich die größeren Module nehmen. Aber das vielleicht und evtl. kann nur AMD und Hynix beantworten.

Fiji würde einschlagen wie eine Bombe, wäre AMD in der Lage, jetzt schon HBM2 mit Fiji auszuliefern. Das ist aber extrem unwahrscheinlich, weil die Dokumente von AMD von der Hotchips im Jahr 2014 Fiji zwar nicht explizit nannten, man aber ein Prototypen-Design mit 64CUs und einer Bandbreite von 640GB/s angab, was nicht zu HBM2 passt. Auf der anderen Seite steht das Argument, dass Hynix aber bereits vor etlichen Monaten (letztes Jahr?) fertige HBM2-Samples an nicht genannte Partner zur Validierung ausgeliefert hat. Ich lass das mal so stehen.

Wenn man jetzt aber mal auf die kleineren GPUs schaut, die sprichwörtlich auch immer komplexer aber auch immer kleiner werden, dann spart man sich hier nicht nur den VRAM um das Package, sondern auch TDP und kann die Dinger noch kleiner machen, was wiederum in den Kosten berücksichtigt werden sollte. HBM selbst dürfte zwar aktuell noch ein Preis-Premium haben, aber ab Mitte bis Ende 2016 sollte sich die Sache mit GDDR5 eigentlich erledigt haben. Ein Mini-Die, ein winziger Interposer und ein winziges HBM-Modul und noch weniger Aufwand für die VRMs. IMHO ist das also schon ausgemachte Sache.

Gerade Apple mit ihrem Verschlankungswahn dürfte sich auf neue kleine HBM-Designs von AMD stürzen, was - wenn AMD sich nicht stark untervorteilen lässt - AMD noch einen ungeahnten Push geben könnte. Und dann wird hier die Kostenfrage ganz schnell zur Kapazitätsfrage (was natürlich auch wieder höhere Kosten nach sich ziehen wird) denn abseits Hynix ist mir kein anderer Fertiger für HBM bekannt.

aufkrawall
2015-05-31, 12:34:22
GM200 ist im Frühjahr 2016 gerade mal ein Jahr alt, GM204 1,5 Jahre. Zumindest wenn man unter Frühjahr März versteht.
Ja, und? So viel hat sich an der Architektur seit GM107 nicht getan, und der kam Ende Februar 2014.
TSMC produziert dieses Jahr schon in 16nm FF, da kann man doch sicher ein paar Chips für den Desktop im Frühjahr als GP104 in Größe von GK104 parat haben.

fondness
2015-05-31, 12:36:26
Ja, und? So viel hat sich an der Architektur seit GM107 nicht getan, und der kam Ende Februar 2014.
TSMC produziert dieses Jahr schon in 16nm FF, da kann man doch sicher ein paar Chips für den Desktop im Frühjahr als GP104 in Größe von GK104 parat haben.

Nach allem was ich weiß geht NV relativ aggressiv auf 16nm FF, aggressiver als AMD. Das heißt aber nicht das es Anfang 2016 schon 300-400 mm² Chips in 16nm geben wird.

mironicus
2015-05-31, 12:39:15
Microsoft und Sony werden sicherlich auch interessiert sein an eine Highperformance APU mit HBM für PS5 und XBox Two. Ob Intel oder NVidia da jemals so aktiv sein werden bezweifele ich.

aufkrawall
2015-05-31, 12:40:54
Nach allem was ich weiß geht NV relativ aggressiv auf 16nm FF, aggressiver als AMD. Das heißt aber nicht das es Anfang 2016 schon 300-400 mm² Chips in 16nm geben wird.
Warum nicht? Man hat auch nicht zuerst GM107 gebracht, weil 28nm so schlecht lief.
Wenn man Fiji nicht ignorieren kann, hat man einen Grund, etwas neues im schnellen Segment zu bringen.

Megatron
2015-05-31, 12:41:11
Anhand dessen, was bisher so zu den Preisen von 14/16nm zu lesen war, deutet sich an, dass da ein reiner Shrink (also neuer Chip mit ungefähr gleicher Leistung) kein Stück billiger wird als das 28nm Gegenstück. Auf der Haben-Seite steht natürlich der geringere Stromverbrauch.

Wobei man auch hier mal das Wagnis eingehen sollte, Richtung Intel Broadwell rüber zuschielen was das Thema Taktbarkeit angeht. Mit kleiner werdenden Strukturgrößen ist es schon Intel nicht möglich die Taktfreudigkeit der alten CPU's zu halten. Auch wenn wir hier verschiedene Taktbereiche haben, die ersten 14/16nm GPU's werden hier mindestens im OC sicher auch Federn lassen müssen. Eventuell sind sogar allgemein geringere Taktraten bei den ersten großen Chips zu erwarten, da die ja schon ab Werk deutlich näher am Limit laufen.

"Witziger" ist da schon eher immer das herumreiten auf dem alter der GPUs. Solange es keinen besseren Prozess gibt und keine bahnbrechenden Neuerungen in der Rendering Architektur, wozu sollte man einen Chip quasi 1:1 nochmal neu auflegen? Das wäre doch am Ende auch nur Geldverbrennung vom feinsten.

Was AMD in meinen Augen hierbei aber wirklich deutlich zu zahm angeht ist das Ausnutzen der Eingefahrenen Produktion zur Senkung der Spannungen auf der Graka. Da wäre sicher schon Potential von der 7000'er Serie zu den R200 Karten drin gewesen. Das allein hätte schon die Review Ergebnisse der neuen Karten etwas aufgewertet.
Die bisherige allgemeine Erfahrung mit AMD lässt aber dann eher vermuten, dass hier alles 1:1 beim alten bleibt und die Nutzung von Effizienzverbesserungen ganz dem User überlassen bleibt.

Kartenlehrling
2015-05-31, 12:43:45
Auf die Preissteigerung vom HBM bin ich auch gespannt wenn Nvidia für 2gb gddr5 auf einer gtx960 50€ Aufschlag verlangt

BlacKi
2015-05-31, 12:52:54
Als ob ein Chip in GK104-Größe so teuer wäre in 16nm. Und Maxwell ist im Frühjahr auch schon über zwei Jahre alt...
mit der hälfte des gm204 chips dachte ich an ca.200mm² nicht an 294mm². ob ein 200mm² chip in 16nm so teuer ist wie ein 400mm² in 28nm? ich glaube nicht.

könnte mir vorstellen das man einen 200mm² chip in 16nm mit hbm2 bringt mit der 980 leistung für +450$ mitte 2016?

Unicous
2015-05-31, 12:53:55
@Sunrise


Ja nun hast du das alles schön "aufgeschlüsselt", schlauer sind wir dadurch auch nicht. Wie du bereits sagtest ist das gesamte Packaging teuer, die einzelnen Teile eigentlich nicht. Der Interposer an sich dürfte nur ein paar Dollar kosten (also 1-2:wink:). Die DRAMs sind auch spottbillig herzustellen. Die TSV-Kanäle einzubringen, die micro bumps zu setzen, die Dies auf den Interposer zu bringen, das sind alles Kostentreiber, die man aber nicht einschätzen kann, weil es auch keine konkreten oder zumindest vage Zahlen gibt.

Wir sind also genauso schlau wie zuvor.

Sunrise
2015-05-31, 12:56:05
...Was AMD in meinen Augen hierbei aber wirklich deutlich zu zahm angeht ist das Ausnutzen der Eingefahrenen Produktion zur Senkung der Spannungen auf der Graka. Da wäre sicher schon Potential von der 7000'er Serie zu den R200 Karten drin gewesen. Das allein hätte schon die Review Ergebnisse der neuen Karten etwas aufgewertet.
Die bisherige allgemeine Erfahrung mit AMD lässt aber dann eher vermuten, dass hier alles 1:1 beim alten bleibt und die Nutzung von Effizienzverbesserungen ganz dem User überlassen bleibt.
Werden wir evtl. beim neuen Hawaii sehen (Respin), wobei die Befürchtung ist, dass man sich diesen Spielraum wieder durch höhere Default-Taktraten und mehr VRAM zunichte macht. Wobei man dieses Mal eigentlich vorgewarnt sein sollte, nicht wieder über gewisse Schwellenwerte zu gehen, wenn man nicht muss.

Denn Hawaii ist ein ziemliches Monster auf kleinem Raum, aber leider in jeder Hinsicht.

Dawn on Titan
2015-05-31, 13:02:39
Eher ein GP107 in H1/16. Dann GP104 in H2/16 mit Performance ungefähr auf GM200 Level. Auf der anderen Seite haben Sie Deals im Profibereich laufen, die nahelegen, dass auch die Big Dog 2016 auftauchen muss.

Sunrise
2015-05-31, 13:03:01
@Sunrise


Ja nun hast du das alles schön "aufgeschlüsselt", schlauer sind wir dadurch auch nicht. Wie du bereits sagtest ist das gesamte Packaging teuer, die einzelnen Teile eigentlich nicht. Der Interposer an sich dürfte nur ein paar Dollar kosten (also 1-2:wink:). Die DRAMs sind auch spottbillig herzustellen. Die TSV-Kanäle einzubringen, die micro bumps zu setzen, die Dies auf den Interposer zu bringen, das sind alles Kostentreiber, die man aber nicht einschätzen kann, weil es auch keine konkreten oder zumindest vage Zahlen gibt.

Wir sind also genauso schlau wie zuvor.
Durch solche Beiträge lernt leider keiner was, das sind vollkommen sinnleere Egotrips, die du scheinbar hier im Forum ausleben musst. Aber jeder wie er muss, gell?

Wenn du was Gescheites zum Thema beizutragen hast, können "wir" von dir sicher was lernen. :P

Ist doch völlig irrelevant, Zahlen in den Raum zu stellen, wenn ich diese nicht aus erster Hand habe, also muss man sich diesen mit dem was man weiß nähern. Davon lebt dieses Forum.

Ist doch völlig legitim, wenn du nichts aus meinem Beitrag lernst. Gibt aber noch ein paar andere Leser als nur dich, nicht immer von sich auf andere schließen.

mironicus
2015-05-31, 13:05:16
Wird es die Fury auch im Profibereich geben? Aber da wird man wohl kaum punkten können mit zu wenig Speicher... hoffentlich ist die Konsumer-Edition keine reine Design-Studie für HBM.

Unicous
2015-05-31, 13:34:55
@ Sunrise

Du beginnst deinen Exkurs mit

Die Kostenfrage bzgl. HBM-Designs kann man eigentlich ganz gut aufschlüsseln.

Und alles was folgt sind Allgemeinplätze die wir hier schon zig tausend mal erläutert und besprochen haben und nichts Konkretes, weder die versprochene Aufschlüsselung der Kosten noch neue Informationen folgen. Daher ist eher dein Post ein Egotrip, denn wir sind nicht schlauer geworden von deinem Post.

Ich schließe mit einem Zitat:

Wenn du was Gescheites zum Thema beizutragen hast, können "wir" von dir sicher was lernen.:P

N0Thing
2015-05-31, 13:43:14
Microsoft und Sony werden sicherlich auch interessiert sein an eine Highperformance APU mit HBM für PS5 und XBox Two. Ob Intel oder NVidia da jemals so aktiv sein werden bezweifele ich.

Eine PS5 oder Xbox2 dürften noch 2-3 Jahre auf sich warten lassen und bis dahin nimmt man vielleicht sogar lieber noch die 10nm Fertigung mit. Spannend wird für das nächste Jahr, in wie fern AMD GPUs bei GloFo fertigen lassen wird. Das könnte entscheidender sein als die Frage, wer früher auf die neue Fertigung umsteigt.


Wobei man auch hier mal das Wagnis eingehen sollte, Richtung Intel Broadwell rüber zuschielen was das Thema Taktbarkeit angeht. Mit kleiner werdenden Strukturgrößen ist es schon Intel nicht möglich die Taktfreudigkeit der alten CPU's zu halten. Auch wenn wir hier verschiedene Taktbereiche haben, die ersten 14/16nm GPU's werden hier mindestens im OC sicher auch Federn lassen müssen.

Ich weiß nicht, ob Intel ein guter Maßstab für die Taktbarkeit der kleineren Fertigungsprozesse ist, deren CPU-Design scheint mir vor allem auf den Notebookbereich abzuzielen, also möglichst viel Performance pro Watt bei wenig absolutem Verbrauch und dazu kommen dann noch mit jeder Generation deutliche Verbesserungen an der iGPU (man beachte einfach mal, wie viel Fläche und Transistoren inzwischen für die CPU und wie viel für die GPU verwendet werden).
Ob dann die Topmodelle für den Serverbereich 100W oder 140W brauchen, ist Intel vielleicht mangels Konkurrenz zur Zeit gar nicht so wichtig. Von unten drücken ja die ARM-Chips in den Net/-Notebook-Sektor, im Serverbereich kann AMD hingegen kaum noch Druck aufbauen.

Sunrise
2015-05-31, 14:10:08
Wird es die Fury auch im Profibereich geben? Aber da wird man wohl kaum punkten können mit zu wenig Speicher... hoffentlich ist die Konsumer-Edition keine reine Design-Studie für HBM.
Bei deutlich mehr DP als Hawaii evtl. schon, wobei Hawaii immernoch gut dabei ist. Wenn ECC zusätzlich gewünscht ist, dann sind 4GB aber wohl deutlich zuwenig.

horn 12
2015-05-31, 14:44:52
edit

[MK2]Mythos
2015-05-31, 14:48:37
edit
Dein bester Beitrag seit langem! :D

aufkrawall
2015-05-31, 15:08:52
könnte mir vorstellen das man einen 200mm² chip in 16nm mit hbm2 bringt mit der 980 leistung für +450$ mitte 2016?
~300mm² ist recht klein für einen Performance-Chip. Den verkauft man dann für 600$ und die Marge dürfte nicht geringer sein als bei der 980 Ti. Die dann auch schon ein Jahr alt ist.

Warum zieht ihr immer Maxwell als Vergleich für die Einführung heran?
Kepler ist passender, und AMD hatte auch keine Probleme mit der Tahiti-Stückzahl (365mm²) mehr, als Nvidia GK104 einführte.

mboeller
2015-05-31, 15:39:55
~300mm² ist recht klein für einen Performance-Chip. Den verkauft man dann für 600$ und die Marge dürfte nicht geringer sein als bei der 980 Ti. Die dann auch schon ein Jahr alt ist.


Bei 16nm + 300mm² da bringst du min. 2x so viele Transistoren unter wie in 28nm; damit wird eine 16nm GPU mit 300mm² ungefähr so teuer wie eine 500-550mm² GPU in 28nm ... also viel zu teuer für einen Performance-Chip.

Siehe die Auflistung von Lisa Su in ihrer letzten Präsentation. für einen Link bin ich jetzt zu faul.

Thunder99
2015-05-31, 15:49:38
Sie (nvidia primär) verkaufen ja schon jetzt 300mm2+ für 500+, siehe Kepler und bedingt Maxwell

Sehe da kaum Spielraum für deutlich teurere Grafikkarten wobei auch die Menge nicht "unendlich" ist die man verkaufen kann um die Kosten zu drücken.

Eine Statistik wieviel pro Marktsegment verkauft werden wäre da hilfreich.

Kartenlehrling
2015-05-31, 17:01:25
Was ist den aus dem Nachtisch geworden,
wurden da nur die alten DX12 Folien gezeigt oder streng geheime Infos?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10643338&postcount=6761

BlacKi
2015-05-31, 17:44:58
~300mm² ist recht klein für einen Performance-Chip. Den verkauft man dann für 600$ und die Marge dürfte nicht geringer sein als bei der 980 Ti. Die dann auch schon ein Jahr alt ist.

Warum zieht ihr immer Maxwell als Vergleich für die Einführung heran?
Kepler ist passender, und AMD hatte auch keine Probleme mit der Tahiti-Stückzahl (365mm²) mehr, als Nvidia GK104 einführte.
was ein chip selbst wirklich kostet ist doch egal, denn nvidia verkauft leistung nicht chipgröße. daher kann man davon ausgehen das bei gleicher performance ca gleiches verlangt wird, es sein denn amd bringt passendes.
die chipgröße nehme ich deshalb so klein, weil ich auch annehme das die kleinen chips zuerst kommen. ich glaube auch nicht das pascal ohne hbm kommen wird, dazu macht maxwell noch eine zu gute figur, im gegensatz zu termi beim wechsel zu kepler. zum anderen ist die 980ti noch nicht draussen und dessen lebenszeit wäre somit besonders gering. da glaub ich eher das zuerst ein monsterchip kommt bevor wir performance/highend sehen werden.

alles blos meine spekulation natürlich...

iuno
2015-05-31, 18:42:52
Eine spannende Frage bleibt ja auch wann HBM2 ausreichend verfügbar ist. HBM1 steht seit Mitte 2014 auf der Hynix Roadmap, erst ein Jahr später, Mitte 2015 wird es das erste Serienprodukt geben. HBM2 steht erst ab Anfang Q2 2016 auf der Hynix-Roadmap...

http://s14.postimg.org/eog95b2gx/sk_hynix_tsv_roadmap_hbm.png (http://postimage.org/)
Von HBM2 für Fiji redet ja keiner. Doppelter Takt und vierfache Kapazität, so schnell? Sicher nicht. Die Hoffnung liegt ja noch auf einer Zwischenlösung mit 4 Gb.

und lauffähige hbm1 karten gabs schon letzten herbst vor ca 9m. d.h. also im frühjahr16 kann man hbm2 auf pascal erwarten, und sie testen bereits pascal karten mit hbm2 ?
Wo hast du das denn her? HBM2 Frühjahr 2016 auf dem Endkundenmarkt und jetzt schon im Testlabor :confused: :freak:

y33H@
2015-05-31, 18:45:14
Was ist den aus dem Nachtisch geworden, wurden da nur die alten DX12 Folien gezeigt oder streng geheime InfosEs ging dann doch nicht um Fiji, mehr diese Woche. Und bald mehr zu Fiji.

Kriton
2015-05-31, 18:52:58
Glaube ich erst wenn ich das sehe. AMD kocht auch nur mit Wasser und dieses war in letzter Zeit extrem heiß uns schwierig zu kühlen ;)

So wie Thermi - wurde mit Kepler auch besser.

Die 980 Ti Referenz wird entgegen dem was überall steht entweder $649 oder $699 kosten.

Wenn NV clever ist, dann hauen sie die für $649 raus und lassen etwas Luft für den Preis der Custom-Karten. NV braucht einen Preis-Leistungshammer, die $799 wären Quatsch, weil man die Salvage-Karten auch möglichst gut verkaufen muss und man so ein noch besseres Verkaufsargument hat.

Wie weit sind wir gekommen, das als P/L-Hammer zu bezeichnen. :freak:

R.I.P.
2015-05-31, 19:08:17
Es ging dann doch nicht um Fiji, mehr diese Woche. Und bald mehr zu Fiji.

Carizzo incoming? P.s. muss mich mental bei dir entschuldigen. Dachte du arbeitest bei Pcgh

Effe
2015-05-31, 19:14:15
Dachte du arbeitest bei Pcgh
Er ist jetzt bei Golem.de

y33H@
2015-05-31, 19:33:17
Seit fast zwei Jahren ^^

Carizzo incoming?Wäre eine Idee ;-)

Sunrise
2015-05-31, 20:24:48
Wie weit sind wir gekommen, das als P/L-Hammer zu bezeichnen. :freak:
Da muss ich dir uneingeschränkt Recht geben, das ist aber nur von kurzer Dauer, wenn AMD jetzt wieder mitspielt.

So um die 600 EUR für ein 600mm² Monster im Vollausbau wäre OK, die 980 Ti ist halt teildeaktiviert, Titan my ass.

Captain Future
2015-05-31, 20:37:55
Bei deutlich mehr DP als Hawaii evtl. schon, wobei Hawaii immernoch gut dabei ist. Wenn ECC zusätzlich gewünscht ist, dann sind 4GB aber wohl deutlich zuwenig.

Mehr DP? 0,75-rate? Full-Rate?

M4xw0lf
2015-05-31, 20:49:29
Mehr DP? 0,75-rate? Full-Rate?
Einfach nur mehr FLOPS ^^
Dazu wäre half rate wohl zwingend nötig; mit 1:4 wird Hawaii immer noch schneller sein.

BlacKi
2015-05-31, 21:37:23
Wo hast du das denn her? HBM2 Frühjahr 2016 auf dem Endkundenmarkt und jetzt schon im Testlabor :confused: :freak:
Eine spannende Frage bleibt ja auch wann HBM2 ausreichend verfügbar ist. HBM1 steht seit Mitte 2014 auf der Hynix Roadmap, erst ein Jahr später, Mitte 2015 wird es das erste Serienprodukt geben. HBM2 steht erst ab Anfang Q2 2016 auf der Hynix-Roadmap...

stimmt ich habs falsch verstanden.
aber für fiji oder mit anderen amd chips siehts dann wohl genauso schlecht aus.

Hübie
2015-05-31, 23:53:22
Also ehrlich gesagt würde ich eine 980 Ti für 650€ lieber kaufen als einen Fiji für 850. Die Leistung ist offenbar identisch wenn man den Gerüchten glauben darf.
Ist auch die treffende Formulierung gewesen: nVidia verkauft Performance nicht Fläche.
Trotzdem warte ich auf Fiji. Come what may...

w0mbat
2015-06-01, 00:56:08
Also ehrlich gesagt würde ich eine 980 Ti für 650€ lieber kaufen als einen Fiji für 850. Die Leistung ist offenbar identisch wenn man den Gerüchten glauben darf.
Ist auch die treffende Formulierung gewesen: nVidia verkauft Performance nicht Fläche.
Trotzdem warte ich auf Fiji. Come what may...

Die 980Ti kostet aber 750€ und vielleicht kommt Fiji ja auch für 750€. Wie kommst du auch die Preise?

Hübie
2015-06-01, 01:03:36
Ja hab ich auch eben gesehen. Wäre sonst auch zu schön um wahr zu sein. Ich warte wie gesagt trotzdem. AMD hat ein heißes Eisen im Feuer :smile:

horn 12
2015-06-01, 02:54:54
Schau mal ob AMD heute früh / Mittag klein beigibt oder die Leute zum Warten anreizen kann!
Vielleicht gibt man die Euro Preise und die Spec-Daten, Speichermenge bekannt, zumindest für 4K sollte Fiji alles wegrocken was derzeit/ Heute am Markt ist.

-/\-CruNcher-/\-
2015-06-01, 03:01:59
Jo verbesserte Tesselation + das eh gute Resolution + MSAA Skalierungsverhalten ;)

y33H@
2015-06-01, 03:18:30
Vielleicht gibt man die Euro Preise und die Spec-Daten, Speichermenge bekannt, zumindest für 4K sollte Fiji alles wegrocken was derzeit/ Heute am Markt ist.Nö nö nö.

Mit etwas Glück hält Lisa Su am Mittwoch auf der PK ne Karte hoch ...

Dawn on Titan
2015-06-01, 06:58:00
Mit Holzschrauben?

Menace
2015-06-01, 08:48:18
@y33h: Gemessen an eurem Fazit, gehe ich davon aus, dass ihr schon mehr über Fiji wisst, oder? :confused:

Verglichen mit AMDs kommender Fiji-Karte könnten 6 GByte dennoch ein Vorteil sein: Die neue Radeon erscheint erst Mitte Juni und bietet schnellen High Bandwidth Memory - aber nur 4 GByte Videospeicher. Angesichts von Leistung und Preis der Geforce GTX 980 Ti dürfte es Fiji schwer haben.

Das steht im Fazit zur GTX 980 Ti; und man wundert sich, dass AMD sich so schwer tut. :biggrin:

horn 12
2015-06-01, 08:48:55
R9 380 macht den Anfang

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/gigabyte-leak-380-2.jpg

PS: Fiji XT sollte nicht mehr lange auf sich warten lassen!

Menace
2015-06-01, 08:54:47
- Stylish Back Plate; Light On when fan stop.... :freak: Was für ein Käse.

AnarchX
2015-06-01, 08:57:25
Fury mit 350W TDP? http://www.chiphell.com/thread-1302682-1-1.html

Isen
2015-06-01, 09:01:08
Kannst du den Text in nen Spoiler packen, AnarchX?
Die Seite lädt sich nen Wolf -.-

Edit: Nach 5min fertig :freak:

Menace
2015-06-01, 09:04:50
Edit: Nach 5min fertig :freak:

Mit Bild?

Isen
2015-06-01, 09:05:28
Ne. War keins (Was nicht schon bekannt ist) Nur ne " Aus guter Quelle habe ich erfahren .... und die 350W TDP soll aber kühler als TX und TI sein und bla "

8+8+PCIe - hätte auch ich die Quelle sein können - ne.. nix neues, was hier nicht schon selbst spekuliert wurde

r3ptil3
2015-06-01, 09:42:18
Ich tippe auf folgendes:

R9 380 - Hawaii + GDDR5
R9 390 - Fiji + GDDR5
Fury - Fiji Dual-GPU + HBM

AnarchX
2015-06-01, 09:44:40
Es gab doch schon eine Herstellerkennung der 390 mit 8GiB und GDDR5.
Die 380er sollten Tonga-basierend sein (endlich 4GiB...) und die 390er wohl Hawaii mit bis zu 8GiB.

Für Fiji würde sich wohl Fury und Fury MAXX (Dual) anbieten.

fondness
2015-06-01, 09:46:28
Radeon 380 Material:
http://videocardz.com/55996/gigabyte-radeon-r9-380-g1-gaming-marketing-materials-leak-out

M4xw0lf
2015-06-01, 09:47:40
Ne. War keins (Was nicht schon bekannt ist) Nur ne " Aus guter Quelle habe ich erfahren .... und die 350W TDP soll aber kühler als TX und TI sein und bla "

8+8+PCIe - hätte auch ich die Quelle sein können - ne.. nix neues, was hier nicht schon selbst spekuliert wurde
2x8Pin machen sogar 375W Boardpower.

r3ptil3
2015-06-01, 09:58:02
Es gab doch schon eine Herstellerkennung der 390 mit 8GiB und GDDR5.
Die 380er sollten Tonga-basierend sein (endlich 4GiB...) und die 390er wohl Hawaii mit bis zu 8GiB.

Für Fiji würde sich wohl Fury und Fury MAXX (Dual) anbieten.

Ich denke eine Fury mit Singlechip wirds erst gar nicht geben und ebensowenig eine SingleGPU mit HBM...

M4xw0lf
2015-06-01, 09:59:56
Ich denke eine Fury mit Singlechip wirds erst gar nicht geben und ebensowenig eine SingleGPU mit HBM...
Das halte ich für Quatsch.

r3ptil3
2015-06-01, 10:07:20
Das halte ich für Quatsch.

Kann sein, aber so prestigeträchtig eine eigene Serie klingt, so müsste auch die Leistung enorm sein und das wiederrum kann ich mir von einer SingleGPU kaum vorstellen. Um dem gerecht zu werden müsste "Fury" mind. 20-30% über einer Titan X liegen und womit wäre das realistisch? -> Fiji DualGPU.

M4xw0lf
2015-06-01, 10:11:19
Kann sein, aber so prestigeträchtig eine eigene Serie klingt, so müsste auch die Leistung enorm sein und das wiederrum kann ich mir von einer SingleGPU kaum vorstellen. Um dem gerecht zu werden müsste "Fury" mind. 20-30% über einer Titan X liegen und womit wäre das realistisch? -> Fiji DualGPU.
Warum muss eine extra Grafiklinie von AMD 20-30% über der extra-Grafiklinie von Nvidia liegen? :confused:
Ich denke Fiji wird als single-GPU +-wenige% bei der Titan X herauskommen, fertig.

Isen
2015-06-01, 10:13:09
^@M4xw0lf,

kennst das ja. TDP!=NV-TDP :D

M4xw0lf
2015-06-01, 10:15:49
Bei AMD tendieren die Stromstecker bei allen Karten nach der HD7000-Serie schon dazu, den maximalen Stromverbrauch vorherzusagen... außer bei der 295X2, wo er noch sehr viel höher ist als spezifiziert für 2x8Pin. ^^

r3ptil3
2015-06-01, 10:16:55
Warum muss eine extra Grafiklinie von AMD 20-30% über der extra-Grafiklinie von Nvidia liegen? :confused:
Ich denke Fiji wird als single-GPU +-wenige% bei der Titan X herauskommen, fertig.

Wäre doch unlogisch für eine etwas langsamere oder gleichschnelle Grafikkarte wie die 980 TI/Titan X eine eigene Serie rauszubringen.

Um die nötige Aufmerksamkeit zu erhalten macht man ja genau sowas.
Klingt einfach unrealistisch sowas zu machen, wenn die neue Serie nicht richtig überzeugt im Vergleich zur Konkurrenz. Damit wertet man sich doch eher ab.

Menace
2015-06-01, 10:18:16
... müsste "Fury" mind. 20-30% über einer Titan X liegen und womit wäre das realistisch? -> Fiji DualGPU.

Warum müsste Fury > 20 % Leistung sein? Dann würde AMD mit anderen Preisen vorgehen. Ich bitte mal wieder um mehr Realitätssinn.

M4xw0lf
2015-06-01, 10:18:30
Wäre doch unlogisch für eine etwas langsamere oder gleichschnelle Grafikkarte wie die 980 TI/Titan X eine eigene Serie rauszubringen.

Um die nötige Aufmerksamkeit zu erhalten macht man ja genau sowas.
Klingt einfach unrealistisch sowas zu machen, wenn die neue Serie nicht richtig überzeugt im Vergleich zu Konkurrenz. Damit wertet man sich doch eher ab.
Man macht das, um die average selling prices nach oben zu setzen.

chetigol
2015-06-01, 10:24:50
Warum müsste Fury > 20 % Leistung sein? Dann würde AMD mit anderen Preisen vorgehen. Ich bitte mal wieder um mehr Realitätssinn.

Auch wenn es unrealistisch sein sollte, finde auch dass Fury ordentlich an Leistung drauflegen muss.

Liegt Fury nur etwas über Titan und kostet dabei etwa soviel wie die 980Ti bei nur 4GB, dann ist für mit die Entscheidung zugunsten der 980Ti gefallen.

Ich möchte eigentlich meine 5870 gegen Fury ersetzen und dabei bei AMD bleiben, aber da ich die Grafikkarte nicht jedes Jahr auswechsle, denke ich, dass ich mit einer 6GB Grafikkarte auf längere Sicht besser beraten bin.

jemand, der jedes Jahr aufrüstet, der kann das natürlich anders sehen.

r3ptil3
2015-06-01, 10:25:51
Man macht das, um die average selling prices nach oben zu setzen.

Und mit welchem Produkt erreicht man sowas?

Anders gefragt, wann gabs bei AMD zuletzt eine eigene Serie wie bspw. Titan?


@Menace
Was für Preise? Soweit ich weiss wurde doch noch kein einziger Preis für "Fury" genannt.

BlacKi
2015-06-01, 10:28:57
gelöscht

HOT
2015-06-01, 10:57:06
Also gibts neben den R300 OEM-Chips auch ne retail R9 380(X) (Tonga) und R9 390(X) (Hawaii) gepaart mit einer Fury WCE. Später im Jahr dürfte dann die 400er Serie starten mit Fury als R9 490, ergänzt durch die Caribbean Island-Chips, welche in 2016 dann durch eine Fury II alias Greenland (Arctic Islands) nach oben hin ergänzt wird. Das Bild fügt sich zusammen.

Dural
2015-06-01, 11:10:21
Ohhh Wunder es gibt eine X300 Retail Serie, dies war nach den leaks von ASUS und Co Karten ja unmöglich vorher zusehen.

Gibt es auch mal neue Infos?

Dawn on Titan
2015-06-01, 11:18:55
Also gibts neben den R300 OEM-Chips auch ne retail R9 380(X) (Tonga) und R9 390(X) (Hawaii) gepaart mit einer Fury WCE. Später im Jahr dürfte dann die 400er Serie starten mit Fury als R9 490, ergänzt durch die Caribbean Island-Chips, welche in 2016 dann durch eine Fury II alias Greenland (Arctic Islands) nach oben hin ergänzt wird. Das Bild fügt sich zusammen.

Caribbean Island-Chips in 2015? Wer soll das fertigen?

mironicus
2015-06-01, 11:25:32
Die Schlammschlacht geht los:

NVidia: "Eine gute Grafikkarte braucht keine Wasserkühlung".
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html

AMD: Alle CGN-Karten DX12 Featurelevel 3 hardwarekompatibel
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35550-gcn-architektur-soll-komplette-directx-12-featurelevel-beherrschen.html

AMD: Direkte Vergleiche DX12-Geschwindigkeit mit NVidia-Karten
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35529-directx-12-amd-vergleicht-sich-mit-nvidia-und-aeussert-sich-zu-crossfire-unter-dx12.html

Skysnake
2015-06-01, 11:32:30
Hm... was würde es wohl bringen, wenn man sagen wir 1 GB HBM als L4-Cache neben einer CPU verwenden würde...? Und dazu noch 1 GB HBM als VRAM für die interne GPU. Den großen Cache innerhalb der CPU bräuchte man dann ja nicht mehr unbedingt. Es gibt so viele Möglichkeiten für neue Produkte... eine HBM RAM-Disc. :D
Nein, das macht für CPUs nicht wirklich viel Sinn.

CPUs haben für viele Workloads eher geringe Bandbreitenprobleme, wenn man jetzt mal von Servern insbesondere Datenbankservern absieht. Bei CPUs ist die Latenz sehr viel entscheidender, da man Latenzen nicht wie bei GPUs verstecken kann für die meisten Probleme.

Daher sind die Caches auch so extrem wichtig, mal ganz abgesehen davon, dass die Bandbreite von Caches noch immer weitaus höher liegt.

Wenn wir einen einzigen x86 Kern nehmen, der mit 4 GHz läuft, dann musst du mindestens 2*8Byte*4FLOPs/GHz=64GB/s an Daten ranschaffen, und nochmals 32GB/s schreiben. Für FMA sind es dann eben 96+32 GB/s und das ohne SSE/AVX, mit dem du jeweils die Werte nochmals um einen Faktor 4 bzw 8 multiplizieren musst. Da kommt schon einiges zusammen, vor allem weil du ja wie gesagt im normalfall extrem niedrige Latenzen willst, ansonsten läuft die ständig die Pipeline leer...

Gut bei AVX/SSE Code wird man Latenzen zum Teil verstecken können, aber dennoch, CPUs leben von ihren Caches, und das wird sich auch nicht ändern, so lange der DRAM nicht genau so schnell ist wie SRAM.


@Sunrise


Ja nun hast du das alles schön "aufgeschlüsselt", schlauer sind wir dadurch auch nicht. Wie du bereits sagtest ist das gesamte Packaging teuer, die einzelnen Teile eigentlich nicht. Der Interposer an sich dürfte nur ein paar Dollar kosten (also 1-2:wink:). Die DRAMs sind auch spottbillig herzustellen. Die TSV-Kanäle einzubringen, die micro bumps zu setzen, die Dies auf den Interposer zu bringen, das sind alles Kostentreiber, die man aber nicht einschätzen kann, weil es auch keine konkreten oder zumindest vage Zahlen gibt.

Wir sind also genauso schlau wie zuvor.
Naja, das Bumping sollte nicht sonderlich teuer sein, sobald man mal den Prozess entwickelt hat. An sich sind das ja die gleichen Verfahren wie bisher auch, man muss halt "nur" die Prouzessparameter kennen und GENAU kontrollieren können. Wenns dann aber mal läuft, dann läufts, wie bei so vielem.

Problematischer sind da schon eher die TSVs, da kann einiges schief gehen. Vor allem beim Stacking an sich. Das sollte der größte Kostenfaktor sein, da das Stacking an sich eben schwierig ist, und man eben DAVOR! UND! DANACH! jeweils den Chip testen muss, ob er funktioniert. Das sollte die Kosten treiben.

HOT
2015-06-01, 11:36:39
[QUOTE=mironicus;10647960][...]

AMD: Alle CGN-Karten DX12 Featurelevel 3 hardwarekompatibel
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35550-gcn-architektur-soll-komplette-directx-12-featurelevel-beherrschen.html

[...]/QUOTE]
wenig überraschend, DX12 wird einfach das Featureset bieten, dass die XBOne anbieten kann, also GCN1.0. Man ist nur für NV und Intel ein paar kompromisse eingegangen.

Menace
2015-06-01, 11:40:01
Ich hoffe, dass zumindest davon AMD profitieren kann (und dass dementsprechend zügig auch DX 12 eingeführt wird).

Troyan
2015-06-01, 11:42:51
Die Tabelle ist ein Fake.

Lustig, wie etwas, dass irgendwo im Internet auftaucht, als real angesehen wird, weil es sich mit der eigenen Überzeugung deckt. :lol:

dargo
2015-06-01, 11:43:35
Die Schlammschlacht geht los:

NVidia: "Eine gute Grafikkarte braucht keine Wasserkühlung".
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html

Hmm... dann sind die Titan X und 980TI also schlechte Karten? :uponder:
http://www.evga.com/articles/00935/EVGA-GeForce-GTX-TITAN-X-HYBRID/
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10645946&postcount=7893

BlacKi
2015-06-01, 11:48:25
na endlich, und nochmals für die zweifler : zitat: "Pascal" soll im kommenden Jahr mit HBM erscheinen.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html

Nein, weil sie keine Wasserkühlung "brauchen". "Brauchen" != "haben können".

der vergleich hinkt, denn es wird wohl auch luftgekühlte fiji´s geben. mit radiallüfter*wegduck*

dargo
2015-06-01, 11:48:41
Nein, weil sie keine Wasserkühlung "brauchen". "Brauchen" != "haben können".
Aha... wo steht, dass Fiji eine Wakü braucht?

Dawn on Titan
2015-06-01, 11:50:02
Die Schlammschlacht geht los:


AMD: Alle CGN-Karten DX12 Featurelevel 3 hardwarekompatibel
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35550-gcn-architektur-soll-komplette-directx-12-featurelevel-beherrschen.html


Krass, alle Featurelevel 3 während keine Karte bei NV mehr als 12_2 erreicht.

Sunrise
2015-06-01, 11:51:25
...Naja, das Bumping sollte nicht sonderlich teuer sein, sobald man mal den Prozess entwickelt hat. An sich sind das ja die gleichen Verfahren wie bisher auch, man muss halt "nur" die Prouzessparameter kennen und GENAU kontrollieren können. Wenns dann aber mal läuft, dann läufts, wie bei so vielem.

Problematischer sind da schon eher die TSVs, da kann einiges schief gehen. Vor allem beim Stacking an sich. Das sollte der größte Kostenfaktor sein, da das Stacking an sich eben schwierig ist, und man eben DAVOR! UND! DANACH! jeweils den Chip testen muss, ob er funktioniert. Das sollte die Kosten treiben.
Laut der Kostenanalyse von AM (Applied Materials) hier nachzulesen:
http://electroiq.com/blog/2012/12/lifting-the-veil-on-silicon-interposer-pricing/

teilt es sich folgendermaßen auf:

"His cost analysis showed the major cost contributors are damascene processing (22%), front pad and backside bumping (20%), and TSV creation (14%)."

Das ist zwar schon recht alt (2012), sollte aber in etwa gleich geblieben sein. Wenn jemand aktuellere Zahlen hat, immer mehr damit.

Unicous
2015-06-01, 11:53:13
Ohne Quellenangabe irrelevant (Typisch Hardwareluxx und andere deutsche Seiten). Irgendwie kommt mir die Tabelle bekannt vor und könnte auch von einem Foren-Troll erstellt worden sein.

dargo
2015-06-01, 11:55:26
Wahrscheinlich 1000x zwischen Seite 1 und dieser hier :)
Dann lese dich nochmal durch. Nur die schnellste Version von Fiji kommt mit Wakü.

Dawn on Titan
2015-06-01, 11:58:57
380 - Tonga
390 - Hawaii
Fury whatever - Fiji

mironicus
2015-06-01, 12:04:25
Microsoft entwickelt DX 12 und ihre eigene Konsole hat CGN 1.0. Vorteil für AMD.

Unicous
2015-06-01, 12:18:23
Fury mit 350W TDP? http://www.chiphell.com/thread-1302682-1-1.html


Und ein anderer Typ (behauptet wohl er sei Händler) sagt es wären 300 Watt und die Fiji 8 GB kommt im August. (Außerdem sollen schon die 300er Serie Karte bei ihm eingetroffen sein, mit Preisangaben bis 400 Dollar für die 8GB 390X).

Fazit: chiphell kann man genauso wenig trauen wie anderen Leak-Seiten.

Skysnake
2015-06-01, 12:27:21
Laut der Kostenanalyse von AM (Applied Materials) hier nachzulesen:
http://electroiq.com/blog/2012/12/lifting-the-veil-on-silicon-interposer-pricing/

teilt es sich folgendermaßen auf:

"His cost analysis showed the major cost contributors are damascene processing (22%), front pad and backside bumping (20%), and TSV creation (14%)."

Das ist zwar schon recht alt (2012), sollte aber in etwa gleich geblieben sein. Wenn jemand aktuellere Zahlen hat, immer mehr damit.
Das sind aber nur die Kosten für den Interposer an sich.

Heutzutage macht die Validierung ob ein Chip überhaupt richtig funktioniert einen Großteil der Kosten aus. Das ist da gar nicht drin, soweit ich das jetzt sehen kann, sondern nur der Interposer an sich, bis zu dem Punkt, wo man dann ein Packaging durchführen könnte mit den restlichen DIEs.

Skysnake
2015-06-01, 12:28:34
Krass, alle Featurelevel 3 während keine Karte bei NV mehr als 12_2 erreicht.
Und damit sollte dann wohl auch ziemlich klar sein, wer absolut KEIN interesse daran hatte/hat, das DX12 schnell auf den Markt kommt.... :rolleyes:

Unicous
2015-06-01, 12:31:13
Und damit sollte dann wohl auch ziemlich klar sein, wer absolut KEIN interesse daran hatte/hat, das DX12 schnell auf den Markt kommt.... :rolleyes:

Woher weißt du, dass die Folie authentisch ist?:confused:

dildo4u
2015-06-01, 12:42:27
Krass, alle Featurelevel 3 während keine Karte bei NV mehr als 12_2 erreicht.
Ja genau AMD hatte finale DX12 Spec's von 4 Jahren.:rolleyes: Maxwell ist weiter als der AMD Schrott von 2012.

mironicus
2015-06-01, 12:50:49
Die haben es halt weil Microsoft es so bestimmt hat, Konsolendeals sei Dank. :D
Die Grundlage für künftige Industriestandards werden im PC-Bereich von Microsoft maßgeblich bestimmt, und die Softwareindustrie arbeitet für die nächsten Jahre mit CGN-Hardware (Konsolen).

Hi, Hi, Hi.... :D

Skysnake
2015-06-01, 12:55:02
Woher weißt du, dass die Folie authentisch ist?:confused:
Weil man schon länger gehört hat, das nVidia auf die Bremse drückt, und MS wird bei ihrer API sehr genau hingeschaut haben, was ihre Hardware wir können müssen für die neue Konsole.

Das GCN etwas nicht kann, was DX12 braucht, und nicht völlig problemlos auf den Konsolen emuliert werden kann, war auszuschließen.

Ein Effekt/what ever auf dem PC, der prinzipbedingt nicht auf der XBone umsetzbar ist, wäre eine Katastrophe.

Skysnake
2015-06-01, 12:56:32
Ja genau AMD hatte finale DX12 Spec's von 4 Jahren.:rolleyes: Maxwell ist weiter als der AMD Schrott von 2012.
Was kann den irgend eine nVidia Architektur, was GCN nicht kann ;)

Jetzt mal von Deltacompression abgesehen, was ja nur Bandbreite spart, aber keine neue Funktionalität hinzufügt.

mironicus
2015-06-01, 12:58:56
Und die nächsten Konsolen werden wohl auch AMD-Hardware einsetzen, wahrscheinlich beherrscht CGN 1.0 dann schon DirectX 13 zu 100%. :D

Unicous
2015-06-01, 13:03:09
@Skysnake

Und warum können bei AMDs DX12 Treibern immer noch nicht die Features abgefragt werden, bzw. werden als nicht unterstützt dargestellt?

Ein Typ bei B3D hat dafür ein kleines Programm geschrieben und AMD unterstützt nur das was unserem jetzigen Wissenstand entspricht. Diese Tabelle ist ohne Quellenangabe nichts wert.

Es ist im Übrigen eine bodenlose Frechheit von HWL und Konsorten, die Quellen nicht anzugeben. Quelle: "amd.de" Kann ja wohl nicht deren Ernst sein. Genauso eine Scheiße wie bei Computerbase.

Nehmen wir mal ganz naiiv an, dass "amd.de" die Quelle ist, sollte ich das ja entsprechend finden können.:rolleyes:

Kartenlehrling
2015-06-01, 13:10:10
Das diese Blaue Tabelle nur Bullschiit sein kann steht ohne zweifel,
das es aber von Microsoft, AMD und Nvidia aber keine gibt wo man es sauber rauslesen kann ist aber genauso peinlich.

Dural
2015-06-01, 13:15:09
Zum aktuellen Zeitpunkt sieht NVIDIA die Einführung von HBM aber als zu früh an. Der Speicher sei noch schwierig zu fertigen, daher nur schlecht verfügbar und zudem auch noch recht teuer. Die Speicherbandbreite mit dem Einsatz von GDDR5 sei in der aktuellen "Maxwell"-Generation ausreichend. Zudem könne man über die implementierte Speicherkomprimierung zusätzliche Leistungsreserven in diesem Bereich freimachen.


http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html

Damit kann man günstige Karte mit Fiji und 8GB wohl vergessen.

Raff
2015-06-01, 13:16:12
Das heißt gar nichts. Überleg doch mal: Nvidia wird wohl kaum sagen, dass HBM extrem geil ist, wenn nur die Konkurrenz es bietet.

MfG,
Raff

Skysnake
2015-06-01, 13:17:20
@Skysnake

Und warum können bei AMDs DX12 Treibern immer noch nicht die Features abgefragt werden, bzw. werden als nicht unterstützt dargestellt?

Ein Typ bei B3D hat dafür ein kleines Programm geschrieben und AMD unterstützt nur das was unserem jetzigen Wissenstand entspricht. Diese Tabelle ist ohne Quellenangabe nichts wert.

Es ist im Übrigen eine bodenlose Frechheit von HWL und Konsorten, die Quellen nicht anzugeben. Quelle: "amd.de" Kann ja wohl nicht deren Ernst sein. Genauso eine Scheiße wie bei Computerbase.

Nehmen wir mal ganz naiiv an, dass "amd.de" die Quelle ist, sollte ich das ja entsprechend finden können.:rolleyes:
Das wäre jetzt aber ein dicker Fail von HWL.....

Der Text machte für mich jetzt den Eindruck, dass das eine offizielle Gegenüberstellung von Seiten AMD aus irgend einem Slidedeck war/ist...

Die Daten an sich passen ja an sich aus. Zumindest wäre mir jetzt kein Fehler aufgefallen. Das Einzig interessante/Neue sollte ja die Verknüpfung mit dem binding tier sein. Zumindest ist mir jetzt nichts anderweitig Neues aufgefallen.

Und bei GCN gabs ja an der Architektur keine grundlegenden Änderungen. Was 1.0 nicht kann, können eigentlich auch alle anderen nicht, jetzt mal von irgendwelchen Media-Coding/Decoding Sachen, und dem Sound-Dingens da, dessen Name mir gerade nicht einfällt.

M4xw0lf
2015-06-01, 13:17:56
Das heißt gar nichts. Überleg doch mal: Nvidia wird wohl kaum sagen, dass HBM extrem geil ist, wenn nur die Konkurrenz es bietet.

MfG,
Raff
Dass sie es auch ab nächstem Jahr verwenden, ist da schon Aussage genug. ^^

Screemer
2015-06-01, 13:18:01
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html

Damit kann man günstige Karte mit Fiji und 8GB wohl vergessen.


Der Satz hat in etwa das gleiche Niveau, wie die Aussage ne TX bekommt man für 910€ und die 980er lägen unter 500. keine Ahnung was im luxx-büro grad für Stoff rum geht.

Dural
2015-06-01, 13:19:08
die gerüchte sagen aber seit wochen das selbe: nur 4GB und teuer

amd sagt seit Q1 das sie kaum marktanteile gewinnen werden.

die zeichen sind eindeutig.

M4xw0lf
2015-06-01, 13:21:49
die zeichen sind eindeutig.
Du bist eindeutig.

Kriton
2015-06-01, 13:23:21
das es aber von Microsoft, AMD und Nvidia aber keine gibt wo man es sauber rauslesen kann ist aber genauso peinlich.

Aber so etwas von!

Menace
2015-06-01, 13:27:15
amd sagt seit Q1 das sie kaum marktanteile gewinnen werden.


Würde man auch nicht, wenn Fiji konkurrenzfähig wäre, dafür ist der Preis zu hoch um Marktanteile zu gewinnen. :rolleyes:

Sunrise
2015-06-01, 13:27:36
Das diese Blaue Tabelle nur Bullschiit sein kann steht ohne zweifel,
das es aber von Microsoft, AMD und Nvidia aber keine gibt wo man es sauber rauslesen kann ist aber genauso peinlich.
NV wird da eben nicht mit allem rausrücken, wogegen AMD spätestens mit Fiji aber Tatschen schaffen sollte, sonst haben sie ein Verkaufsargument weniger.

NV stellt sich diesem Vergleich halt nicht, bzw. ist nicht völlig transparent, die geben nur das Preis, was ihnen marketingtechnisch zum Problem werden könnte. Daher wirbt man jetzt plötzlich mit vielen Dingen, die auch AMD in diversen Folien angesprochen hatte.

Und MS will da wohl keine Fronten aufbauen und sich diplomatisch geben. Ist eigentlich auch richtig, es ist nicht die Angelegenheit von MS, dafür zu sorgen, dass die IHVs Daten über ihre tatsächlichen HW-Eigenschaften, bzw. den in den Treibern abgebildeten Features herausgeben. Es sollte nur das Gesagte und Abrufbare auch validiert werden können, der Rest ist eine Black Box.

Dass GCN enorm vollgestopft ist, wissen wir ja. Während NV mehrere "kleinere" Salamis besser verkauft, baut AMD weniger "große" Salamis und muss dann den Aufwand der Masse rechtfertigen, ansonsten ist es eine reine Verschwendung an Fläche, Ressourcen und im Endeffekt Geld.

mironicus
2015-06-01, 13:30:29
Das diese Blaue Tabelle nur Bullschiit sein kann steht ohne zweifel,
das es aber von Microsoft, AMD und Nvidia aber keine gibt wo man es sauber rauslesen kann ist aber genauso peinlich.

Spezifikationen können sich jederzeit ändern. Aber wie ich schon sagte, da Microsoft mit AMD-Hardware arbeitet und die Spezifikationen vor allem für die Xbox One ausgelegt sind... ;D

Dass sie es auch ab nächstem Jahr verwenden, ist da schon Aussage genug. ^^

NVidia wird sich Fiji/Fury ganz genau anschauen und das wird dann in ihre eigene Arbeit einfließen. Viel Entwicklungskosten gespart... :)

Nakai
2015-06-01, 13:58:23
NVs Rumgeschleime bei HBM ist unerträglich. Die werden das auch nächstes Jahr einführen. Der gleiche Punkt bei der Wasserkühlung. Die Abwärme auf Fiji hätte auch mit einer Luftkühlung abgeführt werden können, tut man beim Non-Salvage wohl nicht, da die Hitze zu stark an einem Punkt gelegen ist und nicht übers PCB verteilt ist. Mal gucken, wie NVs NextGen aussehen wird. ;)

Dawn on Titan
2015-06-01, 14:02:20
Was Geschleime, die Beschränkungen von HBM1 sind lange bekannt und es brauchte kein Genie um zu erraten, dass mehr als 4GB aufwendig werden würden. Man sollte mal so ehrlich sein und auch anerkennen, dass AMD HBM brauchte, denn bei denen war mit GDDR5 nicht mehr viel drinne.

Screemer
2015-06-01, 14:06:25
Aha. Deswegen performt Maxwell mit gddr5 auch so kacke?! DCC und effizientere Caches wären sicher fürs erste mal genug gewesen. So pauschale aussagen kann ich auch machen.

aufkrawall
2015-06-01, 14:07:31
Einfach das Speicherinterface abspecken bringt aber nicht so schrecklich viel bei der Effizienz, siehe Tonga.

maguumo
2015-06-01, 14:10:03
Die Frage für AMD war vielleicht eher "warum noch GDDR5" statt "warum HBM". Warum noch Entwicklungsaufwand in Beispielsweise ein aufgebohrtes Hawaii SI mit DCC stecken wenn man HBM schon haben kann? Macht doch keinen Sinn... Und wenn der Chip wirklich ein Compute Monster wird zahlt sich HBM dann spätestens da richtig aus...

Sunrise
2015-06-01, 14:14:37
Aha. Deswegen performt Maxwell mit gddr5 auch so kacke?! DCC und effizientere Caches wären sicher fürs erste mal genug gewesen. So pauschale aussagen kann ich auch machen.
Caches kosten ohne Ende Platz, den AMD nicht hat. Und DCC haben sie ja sogar zusätzlich.

Es geht bei Fiji eher um die Reduzierung des systembedingten, gesamten Strombedarfs wenn du alles zusammenrechnest, was mit GDDR5 bzw. DDR im Allgemeinen zu tun hat. DKanter kommt auf 70W, was IMHO vor allem bei Hawaii sicherlich ganz gut hinkommt. Das ist schon ziemlich fett bei der Gesamtrechnung.

Vor allem wenn du den gesparten Platz auch noch für energieeffiziente ALUs etc. nutzen kannst.

Die Bandbreite alleine ist sicher kein primäres, aber ein gerne mitgenommenes Plus.

y33H@
2015-06-01, 14:15:13
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html
Auf die Konkurrenz und die baldige Einführung von High Memory Bandwidth angesprochen sagte Jen-Hsun Huang: "Eine gute Grafikkarte braucht keine Wasserkühlung".Würde gerne wissen wann Jensen das wo wie und wem sagte.

EDIT
Was soll DX12_2 sein? Es gibt DX12 und es gibt D3D12_0 sowie D3D12_1. Conservative Raster hat mit DSR oder MFAA nichts zu tun und Volume Tiles Resources sind optional ... oh man.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35481-nvidia-schluesselt-directx-12-unterstuetzung-fuer-eigene-grafikkarten-auf.html

M4xw0lf
2015-06-01, 14:18:37
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html
Würde gerne wissen wann Jensen das wo wie und wem sagte.

http://pics.computerbase.de/6/5/3/7/0/1-630.3062675204.jpg
Schade, keine gute Grafikkarte. :(

Screemer
2015-06-01, 14:21:07
Caches kosten ohne Ende Platz, den AMD nicht hat. Und DCC haben sie ja sogar zusätzlich.

Es geht bei Fiji eher um die Reduzierung des systembedingten, gesamten Strombedarfs wenn du alles zusammenrechnest, was mit GDDR5 bzw. DDR im Allgemeinen zu tun hat. DKanter kommt auf 70W, was IMHO vor allem bei Hawaii sicherlich ganz gut hinkommt. Das ist schon ziemlich fett bei der Gesamtrechnung.

Vor allem wenn du den gesparten Platz auch noch für energieeffiziente ALUs etc. nutzen kannst.

Die Bandbreite alleine ist sicher kein primäres, aber ein gerne mitgenommenes Plus.
amd hätte auch die dp leistung seines chips beschneiden können. eben den nv weg gehen. ich wollte nur sagen das die pauschale aussage, dass amd hbm zwingend brauchen würde nicht passt. ich finde den weg den sie gerade gehen sehr positiv, aber da steh ich wohl recht alleine auf weiter flur. g200 auf der anderen seite finde ich ein mörder gamergerät, mir aber auch massiv zu teuer.

y33H@
2015-06-01, 14:21:28
@ M4xw0lf

Kastrierte Titan X halt ;D

Unicous
2015-06-01, 14:25:33
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35548-nvidia-eine-gute-grafikkarte-braucht-keine-wasserkuehlung.html
Würde gerne wissen wann Jensen das wo wie und wem sagte.


Quelle: Nvidia.de (Und das ist nicht mal ein Witz, wie ich gerade beim "fact checking" entdeckt habe;D;D;D;D)

Dawn on Titan
2015-06-01, 14:28:58
Aha. Deswegen performt Maxwell mit gddr5 auch so kacke?! DCC und effizientere Caches wären sicher fürs erste mal genug gewesen. So pauschale aussagen kann ich auch machen.

Es geht nicht um Performance, es geht um ihr altes GDDR Interface.

Man darf wohl zu recht sagen, dass von der Bandbreite nicht viel ankam, man sich mit hohen Frequenzen schwer tat und das ganze Subsystem relativ viel Strom verbraucht hat.

Einfach noch einmal verbreitern ging nicht wirklich und das alles zu überarbeiten war im Hinblick auf HBM evtl. auch nicht effektiv.

Sunrise
2015-06-01, 14:31:03
amd hätte auch die dp leistung seines chips beschneiden können. eben den nv weg gehen. ich wollte nur sagen das die pauschale aussage, dass amd hbm zwingend brauchen würde nicht passt. ich finde den weg den sie gerade gehen sehr positiv, aber da steh ich wohl recht alleine auf weiter flur. g200 auf der anderen seite finde ich ein mörder gamergerät, mir aber auch massiv zu teuer.
Es gibt natürlich sehr oft auch mehrere Wege zum Ziel.

Ganz vereinfacht gesprochen hat NV einfach massiv mehr Geld und kann hier mehrere Arch-Generationen entwickeln und auch ordentlich in die Vollen gehen bei mehreren ASICs für verschiedene Zielgruppen, während AMD da leider sehr stark begrenzt ist und sich sehr stark auf GCN festgelegt hat.

Bei Fiji sind wir aktuell auch noch nicht wirklich im Bilde, ob man nun eher Tonga-Level DP-Leistung hat oder ob AMD quasi "all out" gegangen ist und hier wieder ein DP-Monster liefert, was sie mit den richtigen Eckdaten natürlich spitzenmäßig ggü. NV ausschlachten könnten (für die richtige Zielgruppe).

AMD muss also mit weniger deutlich mehr erschlagen, weil mehr gibt einfach ihr Budget nicht her. Das ist eigentlich genau das was man nicht will, daher muss man eben schauen was man hat und man bereits Ressourcen investiert hat und die sind bei AMD zu nicht unbeträchtlichen Teilen sicher in HBM und die gesamten Design-Parameter und Zusammenarbeit von Fertigern für ein so neues Design geflossen.

Da kann ich mich als NV auch hinstellen und sagen, dass HBM "Blabla", wenn sie eigentlich genau wissen, dass HBM eben wieder von AMD so massiv gepusht wird (zurecht), ebenso wie GDDR5. AMD legt hier quasi den roten Teppich aus und NV läuft drüber und lacht sich eins.

N0Thing
2015-06-01, 14:31:07
@ M4xw0lf

Kastrierte Titan X halt ;D

Blöd nur, wenn auch die volle Titan X keine gute Grafikkarte zu sein scheint. Link (http://www.zotac.com/products/graphics-cards/geforce-titan-series/product/geforce-titan-series/detail/geforce-gtx-titan-x-arcticstorm-zt-90402-10p.html) :D

fondness
2015-06-01, 14:37:14
amd hätte auch die dp leistung seines chips beschneiden können. eben den nv weg gehen. ich wollte nur sagen das die pauschale aussage, dass amd hbm zwingend brauchen würde nicht passt. ich finde den weg den sie gerade gehen sehr positiv, aber da steh ich wohl recht alleine auf weiter flur. g200 auf der anderen seite finde ich ein mörder gamergerät, mir aber auch massiv zu teuer.

Wenn das Ding 4 TFLOPs DP liefert dann ist sich AMD seiner Sache entweder sehr sicher gewesen, oder wenn man GM200 nicht zumindest messbar schlägt war ist IMHO eine Fehleinschätzung. Gerade 1:2 DP ist alles andere als gratis was Stromverbrauch und Flächenbedarf betrifft.

Hawaii ist bei der DP-Leistung eh schon ungeschlagen, ich sehe keinen Grund sich hier nochmal selbst zu überbieten, schon gar nicht mit dem begrenzten VRAM durch HBM.

yamo
2015-06-01, 14:48:14
WENN Amd was hätte, würden sie es auch vermarkten bzw. leaken.
Fidji kommt als Dual GPU á 4gb HBM; der Rest ist Rebranding. Also nichts Neues.
Schaut auch mal auf den Fertigungsprozess.
Ich wünsche AMD ein starkes Produkt. Aber Hoffnung sieht anders aus.....

horn 12
2015-06-01, 14:53:38
Wartet, es ist noch früh morgens!
Rechne in 3 bis 4 Stunden sind wir etwas schlauer was AMD und Fiji anbelangt!

M4xw0lf
2015-06-01, 14:59:27
Ach horn.

MilesEdgeworth
2015-06-01, 15:04:37
@fondness: Wenn ich das richtig verstanden habe, dann findet eine Reduktion der DP-Leistung bei GCN rein auf Softwareseite statt. Von daher würde ein hypothetischer Fiji mit einem Verhältnis von 1:32 nicht weniger Transistoren benötigen als eine 1:2 Variante und wäre dementsprechend weder platzsparender noch sparsamer.

y33H@
2015-06-01, 15:06:06
Quelle: Nvidia.de"und weitere Links" :ulol:

Bei Quelle schreiben sie "Quelle": http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/35563-solar-impulse-2-musste-in-japan-zwischenlanden.html

dargo
2015-06-01, 15:08:31
Aha. Deswegen performt Maxwell mit gddr5 auch so kacke?!
Maxwell ist eine reine Gamingkarte. Ich weiß immer noch nicht genau was AMD mit Fiji vorhat? Die 640GB/s Bandbreite sind imo für Spiele unnötig.

fondness
2015-06-01, 15:13:39
@fondness: Wenn ich das richtig verstanden habe, dann findet eine Reduktion der DP-Leistung bei GCN rein auf Softwareseite statt. Von daher würde ein hypothetischer Fiji mit einem Verhältnis von 1:32 nicht weniger Transistoren benötigen als eine 1:2 Variante und wäre dementsprechend weder platzsparender noch sparsamer.

Für 1:2 DP benötigt man verdammt fette Multiplizieren, und MULs sind teuer in Hardware, das ist bestimmt keine reine Softwaresache. Die kleineren GPUs haben auch nur maximal 1:16 DP, selbst bei den FirePROs.

Dawn on Titan
2015-06-01, 15:16:56
Maxwell ist eine reine Gamingkarte. Ich weiß immer noch nicht genau was AMD mit Fiji vorhat? Die 640GB/s Bandbreite sind imo für Spiele unnötig.

Mit HBM1 ist aber immer die Frage was zuerst fest gelegt war. Die Bandbreite oder die VRAM Menge. :wink:

w0mbat
2015-06-01, 15:37:40
Krass, alle Featurelevel 3 während keine Karte bei NV mehr als 12_2 erreicht.

Sag ich schon seit ner Weile, das wird AMD intern auch so kommuniziert. Aber hier wollte es ja keiner Glauben...

Ja genau AMD hatte finale DX12 Spec's von 4 Jahren.:rolleyes: Maxwell ist weiter als der AMD Schrott von 2012.

Du verstehst es falsch. Die finalen DX12 specs werden von Microsoft festgelegt und die wollen DX12 vor allem nutzem um der XBOX ONE etwas einzuheizen. Das heiß, nicht AMD hat ihre Architektur and DX12 angepasst, DX12 wird an die GPU der X1 angepasst. Und das ist nunmal GCN.

DX12 wurde sozusagen für GCN gemacht.

M4xw0lf
2015-06-01, 15:42:35
DX12 wurde sozusagen für GCN gemacht.
Danke, diesen Eindruck habe ich schon lang.

Menace
2015-06-01, 15:59:01
Sag ich schon seit ner Weile, das wird AMD intern auch so kommuniziert.

Danke, dass Du immer wieder für Klarheit sorgst. :smile:

Locuza
2015-06-01, 16:01:36
AMD: Alle CGN-Karten DX12 Featurelevel 3 hardwarekompatibel

Ich hoffe so sehr, dieser Tier/Featurelevel 1-3 Mist hört mit dem offiziellen Release von DX12/W10 auf.


wenig überraschend, DX12 wird einfach das Featureset bieten, dass die XBOne anbieten kann, also GCN1.0. Man ist nur für NV und Intel ein paar kompromisse eingegangen.
Die Xbox One verwendet GCN1.1 (GCN Gen 2).

Und damit sollte dann wohl auch ziemlich klar sein, wer absolut KEIN interesse daran hatte/hat, das DX12 schnell auf den Markt kommt.... :rolleyes:
:rolleyes:

Weil man schon länger gehört hat, das nVidia auf die Bremse drückt, und MS wird bei ihrer API sehr genau hingeschaut haben, was ihre Hardware wir können müssen für die neue Konsole.
Seriöse Quelle, die du sicher nicht findest, dass man schon länger gehört hat, dass Nvidia auf die Bremse drückt?

Das GCN etwas nicht kann, was DX12 braucht, und nicht völlig problemlos auf den Konsolen emuliert werden kann, war auszuschließen.

DX12 bietet mehrere Feature-Levels und optionale Features an.
Entsprechend gibt es ausreichende Abstufungen.

Ein Effekt/what ever auf dem PC, der prinzipbedingt nicht auf der XBone umsetzbar ist, wäre eine Katastrophe.
Eine Handvoll, die sich bei FL12.1 und daneben finden lassen.

Was kann den irgend eine nVidia Architektur, was GCN nicht kann ;)

Bisher offiziell ROVs, Conservative Rasterization, Tiled Resources Tier 3 und noch eine ganze Menge an Zeug, was ich aber nicht direkt vs. GCN einordnen kann.


Und bei GCN gabs ja an der Architektur keine grundlegenden Änderungen. Was 1.0 nicht kann, können eigentlich auch alle anderen nicht, jetzt mal von irgendwelchen Media-Coding/Decoding Sachen, und dem Sound-Dingens da, dessen Name mir gerade nicht einfällt.
Es gibt schon Unterschiede, die bei GCN 1.0 leider dazu führen, nicht alles zu unterstützen.
Tiled Resources Tier 2 was für FL12.0 notwendig ist.

Bei OpenCL fehlen einige Fähigkeiten für 2.0 Support.

Sea Islands/ GCN Gen 2 / GCN 1.1 hat beim Speicher neue Goodies gebracht:
System unified addressing
Allows GPU access to process coherent address space.

Device unified addressing
Lets a kernel view LDS and video memory as a single addressable memory.
It also adds shader instructions, which provide access to “flat” memory
space.

Memory address watch
Lets a shader determine if a region of memory has been accessed

Support for unaligned memory accesses

Detection and reporting of violations in memory accesses

http://developer.amd.com/wordpress/media/2013/07/AMD_Sea_Islands_Instruction_Set_Architecture.pdf


EDIT
Was soll DX12_2 sein? Es gibt DX12 und es gibt D3D12_0 sowie D3D12_1. Conservative Raster hat mit DSR oder MFAA nichts zu tun und Volume Tiles Resources sind optional ... oh man.

Vielleicht ausreichende Entlassungsgründe? :P

Pick
2015-06-01, 16:03:34
1002-67C8, 1150MHz core freq, 8GB HBM
https://lh4.googleusercontent.com/-5NWAqiPRGt0/VWwbN8R4BXI/AAAAAAAALJs/62rqQEaLQ-g/w2178-h1225-no/desktop.jpg

http://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1302682&pid=29101917

M4xw0lf
2015-06-01, 16:05:18
1002-67C8, 1150MHz core freq, 8GB HBM
https://lh4.googleusercontent.com/-5NWAqiPRGt0/VWwbN8R4BXI/AAAAAAAALJs/62rqQEaLQ-g/w2178-h1225-no/desktop.jpg
So viel chinesisch - das MUSS wohl echt sein! :freak:

Unicous
2015-06-01, 16:07:00
@Pick

Probably fake. C67 is Hawaii and i guess that he simply shopped the HBM and Bandwidth.

I guess it's a 390X with 8GB (or 290X?).

Kartenlehrling
2015-06-01, 16:11:02
Bios 25.05.2015,
das ist aber wirklich mit der heißen Nadel gestrickt.

w0mbat
2015-06-01, 16:13:48
Umso unwahrscheinlicher wird es. Wenn das BIOS ein paar Wochen alt wäre, aber so...

mironicus
2015-06-01, 16:24:12
350 Watt TDP könnten so eine hohen Default-Clock aber ermöglichen. Ist wahrscheinlich auch nötig um Titan X klar zu schlagen und den hohen Preis zu rechtfertigen.

InsaneDruid
2015-06-01, 16:26:15
Und damit sollte dann wohl auch ziemlich klar sein, wer absolut KEIN interesse daran hatte/hat, das DX12 schnell auf den Markt kommt.... :rolleyes:

Weil NV nicht auch von DX12 profitiert und oh, schau an wer schon Treiber draußen hat...
http://blogs.nvidia.com/blog/2015/05/15/dx-12-game-ready-drivers/

fondness
2015-06-01, 16:27:58
Weil NV nicht auch von DX12 profitiert und oh, schau an wer schon Treiber draußen hat...
http://blogs.nvidia.com/blog/2015/05/15/dx-12-game-ready-drivers/

Als ob AMD keine DX12 Treiber "draußen hätte". Aber schön das Nvidia mal wieder ein Marktingstunt gelungen ist.

dargo
2015-06-01, 16:28:35
@Pick

Probably fake. C67 is Hawaii and i guess that he simply shopped the HBM and Bandwidth.

Und wie kommst du darauf? Mein Hawaii hat eine ID von 67B0.

Sunrise
2015-06-01, 16:28:56
Bios 25.05.2015,
das ist aber wirklich mit der heißen Nadel gestrickt.
27.05.2015, aber ja, das Ding kam gerade aus dem Ofen und riecht noch frisch.

Menace
2015-06-01, 16:29:09
@InsaneDruid: Hat mit dem Threadtitel jetzt genau was zu tun? Gehe im 980 Ti Thread die Werbetrommel rühren. :freak:

Blediator16
2015-06-01, 16:30:22
Weil NV nicht auch von DX12 profitiert und oh, schau an wer schon Treiber draußen hat...
http://blogs.nvidia.com/blog/2015/05/15/dx-12-game-ready-drivers/

Bei AMD gibts dafür einfach keine Sinnlose News, weil Win10 noch nicht draussen ist. Marketing at its best.

Unicous
2015-06-01, 16:35:35
Und wie kommst du darauf? Mein Hawaii hat eine ID von 67B0.

Wie komme ich auf was? Ich habe doch gerade gesagt das (C)67 die ID für Hawaii ist.

http://semiaccurate.com/assets/uploads/2013/06/Hawaii-300x227.png

Die 295X2 hat zum Beispiel eine C67B9 ID.

mironicus
2015-06-01, 16:35:40
Kurz vor Release werden immer Bios Updates verteilt, das sollte nicht misstrauisch machen.
Und die Geräte ID ist nicht automatisch Hawai.
Wichtig ist da wohl das "C".

Dural
2015-06-01, 16:38:17
es dürfte wohl einfach eine 390X sein

mironicus
2015-06-01, 16:41:16
Kommt Fiji so wie auf dem Screenshot (8 GB HBM, 1150 MHz, 640 GB/s) wird das Teil eine Bombe. Praktisch genau so wie die meisten es hier wollten. Und die wird/kann dann auch teurer sein als die 980 Ti. :)

dargo
2015-06-01, 16:42:14
Wie komme ich auf was? Ich habe doch gerade gesagt das (C)67 die ID für Hawaii ist.

http://semiaccurate.com/assets/uploads/2013/06/Hawaii-300x227.png

Im Bild oben steht 67C8, also kann es schon mal kein Hawaii sein wenn die Angaben stimmen. Zumindest nicht so wie wir ihn kennen, höchstens als Rebrand.

Nakai
2015-06-01, 16:42:42
Ich habs mal schnell durch Paint.Net durchgejagt und hier und da ein paar Spielereien gemacht. Ist wohln Fake. Bestimmte Einträge provozieren einige nette Artefakte.

Ergo würde ich ignorieren...

AngelDust 32
2015-06-01, 16:42:47
Meine Tahiti hat als Device ID: 6798

also würde ich mich nicht an der Zahl 67 aufhängen

Sunrise
2015-06-01, 16:44:22
Fiji hat C880 als Codenamen (siehe Zauba)

67C8 würde passen.

Ich sehe da jetzt auch keine bemerkbaren Fake-Retuschen.

Unicous
2015-06-01, 16:46:09
Und Tonga hat 6939.:wink: ( e: und C765, bzw. C784)

Meine Meinung nach ist es eine fortlaufende Nummer, die aber auch die Generation beinhaltet. Aber ich könnte auch falsch liegen.

AnarchX
2015-06-01, 16:59:06
Ein Fiji sollte eine 73xx Device ID haben: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10611769#post10611769

del_4901
2015-06-01, 16:59:26
Meine Fiji hat ne andere ID :uroll:

mironicus
2015-06-01, 17:01:10
Angesichts der Custom 980 Ti die eine Titan X locker überflügeln werden muss AMD selbst auch hohe Taktraten bieten um da mitzuhalten. Da könnte AMD noch die Taktraten durch Biosupdates ändern.

Unicous
2015-06-01, 17:01:15
Meine Fiji hat ne andere ID :uroll:

:uban:

dargo
2015-06-01, 17:07:46
Meine Fiji hat ne andere ID :uroll:
Engineering sample? :devil:

Sunrise
2015-06-01, 17:17:18
Ein Fiji sollte eine 73xx Device ID haben: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10611769#post10611769
Stimmt, da war was.

HOT
2015-06-01, 19:39:57
[...]
Die Xbox One verwendet GCN1.1 (GCN Gen 2).
[...]
Hm, glaub ich nicht. Das Teil wird CapVerde/Pitcairn/Oland-Technologielevel verwenden, nen Trueaudio-DSP gibts ja AFAIK auch nicht.

blaidd
2015-06-01, 19:49:58
Hm, glaub ich nicht. Das Teil wird CapVerde/Pitcairn/Oland-Technologielevel verwenden, nen Trueaudio-DSP gibts ja AFAIK auch nicht.
Die Xbox One hat sogar 4 "True-Audio"-Chips... einer davon ist angeblich für die Spracherkennung von Kinect zuständig. Was der Rest davon treibt, weiß ich nicht genauso wenig wie ich weiß, was die 3 der PS4 so machen... aber ich bin auch kein Konsolen-Typ... wäre aber mal eine interessante Info: Kommen die DSPs in irgendeinem Spiel zum Einsatz?

Die GPU ist meines Wissens auf GCN-1.1-Stand. Aber wie gesagt, ich bin kein Konsolen-Typ und kann mich da durchaus irren. ;)

Locuza
2015-06-01, 19:50:22
GCN Sea Islands / GCN 1.1 / GCN Gen 2 / GCN IP v7.

Das ist in den Konsolen verbaut.

Quelle: Eurogamer Interview mit Xbox Architekten.
8 queues per ACE.

fondness
2015-06-01, 19:51:49
AMD gibt bei Carrizo DX12 level 12 an, was auch immer das bedeuten soll:

http://s9.postimg.org/nr436p4nz/AMD_Carrizo_APU_GCN_Overview.jpg (http://postimage.org/)

w0mbat
2015-06-01, 19:57:08
Das ist quasi schon fast DX13 ;)

Unicous
2015-06-01, 20:00:07
Eher 12_0. Du kannst uns natürlich gerne eines Besseren belehren.;)

blaidd
2015-06-01, 20:01:05
Tier 12.1, 12.2? oder vielleicht ja wirklich Tier 12.12. :freak: Weil wir noch mehr Bullshit brauchen. In dem Tier ist noch eine präzise Eieruhr mit dabei.

Ich schätze mal, das ist einfach Direct X (level) 12...

Wer hat sich eigentlich den Crap mit den Tiers zusätzlich zu den Feature-Leveln ausgedacht?

w0mbat
2015-06-01, 20:01:59
Eher 12_0. Du kannst uns natürlich gerne eines Besseren belehren.;)

NEIN! Dast ist ganz klar schon fast DX13!!!!

Timbaloo
2015-06-01, 20:03:18
DirextX Drölf. Ihr Anfänger.

Locuza
2015-06-01, 20:04:06
Wer hat sich eigentlich den Crap mit den Tiers zusätzlich zu den Feature-Leveln ausgedacht?
Vielleicht gibt es hier einfach ein Interessenkonflikt.
Anstatt wirklich alles mögliche verpflichtend zu machen und gewisse Hardware und Möglichkeiten auszuschließen, wird ein Mix aus Feature-Level + optional Features/Tiers verwendet, um grob die Mitte zu finden.

NEIN! Dast ist ganz klar schon fast DX13!!!!
:uban:

Unicous
2015-06-01, 20:04:12
NEIN! Dast ist ganz klar schon fast DX13!!!!

Not sure if...

w0mbat
2015-06-01, 20:05:41
Not sure if...

If what?

U w0t m8? :freak:

Unicous
2015-06-01, 20:06:44
...Post +1 or just trolling.



+1 Post.

w0mbat
2015-06-01, 20:10:05
Ne, ich interpretiere das auch einfach als Aussage, dass Carrizo vollen DX12 kann und nicht "fake", à la "DX12 FL11_3" oder dergleichen. Ob es DX12 FL12_0, 12_1, 12_3 oder 12_12 ist weiß ich nicht.

Unicous
2015-06-01, 20:13:06
Ja, Carrizo supported DX12 voll. Also auf jeden Fall schon mal vollumfänglich 12_0.

Aber ich dachte du wüsstest es längst. Warum rätselt du dann noch rum?:confused:


Edit:
Erkläre mir doch warum AMD die ganze Zeit um den heißen Brei rumläuft während Nvidia sich mit 12_1 brüstet.

Tamagothi
2015-06-01, 20:35:09
Carrizo ist glaub ich der falsche Thread hier :cool:

So und Jetzt zu meiner eigentlichen Frage:

Viele sagen das Hawaii nicht an Bandbreite mangelt. Warum bekomme ich dann bei Furmark ( ja ich weiß ) fast 8% mehr fps raus wenn ich den Speicher von 1250 MHz auf 1500 MHz übertakte 320->384 GB/s ???

Mann kann es Natürlich nicht 100% auf Spiele-Benchmarks übertragen aber 640 GB/s sollten und werden gut reinhauen.

Milchmädchen Rechnung : 100*1,4*1,45= 203% ;D;D;D

Und die 4GB HBM Sache. Wer denkt mit Fiji 4K spielen zu können sollte denke ich aufwachen. Für mehr als 1440p/1600p wird Fiji nicht langen genau so wie die TitanX

Dawn on Titan
2015-06-01, 20:35:48
Ob Fiji dann auch schon DX13 supported?

[MK2]Mythos
2015-06-01, 20:38:17
Mindestens.

Kriegsgeier
2015-06-01, 20:47:09
echt? Na dann ist doch super! Für alle Zeiten versorgt!

Habe mir nämlich eine FiJi in 8 Gb Ausführung vorbestellt! Preisungeachtet, da noch nicht bekannt!

Denn die Dinger sollten wie warme Semmel weggehen - so munkelt man!

Ailuros
2015-06-01, 20:58:45
...Post +1 or just trolling.



+1 Post.

Darf ich auch spielen? :freak:

http://semiaccurate.com/2015/05/31/nvidia-finally-outs-the-980ti/

blah blah blah bullshit bullshit bullshit blah blah blah....In short TSMC’s 16nm process is a mess, don’t expect more than tapeouts this year, and Fiji seems to be a bit downgraded from what we heard. Both sides are a mess. blah blah blah :tongue:

Spasstiger
2015-06-01, 21:03:02
Wenn die Fury (Single GPU) wirklich mit 640 GB/s Speicherbandbreite und identischem Chiptakt zur R9 290X kommt, dürfte es meiner Überschlagsrechnung nach für ein Kopf-an-Kopf-Rennen mit 980 Ti und der TitanX reichen. Aber wohl zu dem Preis der obligatorischen WaKü und einer rekordverdächtigen Abwärme. 375 Watt TDP @ Single-GPU, wir kommen. :freak:

Botcruscher
2015-06-01, 21:11:17
Darf ich auch spielen? :freak:

Das tut ja weh.

Ailuros
2015-06-01, 21:11:42
Wenn die Fury (Single GPU) wirklich mit 640 GB/s Speicherbandbreite und identischem Chiptakt zur R9 290X kommt, dürfte es meiner Überschlagsrechnung nach für ein Kopf-an-Kopf-Rennen mit 980 Ti und der TitanX reichen. Aber wohl zu dem Preis der obligatorischen WaKü und einer rekordverdächtigen Abwärme. 375 Watt TDP @ Single-GPU, wir kommen. :freak:

Wobei wohl nach wie vor der springende Punkt bleibt wieso sich der durchschnittliche gamer sich wirklich so etwas antuen sollte und verrueckte Wucherpreise bezahlen, egal auf welcher Seite. Es ist eben NICHT so dass man heute mit einer 970 oder 290 schlecht bedient ist, eher das Gegenteil.

Menace
2015-06-01, 21:16:35
Stimmt, solange die Effizienz (Lärm bzw. Stromverbrauch) nicht besser wird (meine persönliche Ansicht).

Schnoesel
2015-06-01, 21:29:59
Weil GTX 970 und R9 290X für meine 1440p zu langsam sind :cool: .. mittlerweile ... aber hat gut durchgehalten die 1 1/2 Jahre.

aufkrawall
2015-06-01, 21:32:12
Gut, dass eine übertaktete 980 gerne mal 40% schneller ist.
Hawaii ist wirklich zu langsam. Eigentlich war er das damals schon bei BF4 gegen eine übertaktete 780 Ti.

Blediator16
2015-06-01, 21:38:23
Ich schätze mal AMD hat den Fixer eingepackt und Kung Fury dafür von der Leine gelassen :freak:

fondness
2015-06-01, 21:39:22
Gut, dass eine übertaktete 980 gerne mal 40% schneller ist.


Vielleicht findest du ja noch irgend ein Frame wo es sogar 50% sind.

aufkrawall
2015-06-01, 21:43:31
Du kennst ja meine Schätzung für den Vehicle Zoom sicherlich noch. :freak:
Und das mit eigener API, die mit dem Entwickler des besagten Spiels auch noch zusammen entwickelt wurde. Da kann man einfach nicht genug drauf rumreiten, nehmts mir nicht übel. :cool:

Schnoesel
2015-06-01, 21:49:57
Ne sorry aber von ner Hawaii auf GTX 980 umsteigen die paar % Mehrleistung? Hab ich nen Geldscheißer? Unter 50% + wollte ich nicht aufrüsten und deine 40% + sind es eben nur in sehr ausgewählten Szenen.

Wenn Fiji Fury oder Fiffi oder wie auch immer nicht ordentlich was drauf packt muss ich mich eben anderweitig umschauen... Der Preis spielt natürlich auch immer eine Rolle.

fondness
2015-06-01, 21:49:58
Die-Pic:

http://s27.postimg.org/mmmkjj9ar/11292776_715509701905836_384015936_n.jpg (http://postimage.org/)

http://wccftech.com/exclusive-amd-radeon-fury-fiji-gpu-die-pictured/

dargo
2015-06-01, 21:51:47
Du kennst ja meine Schätzung für den Vehicle Zoom sicherlich noch. :freak:

Und was hat ein Infanterist davon? :devil:

MR2
2015-06-01, 21:54:50
Sauber machen wäre keine schlechte Idee gewesen ;-)
Sieht mir genau nach ähm 567mm2 aus.

Nightspider
2015-06-01, 21:56:59
Die-Pic:

http://s27.postimg.org/mmmkjj9ar/11292776_715509701905836_384015936_n.jpg (http://postimage.org/)

http://wccftech.com/exclusive-amd-radeon-fury-fiji-gpu-die-pictured/

So ungefähr?

http://abload.de/img/fijio7r1t.jpg

Botcruscher
2015-06-01, 21:57:16
Der HBM ist ja gut sichtbar. Da kann man ja die Größe des Chips schätzen.

fondness
2015-06-01, 21:57:50
Chipgröße um die 550mm² 534mm² laut meinem Schnlltest. :ugly:

So ungefähr?

http://abload.de/img/fijio7r1t.jpg

Ja, das Ding dürfte dem ziemlich nahe kommen:

http://s16.postimg.org/xohtkvtl1/AMD_Fiji_Graphics_Processors.jpg (http://postimage.org/)

Schnoesel
2015-06-01, 21:59:05
Ohje in Wärmeleitpaste ertränkt.

gedi
2015-06-01, 22:01:21
Gut, dass eine übertaktete 980 gerne mal 40% schneller ist.
Hawaii ist wirklich zu langsam. Eigentlich war er das damals schon bei BF4 gegen eine übertaktete 780 Ti.

Was deine Übertaktungserfolge angeht erfahre ich immer zu aufs Neue in pcars.

M4xw0lf
2015-06-01, 22:06:07
Die-Pic:

http://s27.postimg.org/mmmkjj9ar/11292776_715509701905836_384015936_n.jpg (http://postimage.org/)

http://wccftech.com/exclusive-amd-radeon-fury-fiji-gpu-die-pictured/
4 Stacks. Wenn das mehr als 4GB sind, friert vermutlich auch morgen die Hölle zu...

basix
2015-06-01, 22:06:23
Ohje in Wärmeleitpaste ertränkt.

So wie es aussieht scheinen die HBM-Stacks etwas weniger hoch zu sein als die GPU. Wenn man also keine Pads auf den HBM draufkleben kann / will dann halt ein wenig mehr Paste ;)

Isen
2015-06-01, 22:10:29
dann halt ein wenig mehr Paste ;)

Und als nächstes Bob spielen und darüber Philosophieren wie man Paste am besten stapelt ;D

dargo
2015-06-01, 22:13:44
So wie es aussieht scheinen die HBM-Stacks etwas weniger hoch zu sein als die GPU. Wenn man also keine Pads auf den HBM draufkleben kann / will dann halt ein wenig mehr Paste ;)
Mich wunderts eigentlich etwas, dass zwei der Stacks so sauber sind. Als ob die gar keinen Kontakt zum Kühler hätten. :confused:

MR2
2015-06-01, 22:15:10
Mich wunderts eigentlich etwas, dass zwei der Stacks so sauber sind. Als ob die gar keinen Kontakt zum Kühler hätten. :confused:

Sauber? Die sind gestrichen voll...

fondness
2015-06-01, 22:15:35
Auf jeden Fall ist das Ding deutlich kleiner als GM200. Ich denke nicht das man Herstellerangabe viel über 500mm² kommt. Messen tut man ja meist etwas mehr.

dargo
2015-06-01, 22:16:55
Sauber? Die sind gestrichen voll...
Sauber in Form von keiner Berührung mit Kühler. Noch nie einen Kühler demontiert und gesehen wie die Fläche aussieht? Das siehst du auch im Bild am Die.

basix
2015-06-01, 22:20:08
Mich wunderts eigentlich etwas, dass zwei der Stacks so sauber sind. Als ob die gar keinen Kontakt zum Kühler hätten. :confused:

Ja habe ich auch gesehen. Evtl. Zufall aber wäre nicht so optimal. Rein von der Erwärmung spielt es meiner Meinung nach für den HBM nicht so eine grosse Rolle, wie gut die HBMs am Kühler anliegen, da via Interposer und GPU die Wärme sicher gut abgeleitet werden kann. Aber wenn die HBMs auch mitkühlen, wäre die Kühlfäche um einiges grösser.

Nightspider
2015-06-01, 22:20:35
Auf jeden Fall ist das Ding deutlich kleiner als GM200. Ich denke nicht das man Herstellerangabe viel über 500mm² kommt. Messen tut man ja meist etwas mehr.

Viel? Naja...das ist wohl relativ.

Dafür wurde aber auch Fläche durch HBM gespart. Effektiv ist man da vllt auch nicht kleiner als GM200.

MR2
2015-06-01, 22:24:48
Sauber in Form von keiner Berührung mit Kühler. Noch nie einen Kühler demontiert und gesehen wie die Fläche aussieht? Das siehst du auch im Bild am Die.
1000 mal...
Sieht für mich eher aus wie erst den Kühler leicht nach oben geschoben, deshalb die unteren 2 so glatt und dann abgehoben.
Aber über was unterhalten wir uns eigentlich. WLP von Fiji :biggrin:

Spasstiger
2015-06-01, 22:27:14
Eigentlich wäre da auch Platz für 6 Stacks. Und mit 6 GiB wäre es nicht so ein großes "marketing problem". :wink:

Agent117
2015-06-01, 22:32:31
Das ginge aber nur wenn Fiji auch ein 6144 Bit SI hat. Er hat aber wohl nur 4096 Bit.
Man könnte auch 6 Stacks an 3072 Bit heften und den Rest vom Speichercontroller deaktivieren, vorrausgesetzt es gibt weiterhin die gleichen Crossbars wie im Backend von Hawaii und Tahiti.
Dann hätte man aber auch nur die halbe Bandbreite, wäre also auf Hawaii Niveau.

Megatron
2015-06-01, 22:58:58
Das ginge aber nur wenn Fiji auch ein 6144 Bit SI hat. Er hat aber wohl nur 4096 Bit.
Man könnte auch 6 Stacks an 3072 Bit heften und den Rest vom Speichercontroller deaktivieren, vorrausgesetzt es gibt weiterhin die gleichen Crossbars wie im Backend von Hawaii und Tahiti.
Dann hätte man aber auch nur die halbe Bandbreite, wäre also auf Hawaii Niveau.
Du meinst also "the nvidia way"? Wobei dann wären wohl im Rahmen des aktuellen Designs 2GB schnell und die anderen 4GB mit halber Bandbreite angebunden. :freak:
Am Wahrscheinlichsten dürften wohl wirklich jetzt 4GB und 8GB dann zum Ende des Jahres sein. So hat man dann auch wieder 2 Ausbaustufen ein- und desselben Grafikchips.

Tamagothi
2015-06-01, 23:04:39
Wie hoch ist eigentlich so ein HBM Stack 5x7x?

Könnte es nicht sein das zwei Stacks übereinander liegen?

Wenn ich mir so eine micro SD karte anschauen könnten zwei übereinander die dicke eine GPU ergäben.

aufkrawall
2015-06-01, 23:10:04
Was deine Übertaktungserfolge angeht erfahre ich immer zu aufs Neue in pcars.
Ich übertakte heimlich mit böser Absicht deine GPU zu weit, oder was möchtest du mitteilen?

Agent117
2015-06-01, 23:25:23
Du meinst also "the nvidia way"? Wobei dann wären wohl im Rahmen des aktuellen Designs 2GB schnell und die anderen 4GB mit halber Bandbreite angebunden. :freak:
Am Wahrscheinlichsten dürften wohl wirklich jetzt 4GB und 8GB dann zum Ende des Jahres sein. So hat man dann auch wieder 2 Ausbaustufen ein- und desselben Grafikchips.

Ne bloß nicht "the nvidia way". Der Nvidia Way ist mit das bescheuertste was es gibt. Ich weiß auch garnicht ob es mit AMDs GPUs überhaupt machbar wäre den Speicherbereich so zu trennen.

Ich meinte, dass Fiji weiterhin alle ROPs hat, aber vom Speichercontrolller nur 3072 Bit aktiviert sind. Das möglich, weil dazwischen eine Crossbar sitzt.
Jeder Stack wäre dann mit 512 Bit statt mit 1024 Bit bei 4Gb angebunden.

So etwas werden wir aber garantiert nicht sehen.

drkohler
2015-06-02, 00:28:04
Wie hoch ist eigentlich so ein HBM Stack 5x7x?
Könnte es nicht sein das zwei Stacks übereinander liegen?
Könnte schon, aber die Tatsache, dass die Karte (zumindest vorerst) nur mit 4GB kommt, deutet doch an, dass die Yields wahrscheinlich saumässig sind für 9-Layer HBMs.

Flusher
2015-06-02, 00:29:58
Die-Pic:

http://s27.postimg.org/mmmkjj9ar/11292776_715509701905836_384015936_n.jpg (http://postimage.org/)

http://wccftech.com/exclusive-amd-radeon-fury-fiji-gpu-die-pictured/

Also sorry aber das kann ja alles mögliche sein. Ich kann auch meinen Hawaii mit Wärmeleitpaste zukleistern und drum herum 4 PEZ Bonbons legen und hätte ein ähnliches Ergebnis. :freak:

maguumo
2015-06-02, 01:50:49
Könnte schon, aber die Tatsache, dass die Karte (zumindest vorerst) nur mit 4GB kommt, deutet doch an, dass die Yields wahrscheinlich saumässig sind für 9-Layer HBMs.

Woher weißt du denn das?

Loeschzwerg
2015-06-02, 06:38:42
Also sorry aber das kann ja alles mögliche sein. Ich kann auch meinen Hawaii mit Wärmeleitpaste zukleistern und drum herum 4 PEZ Bonbons legen und hätte ein ähnliches Ergebnis. :freak:

Die Idee mit dem PEZ Bonbons wäre ja schon irgendwo originell ;D

Dawn on Titan
2015-06-02, 07:43:56
Und dazu einfahc ne website aufmachen die "lessthan5percentaccurate.com" heißt und schon bis Du eine Quelle.

y33H@
2015-06-02, 08:08:48
Bisheriges Summary aus mehreren Quellen vor Ort, Karte mit wie ohne Kühler ohne WLP in der Hand gehabt: Fiji XT aka "Radeon Fury X", ca 520-550 mm², 1+ GHz, 2x 8P, 3x DP, 1x HDMI 2.0, 4 Stacks, 4 GByte, Performance leicht unter Titan X bzw Ti, Preis TBD

Timbaloo
2015-06-02, 08:20:58
Hmmm, ok. Zum Verbrauch gibts nichts zu spoilern?

Schaffe89
2015-06-02, 08:24:18
Schwache Leistung, ich hätte die Karte mindestens auf TitanX Niveau erwartet.
Wenn die Karte dann auch noch über 300 Watt zieht, dann wird AMD keine Marktanteile erobern können, sondern eher verlieren.

Der Rebrand der r9 290x ist ja auch nichts halbes und nix ganzes.

y33H@
2015-06-02, 08:24:39
Unter 300W bzw Hawaii Level sagte AMD im HBM Call.

Dawn on Titan
2015-06-02, 08:28:26
Schwache Leistung, ich hätte die Karte mindestens auf TitanX Niveau erwartet.
Wenn die Karte dann auch noch über 300 Watt zieht, dann wird AMD keine Marktanteile erobern können, sondern eher verlieren.

Der Rebrand der r9 290x ist ja auch nichts halbes und nix ganzes.

250-285W. Wenn man 4GB + HBM + Wakü bedenkt ist das immer noch schlechter als Maxwell.

Timbaloo
2015-06-02, 08:30:49
@y33H@: Danke dir. Also hätte man mittels HBM in Sachen Perf und Perf/W ~aufgeschlossen auf GM200. Gleichzeitig kann man sehr kompakte High-End-Karten anbieten. Jetzt nicht berauschend, aber auch nicht schlecht. Eine Cash-Cow sieht aber anders aus.

horn 12
2015-06-02, 08:32:41
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35572-amd-fiji-alias-fury-x-langsamer-als-geforce-gtx-980-ti.html

r3ptil3
2015-06-02, 08:35:55
Klingt doch gar nicht so schlecht für eine SingleGPU wenn auch der Preis passt, aber ich nehme an, dass da noch ein Topmodell mit DualGPU kommt oder nicht?

Edit: Klingt doch nicht so gut was ich aus Hwluxx rauslese. 850$ waren geplant für sie Fiji und Nvidia bringt die 980 TI für 650$.

Thunder99
2015-06-02, 08:38:47
(Leider) wie zu erwarten. GNC muss grundlegend erweitert bzw optimiert werden damit es die Effizienz von Maxwell erreicht, auch bezogen auf was sie aus den ALU raus holen.

Vermutlich daher keine schlechte Karte aber kein TX Killer :)

Dawn on Titan
2015-06-02, 08:44:12
Auch einige Angaben zur Performance wurden gemacht. So soll die Radeon Fury X langsamer als die GeForce GTX 980 Ti sein. Derzeit soll AMD noch versuchen, über höhere Taktraten und Anpassungen am Treiber die Performance zu optimieren. Gerade die Leistung in Abhängigkeit zur Leistungsaufnahme dürfte damit ein kritischer Punkt für "Fiji" werden.

Wetten, dass AMD es da wieder verkackt. Man wird bestimmt wieder an Takt und Spannung drehen um den Abstand zur Titan X zu minimieren und nimmt dann dafür 300W+ in Kauf.

Wieder ein Normalmodus und dann Ueber...

r3ptil3
2015-06-02, 08:46:13
Wetten, dass AMD es da wieder verkackt. Man wird bestimmt wieder an Takt und Spannung drehen um den Abstand zur Titan X zu minimieren und nimmt dann dafür 300W+ in Kauf.

Wieder ein Normalmodus und dann Ueber...

Das würde auch die Version ohne BIOS erklären.

Godmode
2015-06-02, 08:50:44
(Leider) wie zu erwarten. GNC muss grundlegend erweitert bzw optimiert werden damit es die Effizienz von Maxwell erreicht, auch bezogen auf was sie aus den ALU raus holen.

Vermutlich daher keine schlechte Karte aber kein TX Killer :)

Das einzige was jetzt noch interessant wäre, ist die Übertaktbarkeit.

Vom Marketing her wird es für AMD wieder sehr schwierig werden. 4 GB vs 6 GB wird das einzige sein, was bei den Kunden hängen bleibt.

Schaffe89
2015-06-02, 08:51:03
Wieso bringt AMD die Karte nicht zwischen GTX 980 und GTX 980 Ti/TitanX, sondern presst wieder alles heraus und bekommt negative Presse wegen dem ausufernden Stromverbrauch?

Man hätte es bei dir r9 290x auch deutlich besser machen können, aber man ist wohl Unfähig Produkte richtig zu vermarkten und denen Feinschliff zu geben.

Man kann die Karte immernoch für 600 bis 700 Dollar verkaufen.

Zudem ist die Karte wieder nur 520mm² groß, damit wird man schwerlich einen 600mm² Chip schlagen können.
Würde AMD mal wirklich an die Grenze gehen, dann würde man auch schneller sein wie NVidia, so aber nicht.

chetigol
2015-06-02, 08:51:20
und wieder kein Grund für NVidia ihre Preispolitik zu ändern

Kriton
2015-06-02, 08:51:25
Abwarten. Ohne Bios und Treiber sind Performancefragen nur schwer abschließend zu klären.

Grestorn
2015-06-02, 08:53:17
Sehr schade finde ich. Ich hatte wirklich auf einen Befreiungsschlag gehofft. War vielleicht unrealistisch.

Die Leistung ist an sich ok, aber angesichts der anvisierten Stromaufnahme (Empfehlung eines 700W Netzteils, zweier 8-Pol Anschlüsse und der WaKü) fürchte ich, dass die Karte unverhältnismäßig viel Leistung verbrät. Und selbst wenn sie einen attraktiven Preisrahmen anvisieren wird (nVidia lässt ja recht viel Raum) wird sie so sicher auf nicht allzuviel Gegenliebe stoßen.

Das Problem damit ist, dass nVidia dadurch weiter die Grafikkartenpreise ungestört bestimmen kann und wenig Druck hat, ihre eigenen Produkte zu verbessern. Keine schöne Situation.

Pirx
2015-06-02, 08:54:55
(Leider) wie zu erwarten. GNC muss grundlegend erweitert bzw optimiert werden damit es die Effizienz von Maxwell erreicht, auch bezogen auf was sie aus den ALU raus holen.
...
Man muß die Gesamtheit der Eigenschaften sehen, sowas ist doch eine Nullaussage.

r3ptil3
2015-06-02, 08:55:55
Wenigstens siehts noch nicht so aus wie auf dem CPU-Markt. Ein halbwegs konkurrenzfähiges Produkt ist immer noch besser als gar keins.

chetigol
2015-06-02, 08:56:58
Man muß die Gesamtheit der Eigenschaften sehen, sowas ist doch eine Nullaussage.

Die wären nach derzeitegem Spekulationsstand:
- 4GB
- 300Watt
- Wakü
- lanksamer
- anvisierter Preis 850$ (sicher nicht merh aktuell)

Elite_Warrior
2015-06-02, 09:03:09
Es wurde doch all die Monate still und heimlich am Treiber gearbeitet. Könnte man mit diesem dennoch zur 980ti aufschließen?

Aber da Fiji wohl nur mit 4GB erscheint kommt für mich zumindest vorerst nur die Pro Variante in betracht, auch des Preises wegen.

chetigol
2015-06-02, 09:04:44
Auch wenn sie zur 980Ti auschliessen sollten. Bleibt für mich auf der negativen seite, 4GB, Wakü und der Mehrverbrauch - da müssten sie schon ordentlich mit dem Preis unter der 980Ti bleiben

Kriton
2015-06-02, 09:05:57
Ich bin ja echt fasziniert, wie alle 300W kennen (2 8-polige Stecker können auch für´s OC sein) und zudem ignorieren, dass es (wieder) einen Bios-Schalter gibt. Nicht dass Su auch was anderes gesagt hätte...
Und ´ne WaKü ist natürlich auch ganz böse.

chetigol
2015-06-02, 09:09:55
Ich bin ja echt fasziniert, wie alle 300W kennen (2 8-polige Stecker können auch für´s OC sein) und zudem ignorieren, dass es (wieder) einen Bios-Schalter gibt. Nicht dass Su auch was anderes gesagt hätte...
Und ´ne WaKü ist natürlich auch ganz böse.

Es sagt keiner, dass Wakü ganz böse ist, aber wenn die Wakü dazu verwendet wird um das letzte an Performance aus der Karte zu bekommen um mit der Leistung gleichzuziehen, dann sit sie für mich auf der negativen Seite einzuordnen, wenn ich sie mit der 980Ti vergleiche!