PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Sunrise
2015-04-08, 16:17:57
Ich glaube, immer mehr, dass die Folien Fake sind. Irgendjemand hat Videocardz was gesteckt und diese haben ihre eigenen Folien erstellt bzw. jemand hat aufgrund von halbgaren Infos diese Folien generiert.
Was sind bei dir denn halbgare Infos auf den Folien, wenn du mal "Dual-Link" für dich weglässt? Was soll da nicht stimmen?

Die TFLOPS kommen gut hin, wenn ich mich nicht verrechnet habe (hatte ja sogar eine Performance-Hochrechnung gepostet, auch wenn die mit Vorsicht zu genießen ist, weil die Skalierung dafür wirklich perfekt sein muss), die Marketing-Angaben passen perfekt. Was ist dort denn deiner Meinung nach so unpassend, dass du daran so stark zweifelst?

Und jetzt bitte nicht Rechtschreibfehler nennen, die hatte AMD in den vergangenen Jahren auf offiziellen Infos zu Genüge, das gehört bei AMD fast schon dazu. Das Marketing hat eben oft keine Rückmeldung zur Technik, die die Begriffe scheinbar nicht gegenprüfen.

Es ist ja OK, wenn man nicht alles glaubst, ich bin da auch etwas Paranoid. Aber bei dieser extrem gut gemachten und realistischen Präsentation stimmt für mich einfach alles.

Nakai
2015-04-08, 16:21:53
Was sind bei dir denn halbgare Infos auf den Folien, wenn du mal "Dual-Link" für dich weglässt? Was soll da nicht stimmen?

Die TFLOPS kommen gut hin, wenn ich mich nicht verrechnet habe (hatte ja sogar eine Performance-Hochrechnung gepostet, auch wenn die mit Vorsicht zu genießen ist, weil die Skalierung dafür wirklich perfekt ein muss), die Marketing-Angaben passen perfekt. Was ist dort denn deiner Meinung nach so unpassend, dass du daran so stark zweifelst?

Hätte ich Zeit könnte ich auch solche Folien generieren. Einige geleakten Folien oder irgendwelche Leaks gingen auch auf meine Kappe und einiger anderer Leute hier in diesem Forum. Die Specs auf den Folien und sonstigen Daten kann man sich auch aus den Fingern saugen bzw. waren schon vorher bekannt.

Unicous
2015-04-08, 16:23:19
SK hynix hat für HBM1 nie von 8Hi Stacks gesprochen, ich sehe das als "hypothetischen Stack" um einen Vergleichswert zu HBM2 zu haben und dann sagen zu können, wir verdoppeln das Ganze mit HBM2.

de facto gibt es bis heute keinerlei Hinweise auf höhere Kapazitäten. Weder durch DRAM-Riegel mit höherer Kapazität noch durch einen doppelt so hohen Stack.

AMD könnte hier eine Extra-Wurst bekommen haben, wissen tun wir es nicht. Die Extra-Wurst könnte auch Dual-Link heißen, weil SK hynix es sonst nicht anbietet und auf "HBM2" wartet, bzw. kleinere Fertigungsgrößen.


@Sunrise

Genau. Die Folien sind plausibel. Wenn sie fake sind, sind sie sehr gut gemacht. Und das gibt es bei fakes, sehr sehr selten. Meist sind es Idioten die sich einen Scherz erlauben wollen, aber keine Ahnung von nichts haben.

Edit:

@Nakai

Ja, wenn du Zeit hättest, könntest du dir das auch aus den Fingern saugen. Tolle Sache. Das macht man aber nicht in ein paar Stunden. Da ist schon ordentlich Arbeit reingeflossen.

Nakai
2015-04-08, 16:28:24
SK hynix hat für HBM1 nie von 8Hi Stacks gesprochen, ich sehe das als "hypothetischen Stack" um einen Vergleichswert zu HBM2 zu haben und dann sagen zu können, wir verdoppeln das Ganze mit HBM2.


Das mag sein, bzw. das erwarte ich auch. 8Hi-Stacks sehen wir erst mit HBM2. Ich sprach von dem "4-Hi HBM1 16Gb" was eben 2GB pro Stack sind.

http://www.skhynix.com/gl/products/graphics/graphics_info.jsp

Auf der Original Seite kann man noch "4-Hi HBM 8GB" entziffern. Also könnte da doch mehr kommen.

Sunrise
2015-04-08, 16:28:55
Hätte ich Zeit könnte ich auch solche Folien generieren. Einige geleakten Folien oder irgendwelche Leaks gingen auch auf meine Kappe und einiger anderer Leute hier in diesem Forum. Die Specs auf den Folien und sonstigen Daten kann man sich auch aus den Fingern saugen bzw. waren schon vorher bekannt.
Aber sicher nicht videocardz, vor allem weil die öfter schon solche handfesten Leaks zuerst gebracht haben (siehe Titan X). Und die selbst gebastelten Folien sind auch optisch quasi nie in dieser Form, die extrem authentisch wirkt.

Die optische Aufmachung passt mir einfach zu gut, dafür müssten schon ein paar Leute hier zusammenarbeiten. Jemand der die technischen Daten alle kennt und einer, der sich einigermaßen mit Layouting auskennt.

Das traue ich nur den wenigsten zu, schon garnicht irgendwelchen News-Seiten. Und auch das Timing ist extrem gut, 3 Monate vor der Vorstellung. Da passt einfach alles. Das wäre wohl der beste Fake, den ich je gesehen habe.

Da schlägt mein Fake-Meter einfach nicht an.

Kriton
2015-04-08, 16:29:53
Das hatten u.a. Gipsel und ich ja als eine Variante angenommen. Aber laut w0mbat ist es ja alles fake. Von daher.:sneak:

Ich finde seine Posts recht eindeutig. Er weiß mehr, darf aber nichts sagen (deswegen kann er auch Deinen geforderten Beweis nicht liefern). Lies noch mal seinen 1. Post zu dem Thema, da wird das zwischen den Zeilen deutlich.

Nakai
2015-04-08, 16:31:29
Kein Fake?
So wie das?

http://www.3dcenter.org/blog/leonidas/die-leichtglaeubigkeit-gegenueber-praesentationsfolien

Glaubt nicht alles.

Unicous
2015-04-08, 16:32:26
@Nakai

:freak:

Das ist doch der gleiche Schmu von oben nur ohne "HBM2" und "nur" tech shrink. Also ein Schaubild, dass das Gleiche aussagt nur mit nicht so tollen Zahlen.

Warum interpretiert ihr das so viel rein. Es ist doch nur Marketing.


Nutzt du gerade wirklich einen äußerst schlechten fake von Leonidas als Rechtfertigung? Finde ich jetzt ein wenig peinlich. Nur weil man ein paar Zahlen austauscht und das Bild blurred ist das doch kein geiler und plausibler fake?


@Kriton

Er hatte damals übrigens auch mal gesagt, er könnte sich irren. ;)
Wenn ich es nicht 100% weiß bzw. nachweisen kann, stelle ich keine 100% Tatsachenbehauptung auf. Das schickt sich nicht. Wenn er recht hat, kann er mir das gerne ums Maul schmieren. Aber es interessiert mich nicht, solange es dafür keinerlei plausible Begründung gibt. Dass das ganze fake sein könnte, davon ist doch hier so gut wie jeder überzeugt.

Kriton
2015-04-08, 16:35:36
Die HBM-Module sind winzig und können problemlos passiv gekühlt werden, warum machst du dir über die Größe jetzt Gedanken? Das ist doch vollkommen nebensächlich, wenn die Kühlung eine entsprechende Aussparung hat.


Sind sie?

http://www.fudzilla.com/images/stories/2015/March/hbm-memory-gddr5-comparison.jpg

Mir ist klar, dass das gestapelt wird, aber die Grundfläche scheint mir (gemessen an den GB) nicht geringer zu sein als GDDR5.

Nakai
2015-04-08, 17:01:05
Nutzt du gerade wirklich einen äußerst schlechten fake von Leonidas als Rechtfertigung? Finde ich jetzt ein wenig peinlich. Nur weil man ein paar Zahlen austauscht und das Bild blurred ist das doch kein geiler und plausibler fake?


Schlechter Fake von Leonidas? Das ist nicht von Leonidas gewesen.
In keinster Art und Weise. ;D;D;D

Ansonsten das Einzige was peinlich ist, ist deine generelle Unfähigkeit deine seltsamen Seitenhiebe und generellen Anfeindungen mal zu unterbinden oder sein zu lassen und dein stetiges Verlangen nach Aufmerksamkeit und Gegenbeweisen.

@Nakai

Ja, wenn du Zeit hättest, könntest du dir das auch aus den Fingern saugen. Tolle Sache. Das macht man aber nicht in ein paar Stunden. Da ist schon ordentlich Arbeit reingeflossen.

Foliengenerierung ist keine ordentliche Arbeit.

Unicous
2015-04-08, 17:15:42
Was für Anfeindungen? Du nimmst einen überschlechten Fake als Anlass um diesen (wenn es einer ist) sehr gut gemachten fake zu verunglimpfen. Man hat hier offensichtlich nicht einfach eine Folie von Ati/AMD genommen und einfach ein paar Zahlen ersetzt sondern sich dann doch deutlich mehr Mühe gemacht.

Deine Behauptung, dass du das auch hinbekommst, in allen Ehren, aber es braucht schon etwas mehr als nur "Zeit". Diese Aussage empfinde ich als peinlich.


Und das du dich darüber mokierst finde ich mehr als seltsam. Wenn es so leicht ist. Mach es selbst. Samt der Bildchen, Beschriftungen etc.



Du verunglimpfst übrigens mit gerade jeden Menschen der Folien "generiert". Ich finde ordentliche Folien zu schreiben, vllt. sogar zu animieren und sonstige Feinheiten einer der schwierigsten Jobs bei einer Präsentation. Aber gut, du weißt es wohl besser.

Nakai
2015-04-08, 17:43:33
Challenge accepted. ;D;D;D

Bidde schön. ~30 Min hats gedauert. Einfachste Programme. Natürlich nur ein erster Versuch.

Powerpoint + Paint.net mit Plugins

€:

Du verunglimpfst übrigens mit gerade jeden Menschen der Folien "generiert". Ich finde ordentliche Folien zu schreiben, vllt. sogar zu animieren und sonstige Feinheiten einer der schwierigsten Jobs bei einer Präsentation. Aber gut, du weißt es wohl besser.

Ich gehe auf Conventions, Kongressen und halte dahingehend regelmäßig Präsentationen, Poster-Sessions, etc. Ich weiß wie witzlos das ist und dass es ein Job für Praktikanten ist.

€2: Ahja, das könnte natürlich noch deutlich besser aussehen, wollte aber schnell ein "Feedback" liefern.

Unicous
2015-04-08, 17:53:29
Du hast es nicht verstanden. Du sollst dir keinen Müll ausdenken und dann deinen Monitor schlecht abfotografieren sondern plausible slides erstellen und die dann von einem Beamer abfotografieren.;)

Eine ordentliche Präsentation, hat ordentliche slides. Wenn man sich darauf nicht versteht, lässt man Leute ran die sich damit auskennen.

Daher bleibt mir nur zu sagen:
http://static.comicvine.com/uploads/original/11/118094/2544771-challenge_failed.jpg


Übrigens, dass du meinen "Namen" nutzt finde ich nicht in Ordnung. So ein Bild kann sich schnell verselbstständigen und du hast mich nicht um Erlaubnis gefragt.

Gipsel
2015-04-08, 17:58:56
Sind sie?

http://www.fudzilla.com/images/stories/2015/March/hbm-memory-gddr5-comparison.jpg

Mir ist klar, dass das gestapelt wird, aber die Grundfläche scheint mir (gemessen an den GB) nicht geringer zu sein als GDDR5.Die 1GB (8Gbit) HBM-Stacks nutzen bisher auch noch einen älteren Prozeß als die 4Gbit oder 8GBit DRAM-Chips (da kostet auch das Packaging Fläche, Hynix baut inzwischen auch bis zu vier 8Gbit-Dies in ein Package für normalen DRAM, okay teuren DRAM wie für ihre 128GB-DDR4-Module). Das ist mit ein Grund, warum ich meinte, 4GBit/Die (2GB=16 Gbit mit 4 Hi-Stack) bei HBM sind eigentlich überfällig.

Unicous
2015-04-08, 18:00:43
Nö, eigentlich nicht. "2znm" wurde unlängst wieder für H1'2015 angekündigt und 2znm soll auch für "HBM2 Stacks" genutzt werden (laut SK hynix).

Gipsel
2015-04-08, 18:07:21
Nö, eigentlich nicht. "2znm" wurde unlängst wieder für H1'2015 angekündigt und 2znm soll auch für "HBM2 Stacks" genutzt werden (laut SK hynix).Ich rede aber von HBM1.

Unicous
2015-04-08, 18:24:05
Ich weiß, aber die SK hynix roadmap hat sich nicht verändert. Sie wollen im H1'2015 mit der Produktion von DRAM Chips anfangen die unter 2znm gefertigt werden und hatten eigentlich keine Pläne in der Zwischenzeit die Stacks zu vergrößern und/oder die Kapazität zu erhöhen.

Diese roadmap für HBM gilt eigentlich auch noch. Wir reden also von einem hypothetischen Gefallen gegenüber AMD.

http://www.kitguru.net/wp-content/uploads/2015/03/sk_hynix_tsv_roadmap_hbm.png

Brillus
2015-04-08, 18:53:16
Sind sie?

http://www.fudzilla.com/images/stories/2015/March/hbm-memory-gddr5-comparison.jpg

Mir ist klar, dass das gestapelt wird, aber die Grundfläche scheint mir (gemessen an den GB) nicht geringer zu sein als GDDR5.

GB vs Gb, der HBM stack hat doppelt soviel platz wie der GDDR5 Speicher

Nakai
2015-04-08, 18:58:09
@Unicous:
Schön, dass es dir gefallen hat.

Ansonsten wart mal ab.

Unicous
2015-04-08, 18:59:40
Es hat mir nicht gefallen und beherzige bitte meinen Einspruch. Ich nehme auch nicht deinen Namen und ziehe ihn einfach in den Dreck.

Gipsel
2015-04-08, 19:07:19
@Unicous:
2x, 2y und 2z sind drei verschiedene Prozesse (29, 25 und 20nm oder irgend so etwas in der Richtung). Der Produktionsanfang für die 2GBit-HBM-Dies stellt ja nicht den Beginn der Produktion im 2x-Prozeß dar. Das gibt ja nur die Produkte wieder, die TSVs nutzen (single-die-Produkte tun dies früher). Es gibt ja bereits seit einiger Zeit 4GBit-Dies von Hynix und die 8GBit-Dies kommen jetzt auch. Warum die nicht 4GBit-HBM-Dies in dem Prozeß auflegen sollten, in dem die schon länger auch DDR3 oder DDR4 dieser Kapazität fertigen, kann man nicht wirklich begründen. Das Überspringen von 4GBit macht auch aus Gründen der Produktdiversifizierung nicht so viel Sinn. Okay, es steht nicht in einer einem Jahr alten Roadmap drin, aber das war es dann auch schon mit den Gründen. Hynix hat angeblich im 4. Quartal 2014 bereits 70% seiner Produktion im 2y-Prozeß fabriziert, 2x ist also langsam tatsächlich so ziemlich end-of-life und wird hauptsächlich für die Weiterführung alter Produktlinien benutzt.
Laut der Roadmap stapeln die bereits ab Anfang diesen Jahres vier 8GBit-Dies im 2y-Prozeß, Ende des Jahres dann im 2z-Prozeß. Warum zum Teufel sollte man nicht letztes Jahr 2Gbit-HBM-Dies im 2x-Prozeß stapeln, dieses Jahr dann 4Gbit-Dies im 2y-Prozeß (man stapelt bereits vier 8Gbit-DDR4 Dies im gleichen Prozeß) und dann nächstes Jahr 8Gbit-HBM-Dies im 2z-Prozeß (bei DDR4 in der Roadmap macht man diesen Übergang innerhalb von ~9 Monaten)? Ein 4Gbit-4Hi Stack im 2y nm-Prozeß würde gut in die 2-Jahreslücke zwischen 2x und 2z für HBM passen.
Übrigens gibt es Bilder von 8Hi-Stacks (okay, kein HBM) mit 2Gbit pro Die aus dem Jahre 2011 von Hynix!

Unicous
2015-04-08, 19:22:01
Weil sie extra von 2xnm auf 2znm umsteigen. Das war schon vor Jahren (zwei Jahren min.) der Plan. Warum sie nicht die Kapazität für HBM1 (offiziell) erhöht haben, oder in 2ynm fertigen kann ich dir nicht sagen, aber das ist die offizielle Verlautbarung. Ich könnte mir auch vorstellen, dass sie dafür einfach keine Kapazitäten haben, weil sie bei 2ynm mit DDR4 ausgelastet sind. Von Wide I/O2 hört man ja auch so gut wie nichts und die Produktion müsste schon im Gange sein.

SK Hynix will mass produce 2znm DRAM within the first half of this year to continue to strengthen the cost competitiveness. Also, the Company is to preemptively respond to DDR4 adoption mainly in server and mobile DRAMs by expanding its DDR4 portion to 50% in those DRAM segments by the end of the year.
http://www.skhynix.com/en/pr_room/news-data-view.jsp?search.seq=2422

Auch hier gibt es eine roadmap für HBM die für das gesamte Jahr 2015 den 2xnm Prozess vorsieht, während man bei DDR4 auf 2ynm umsteigt.

http://www.jedec.org/sites/default/files/files/Yongshin_Kim_Server%20Forum_2014%282%29.pdf
(Seite 18)
Und seit Ende März wird jetzt von early July gesprochen für den Produktionsstart von 2znm.

http://www.kitguru.net/components/memory/anton-shilov/sk-hynix-to-start-production-of-dram-using-20nm-process-tech-in-2h-2015/


Ich denke mir das ja nicht aus.

Gipsel
2015-04-08, 20:09:36
Weil sie extra von 2xnm auf 2znm umsteigen.Sie steigen auch von 2y auf 2z bei DDR4 um, sogar ohne die Kapazitäten zu vergrößern. Das ist kein Argument. Man steigt immer auf kleinere Prozesse um, wenn es dadurch kostengünstiger wird. Als Beispiel: 4GBit-DDR3-Speicherchips gab es schon mit 2x, gibt es mit 2y (hier sind 8Gbit-Dies dazugekommen) und wird es auch mit 2z geben.
Und nur weil etwas nicht auf einer Roadmap steht, heißt es nicht, daß es nicht kommt. Siehe die Hynix-Informationen an ihrem Stand, die von 4Hi-HBM1-Stacks mit 4GBit-Dies (also 2GB/Stack) sprechen (hast Du selbst vor Kurzem noch mal gepostet). Die stehen nicht auf der Roadmap, aber Hynix will sie offenbar anbieten. Daß sie dann irgendwann 2016 auch 8Gbit-2z-Dies zu HBM-Stacks stapeln, bleibt davon ja unbenommen.
Ich denke mir das ja nicht aus.Das sage ich ja auch nicht. Ich sage nur, daß Hynix verlauten lassen hat, auch 4Hi-2GB-HBM1-Stacks (die dann logischerweise 4Gbit-Dies haben müßten, damit es aufgeht) aufzulegen und aus technischer Sicht nichts dagegen spricht, die in die 2-Jahres-Lücke zwischen gestapelten 2x-2Gbit-Dies im letzten Jahr und gestapelten 2z-8Gbit-Chips im nächsten Jahr einzuschieben. Zumal Hynix bereits 4Gbit und 8Gbit 2y-Chips produziert (nur eben DDR3 und DDR4 statt HBM) und diese auch 4Hi-stapelt. Wenn die bereits einen 4Hi DDR4-Stack aus 8Gbit-2y Dies hinbekommen, wo liegt das Problem einen 4Hi-Stack aus 4Gbit-2y Dies zu basteln? Der einzige Grund, den Du anführen kannst ist doch: Es steht nicht in der Roadmap. So what? Das gab es früher auch schon, daß Produkte nachträglich eingeschoben wurden. Daran würde ich mich nicht zu stark festklammern.

iuno
2015-04-08, 20:54:42
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/gtc2015/gtc2015-skhynix-2.jpg
Naja ich habe keine Ahnung, aber für mich sieht das eindeutig nach zwei DRAM-Chips nebeneinander je Ebene aus und jetzt bin ich verwirrt. Klingt nach Dual-Link :freak: :tongue:



SK hynix hat für HBM1 nie von 8Hi Stacks gesprochen, ich sehe das als "hypothetischen Stack" um einen Vergleichswert zu HBM2 zu haben und dann sagen zu können, wir verdoppeln das Ganze mit HBM2.
Aber übrigens auch noch nie von 16Gb pro 4Hi-Stack der Generation 1, die Mengen rechts entsprechen jedoch den alten Infos (4/8Hi Stacks mit je 8 Gb pro Speicherchip/hier sind es aber 2x4Gb). Warum sollten sie das plötzlich machen? Beim HBM1-8Hi Stack kann ich das noch nachvollziehen, einfach um zu zeigen, damit man für die oberen 32 Gb einen doppelt so hohen Stack der 1. Generation bräuchte. Aber warum nennt man dennoch 4(2x2?)Gb pro HBM1-Ebene? Das macht für mich keinen Sinn. Um HBM2 besser dastehen zu lassen würden sie doch lieber sagen sie vervierfachen die Kapazität :confused:

de facto gibt es bis heute keinerlei Hinweise auf höhere Kapazitäten. Weder durch DRAM-Riegel mit höherer Kapazität noch durch einen doppelt so hohen Stack.
Außer genau dieses Bild. Was mich auch wundert ist, dass offenbar immer zwei Speicherchips auf einer Ebene abgebildet werden, selbst bei HBM2 2x4Gb, obwohl es laut den alten Folien 8Gb Chips sind.


Zusammenfassung was ich meine:
|vorher: |nachher:
HBM1: | 4 x 2Gb | 4 x 2x2Gb
HBM2: |4 x 8 Gb{br}8 x 8 Gb|4 x 2x4Gb{br}8 x 2x4Gb

maguumo
2015-04-08, 21:04:39
Vielleicht sind damit nur die Channel (2 pro Die) gemeint? Kann mir kaum vorstellen das sie planen standardmäßig zwei Dies auf die Logic Layer zu takkern...

Gipsel
2015-04-08, 21:28:23
Vielleicht sind damit nur die Channel (2 pro Die) gemeint? Kann mir kaum vorstellen das sie planen standardmäßig zwei Dies auf die Logic Layer zu takkern...Ganz genau.

@all:
Übrigens muß man bei den Angaben von Hynix ein wenig aufpassen, die bauen öfter mal grobe Schnitzer in ihre Präsentationen ein. ;)

hasebaer
2015-04-08, 22:29:42
Challenge accepted. ;D;D;D

Bidde schön. ~30 Min hats gedauert.

Geiler Scheiß. (y)

fondness
2015-04-09, 10:37:32
Das ist dann wohl ein Fiji cut-down?!

Man erkennt wie erwartet keine Memory-Module, XDMA Crossfire wird weiterhin unterstützt da keine CF-Connectoren.
Und wenn es jetzt schon Custom-Modelle gibt, deutet das tatsächlich darauf hin das der Chip schon länger fertig ist.

http://s18.postimg.org/87vrbismx/XFX_R9_390_DD_1.jpg (http://postimage.org/)

http://s2.postimg.org/9k6u8v6ih/XFX_R9_390_DD_2.jpg (http://postimage.org/)

http://wccftech.com/xfx-radeon-r9-390-double-dissipation-allegedly-pictured/

OBrian
2015-04-09, 11:03:38
Die Rückseite wäre ja interessanter gewesen. Wieso wissen die Leute, die solche Leakfotos machen, nicht, was wirklich interessant ist?

Sunrise
2015-04-09, 11:05:46
Das scheint die kleinste Fiji mit wahrscheinlich 4GB HBM zu sein, wie hier schon angesprochen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10569841#post10569841). Diese sollte in direkter Konkurrenz zur 980 stehen.

Man kann auf dem ersten Bild schön den Interposer erkennen. Auch sieht man, dass die Karte rein optisch recht kurz wirkt.

rentex
2015-04-09, 11:10:16
Och menno, auf was warten die denn...grausam!

fondness
2015-04-09, 11:13:57
Leider gibt wccftech den Originallink zu dem chinesischen Forum, wo sie die Bilder angeblich her haben nicht an...

M4xw0lf
2015-04-09, 11:13:59
Das ist dann wohl ein Fiji cut-down?!

Man erkennt wie erwartet keine Memory-Module, XDMA Crossfire wird weiterhin unterstützt da keine CF-Connectoren.
Und wenn es jetzt schon Custom-Modelle gibt, deutet das tatsächlich darauf hin das der Chip schon länger fertig ist.

http://s18.postimg.org/87vrbismx/XFX_R9_390_DD_1.jpg (http://postimage.org/)

http://s2.postimg.org/9k6u8v6ih/XFX_R9_390_DD_2.jpg (http://postimage.org/)

http://wccftech.com/xfx-radeon-r9-390-double-dissipation-allegedly-pictured/

Es gibt schon so fortgeschrittene Eigendesigns, aber trotzdem noch nichtmal richtig sichere Specs... verdammte Leak-Stopfer :freak:

Sunrise
2015-04-09, 11:20:23
Leider gibt wccftech den Originallink zu dem chinesischen Forum, wo sie die Bilder angeblich her haben nicht an...
Ist vor allem deshalb interessant, weil die Bilder bei Wccftech scheinbar noch unverändert sind, während die üblichen Verdächtigen wie Chiphell o.ä. chinesische Seiten die identischen Bilder jetzt auch im Forum oder auf der Seite haben, allerdings mit eigenen Wasserzeichen versehen.

y33H@
2015-04-09, 11:21:03
Es gibt schon so fortgeschrittene Eigendesigns, aber trotzdem noch nichtmal richtig sichere Specs... verdammte Leak-StopferDie kriegen idR Maße und TDP für Chip etc, das muss dann reichen ^^

EDIT
Grenada XT sieht nach 290X mit OC und 8 GB aus.

fondness
2015-04-09, 11:28:45
EDIT
Grenada XT sieht nach 290X mit OC und 8 GB aus.

Wenn man einen Hawaii XT noch Ocen kann gab es hoffentlich zumindest ein neues Tapeout, denn viel Luft nach oben ist da eigentlich nicht mehr. Zudem wenn die 380X mit 8GB kommt hat die 390X sicher nicht weniger.

AngelDust 32
2015-04-09, 11:33:32
Also für meine Augen sieht der Schriftzug auf dem Bild nach 380 und nicht 390 aus

Edit: @fondness auf dem Mäusekino geht das leider nicht

fondness
2015-04-09, 11:34:18
Habe ich mir auch gedacht, aber erstens erkennt man bei näheren hinzoomen mit Kontrastverstärkung klar die 9 und zweitens sieht die 9 nach dem R auch nicht anders aus, und das wird wohl kaum R8 heißen.

Sunrise
2015-04-09, 11:40:24
Da man den Interposer erkennen kann (und Metall zwischen dem Interposer und dem Haupt-PCB) kann das auch keine 380 sein. Diese Bezeichnung ist wohl in der Tat für Grenada reserviert.

Unicous
2015-04-09, 11:51:39
Man kann auf dem ersten Bild schön den Interposer erkennen. Auch sieht man, dass die Karte rein optisch recht kurz wirkt.

Wo kannst du bitte einen "Interposer" erkennen? Ich sehe da nichts. Mit ein wenig Fantasie könnte man behaupten, dass man da ganz am Rand die Metallfassung eines Packages sieht (was aber ein sehr komisches PCB-Design wäre) aber sonst sieht man nur zwei Kühlkörper und ein paar heatpipes.


Das PCB "wirkt" ein wenig kürzer, die Karte an sich mE nicht unbedingt. Jedenfalls hat das Ding keine mITX-Maße. ;)

Sunrise
2015-04-09, 12:00:20
Das ist auch Quatsch, ich schrieb zwar Interposer, meinte aber eigentlich das zusätzliche PKC Substrate, das auf dem Haupt-PCB geschraubt sitzt. Auf diesem sitzt dann der Interposer, den man leider in der Tat nicht erkennen kann. Das ist aber dennoch ganz sicher Fiji.

HOT
2015-04-09, 12:59:27
Jo und das sieht man ziemlich deutlich. Das ist definitiv kein Hawaii.
Ich nehme an, dass es sehr wohl Grenada oder Antigua ist, aber eben mit 4GB HBM.

Zeit für ne neue Liste:
350X OEM = Oland XT
360 OEM = Bonaire Pro
370 OEM = Pitcairn Pro
380 OEM = Tonga Pro
390 OEM = Hawaii Pro

TSMC Resteverwertung FTW.

OBrian
2015-04-09, 13:05:35
ja sicher, aber wegen der nicht vorhandenen RAMs. deswegen sag ich ja, Foto der Rückseite wär super, dann könnte man was ableiten.

Die Karte ist jedenfalls gar nicht so klein, ist ja immerhin eine Dual-Slot-Karte, die wie eine 1-Slot-Karte wirkt, was für ziemlich große Ausmaße spricht. Und das PCB ist auch nicht so irre klein. Allerdings ist der Quadratzentimeter Platine nun auch nicht so irre teuer, da wird man wohl aus Gründen der mechanischen Stabilität und der besseren Kühlung die paar Bauteile etwas weiter verteilt haben. Insgesamt scheint die Größe wohl im Bereich bisheriger Oberklassekarten zu liegen.

Hübie
2015-04-09, 13:12:17
Hat schon jemand Pixelanalyse gemacht und den Fokus darauf gerichtet?

http://abload.de/img/xfx_r9_390_dd_1i5u7c.jpg (http://abload.de/image.php?img=xfx_r9_390_dd_1i5u7c.jpg)

http://abload.de/img/xfx_r9_390_dd_3xpavq.png (http://abload.de/image.php?img=xfx_r9_390_dd_3xpavq.png)

Loeschzwerg
2015-04-09, 13:18:03
Das ist auch Quatsch, ich schrieb zwar Interposer, meinte aber eigentlich das zusätzliche PKC Substrate, das auf dem Haupt-PCB geschraubt sitzt. Auf diesem sitzt dann der Interposer, den man leider in der Tat nicht erkennen kann. Das ist aber dennoch ganz sicher Fiji.

Das wäre ein sehr sehr seltsames PCB wenn das Package bis so weit an den Rand ginge. Da sitzt zwar etwas, aber das kann auch ein Ausläufer/Blech vom Kühler zur Stabilisierung sein.

Was neues dürfte es trotzdem sein.

Schnoesel
2015-04-09, 13:19:13
CB kann die Echtheit anscheinend bestätigen:

In einem chinesischen Forum sind erste Bilder einer Radeon R9 390 von XFX aufgetaucht. ComputerBase kann die Legitimität der Aufnahmen auf Basis eigener Informationen bestätigen.

http://www.computerbase.de/2015-04/radeon-r9-390-amds-fiji-pro-von-xfx-abgelichtet/

mironicus
2015-04-09, 13:22:09
Eine schöne Grafikkarte. Hoffentlich bringt MSI eine Version mit Abschalt-Lüfter.

Godmode
2015-04-09, 13:22:26
Das jetzt schon Partnerkarten verfügbar sind, dürfte für AMD ein großer Vorteil sein. Es wird dann wohl auch Testmuster zum Launch geben und der oben abgebildete Kühler dürfte wohl deutlich leiser sein, als ein Titan X Kühler.

Sunrise
2015-04-09, 13:22:58
Das wäre ein sehr sehr seltsames PCB wenn das Package bis so weit an den Rand ginge. Da sitzt zwar etwas, aber das kann auch ein Ausläufer/Blech vom Kühler zur Stabilisierung sein.

Was neues dürfte es trotzdem sein.
Wenn du dir mal die Farbe anschaust, dann ist es exakt der gleiche Farbton wie das Haupt-PCB. Für mich also ganz klar ein PKC Substrate, dass dort auf der Hauptplatine sitzt.

So eine Stabilisierung wäre möglich, aber das Ding wäre dann nicht dunkelgrün, sondern eher metallisch und hätte einen anderen Farbton. Auch das Metall, das zwischen beidem sitzt (auf Hübies Markierung zu erkennen) spricht eher für das Substrate.

Hübie
2015-04-09, 13:25:15
Also wenn 699$ stimmen dann --> MEINS! :ulove:

mironicus
2015-04-09, 13:25:29
Vorstellung noch im April möglich? :D

Loeschzwerg
2015-04-09, 13:29:06
Wenn du dir mal die Farbe anschaust, dann ist es exakt der gleiche Farbton wie das Haupt-PCB. Für mich also ganz klar ein PKC Substrate, dass dort auf der Hauptplatine sitzt.

So eine Stabilisierung wäre möglich, aber das Ding wäre dann nicht dunkelgrün, sondern wäre metallisch und hätte einen anderen Farbton.

Hm, wo siehst du da den gleichen Farbton?

Wir reden schon über den Bereich hier?
http://abload.de/thumb/testo6kh3.jpg (http://abload.de/image.php?img=testo6kh3.jpg)

Edit: Lassen wir uns einfach überraschen :) Du meinst das geht in die Richtung wie beim NV Pascal Modul?

Skysnake
2015-04-09, 13:32:34
Moeglich, das da noch was im April kommt. Aber sicher ist das dennoch nicht.

@Topic:
ist euch eigentlich die Aussparung aufgefallen zwischen den beiden Teilen?

Kann es eventuell sein, dass das ein doppelter Fiji ist? Also zei Interposer nebeneinander?

Das koennte eventuell erklaeren, warum man soch weit nach oben rutscht. Man muss ja keinen Ram mehr ansteuern, also ist das Routing auch bis zum Rand ohne Probleme machbar, zumal da auch nicht wirklich gekuehlt werden muss, da der RAM da sitzt.

fondness
2015-04-09, 13:32:49
Du meinst das geht in die Richtung wie beim NV Pascal Modul?

Na klar, wie sonst?

Sunrise
2015-04-09, 13:32:53
Hm, wo siehst du da den gleichen Farbton?

Wir reden schon über den Bereich hier?
http://abload.de/thumb/testo6kh3.jpg (http://abload.de/image.php?img=testo6kh3.jpg)
Konzentriere dich mal auf die Schraube rechts. Da ist etwas auf das Haupt-PCB geschraubt. Und dieses etwas hat den gleichen Fabrton wie das Haupt-PCB. Und zwischen beidem ist mittig nochmal Metall platziert, das evtl. zur Wärmeableitung bzw. auch zur Stabilisierung der beiden dient.

Edit: Lassen wir uns einfach überraschen :) Du meinst das geht in die Richtung wie beim NV Pascal Modul?
Richtig. Daher wurde (von mir) auch ein möglicher Dual-Fiji vermutet, weil du dann eigentlich nur zwei dieser "Module" auf das Haupt-PCB schrauben müsstest (natürlich mit angepasster Spannungsversorgung). Wobei ich daran nicht glaube, außer die Dinger liegen pro Modul klar unter 200W.

mironicus
2015-04-09, 13:36:19
Keine News bei der PCGH? NDA? :D

Unicous
2015-04-09, 13:37:05
Es ist ganz klar schwarz/blau. Da gib es auch keine Diskussion.


Für mich sieht es zwar eher nach einem matten metallischem Schimmer aus und man weiß ja auch wie das Ding ungefähr aussehen wird.

http://i.imgur.com/hxQCe8N.jpg

Aber die Kerbe in der Mitte (e: vllt. ist es gar keine Kerbe sondern eine "freie Fläche"?) finde ich auch sehr komisch und glaube daher, dass wir hier auf der falschen Fährte sind. (Wenn die Bilder nicht manipuliert sind).

Das Package genau an den Rand zu legen macht mE so gar keinen Sinn, zumal die Kühlkörper ja auch mittig liegen.

Loeschzwerg
2015-04-09, 13:40:20
Konzentriere dich mal auf die Schraube rechts. Da ist etwas auf das Haupt-PCB geschraubt. Und dieses etwas hat den gleichen Fabrton wie das Haupt-PCB. Und zwischen beidem ist mittig nochmal Metall platziert, as evtl. zur Wärmeableitung bzw. auch zur Stabilisierung der beiden dient.


Richtig. Daher wurde (von mir) auch ein möglicher Dual-Fiji vermutet, weil du dann eigentlich nur zwei dieser "Module" auf das Haupt-PCB schrauben müsstest (natürlich mit angepasster Spannungsversorgung).

Ok, wäre möglich. Aber Dual-Fiji und nur 8+6 Pin, naja.

Es kann aber auch einfach nur so aussehen:
http://images.bit-tech.net/content_images/2014/05/amd-radeon-r9-280-review-feat-xfx/xfx280-11b.jpg

Da sieht man das typische XFX Blech mit dieser Verschraubung.

Edit: Und die "weißen" Dinger mit der Lücke in der Mitte können auch nur Wärmeleitpads sein.

mironicus
2015-04-09, 13:44:13
Wer so eine Karte bereits hat, kann sie gerne auch mal benchen... :D
Firmware wäre auch nicht schlecht... :D

Dural
2015-04-09, 14:15:22
http://www.computerbase.de/forum/showthread.php?t=1465257&p=17251786#post17251786

Gibt noch kein NDA, da scheint es wohl irgend ein Problem zu geben.

mironicus
2015-04-09, 14:24:24
Ist bestimmt kein Problem, AMD hat wohl alle Löcher gestopft und daher können sie den Informationsfluss jetzt besser kontrollieren.

Troyan
2015-04-09, 14:25:15
Die Tonga-Boards haben alle keine Crossfire-Pins mehr. Die 290X Platinen dagegen schon.

Die gezeigte Karte hat welche - Fake?

y33H@
2015-04-09, 14:29:43
Frühes Mockup?

Pick
2015-04-09, 14:30:51
http://forums.anandtech.com/showpost.php?p=37315015&postcount=419 :biggrin:

derguru
2015-04-09, 14:33:45
endlich mal mehr als nur ein lebenszeichen, kann nicht mehr lange dauern. lass die benchs beginnen.^^

Das jetzt schon Partnerkarten verfügbar sind, dürfte für AMD ein großer Vorteil sein. Es wird dann wohl auch Testmuster zum Launch geben und der oben abgebildete Kühler dürfte wohl deutlich leiser sein, als ein Titan X Kühler.

nicht unbedingt, xfx ist bekannt für seine radaumacher.:biggrin:

Unicous
2015-04-09, 14:37:55
Frühes Mockup?

Für die 380, ja. :tongue:

Disco_STFU
2015-04-09, 14:43:32
http://forums.anandtech.com/showpost.php?p=37315015&postcount=419 :biggrin:


http://media.tumblr.com/5ead83d3d13ffbbd15b4673d03cb6569/tumblr_inline_mm8phe4UFe1qz4rgp.gif

rentex
2015-04-09, 14:46:46
Glaub nicht das bald, bald ist!;-) Spekuliert wird doch Juni?

M4xw0lf
2015-04-09, 15:37:13
http://forums.anandtech.com/showpost.php?p=37315015&postcount=419 :biggrin:
Sieht sehr überzeugend aus. Die hellen Balken wären demnach nur die Wärmeleitpads zwischen Kühlplatte und GDDR5-Bausteinen, die Unterbrechung stammt vom Bohrloch für die Kühlerhalterung.

Möglicherweise ist das doch eine "380" und jemand hat die 8 ein bisschen bearbeitet, sodass sie bei genauerem Betrachten wie eine 9 erscheint... Zeit, meinen Aluhut aufzusetzen :upara:

Blediator16
2015-04-09, 15:52:31
Jeglicher Rebrand würde AMD noch weiter schaden. Ich wollte eigentlich nach Nvidia mal auf AMD umschwenken, doch bei Rebrands macht das überhaupt keinen Sinn.

M4xw0lf
2015-04-09, 15:53:39
Jeglicher Rebrand würde AMD noch weiter schaden. Ich wollte eigentlich nach Nvidia mal auf AMD umschwenken, doch bei Rebrands macht das überhaupt keinen Sinn.
Fiji wird doch kein Rebrand und alles andere ist eh uninteressant.

Kriton
2015-04-09, 15:58:52
Wenn es doch ein Dual Fiji geben sollte, dann doch sicherlich auch eine Einzelversion - welche wäre das dann?
Erinnert mich aber generell eigentlich an die ATI-Strategie der 4000er Reihe. Davon wollte man doch wieder weg? oder hat man die Zusammenarbeit zwischen den beiden Chips jetzt so realisieren können, dass es nicht mehr die typischen mGPU-Probleme gibt?

Oder habe ich einen Denkfehler?

fondness
2015-04-09, 16:05:44
Rein theoretisch hätte man mit dem Interposer natürlich auch die Möglichkeit eine Verbindung mit genügend Bandbreite zu realisieren um 2 Chips effizient und ohne AFR zusammen zu schalten.

dargo
2015-04-09, 16:08:49
Fiji wird doch kein Rebrand und alles andere ist eh uninteressant.
Für dich vielleicht, aber garantiert nicht für AMD.

Blediator16
2015-04-09, 16:14:12
Fiji wird doch kein Rebrand und alles andere ist eh uninteressant.

So späte rebrands machen überhaupt keinen Sinn. Vorallem im unteren Breich nicht.

dildo4u
2015-04-09, 16:18:17
Es mach komplett Sinn die 290 muss vermutlich bis 2016 halten.Rebrands sind nicht nur schlecht für den Konsumenten,so kann man die Karte besser einordnen kann so bald die neuen High-End Karten raus sind.

HOT
2015-04-09, 16:27:06
http://forums.anandtech.com/showpost.php?p=37315015&postcount=419 :biggrin:
Ach, das ist ne Hawaii Pro OEM-Rebrand-Karte. Das macht Sinn. Ich glaub da nicht an einen Fake. Alle News zu dem Thema sind mal wieder für die Tonne.
Wie gesagt
350X = Oland XT = 250 (Treibereintrag)
360 = Bonaire Pro = 260 (Treibereintrag)
370 = Curacau Pro = 265 (Treibereintrag, Sandra-Screenshot und Herstellerfolie)
380 = Tonga Pro = 285 (bisher nicht gesichtet, aber sehr plausibel, da Apple weiterhin die TongaXT verbraten wird)
390 = Hawaii Pro = 290 (XFX-390-Karte)

Das hat weder mit Pirate Islands noch mit Caribbean Islands was am Hut. Würde die Theorie stützen, dass die 300-Serie sowas ist wie die 8000 Serie von AMD oder die 300 oder 800 Serie von NV, reiner OEM Rebrand-Krempel eben.

Loeschzwerg
2015-04-09, 16:27:51
Sieht sehr überzeugend aus. Die hellen Balken wären demnach nur die Wärmeleitpads zwischen Kühlplatte und GDDR5-Bausteinen, die Unterbrechung stammt vom Bohrloch für die Kühlerhalterung.

Möglicherweise ist das doch eine "380" und jemand hat die 8 ein bisschen bearbeitet, sodass sie bei genauerem Betrachten wie eine 9 erscheint... Zeit, meinen Aluhut aufzusetzen :upara:

Hehe, hatte ich vermutlich doch den richtigen Riecher (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10583538#post10583538) ;D

@HOT: Aber es ist halt auch kein Fiji ^^

HOT
2015-04-09, 16:53:34
Nö, kein Fiji. Jedenfalls nicht in den 300ern.

foenfrisur
2015-04-09, 18:26:44
also wenn CB schreibt:
"ComputerBase kann die Authentizität der Aufnahmen auf Basis eigener Informationen bestätigen. Die Existenz von Partnerdesigns deutet auf eine zeitnahe Markteinführung der neuen Architektur innerhalb der nächsten Wochen hin"

die wissen also was....
wieso diskutiert man dann über rebrands oder überhaupt eine 290x?

natürlich kann man an den schlechten aufnahmen -> den fake-spekulatius backen...
der kühler der XFX 290x sieht noch ganz anders aus. und die 2 hellen streifen zwischen PCB und Plate empfinde ich als zu klein/kurz für BGA-chips...muss also HBM ->fiji sein.

mfg

Korvaun
2015-04-09, 18:31:39
...
Das hat weder mit Pirate Islands noch mit Caribbean Islands was am Hut. Würde die Theorie stützen, dass die 300-Serie sowas ist wie die 8000 Serie von AMD oder die 300 oder 800 Serie von NV, reiner OEM Rebrand-Krempel eben.

Hmm, was ist dann Fiji? 400er Serie, also 490 & 490X?

edit: Dann wären ja auch die bisherigen Folien die Fiji als 390er bezeichnet haben alles Fakes?

Hübie
2015-04-09, 18:40:57
Fiji kann ja so wie Titan eine eigenständige Marke werden. Sozusagen das Prestigeobjekt oder Aushängeschild.
Namen sind Schall und Rauch. Was zählt ist das Paket. Und wenn AMD da hält was man sich verspricht dann dürfen die auch mal tiefer in meine Tasche greifen.

foenfrisur
2015-04-09, 18:42:25
ich habe mal die längen anhand der 6-pin und 8-pin stecker verglichen.

das bild der neuen karte hat klar kürzere WLPs, sofern es denn welche sind.
und gewöhnlich sind die Pads immer etwas größer, als der baustein, der gekühlt werden soll.
es können also nicht die 4 typischen BGA-chips sein.

mfg

Hübie
2015-04-09, 18:49:28
Ja was man bei Anandtech nicht beachtet hat ist dass so ein Design oftmals gleiche Stromkreise hat. PCIE liefert ja immer das selbe an Leistung (+/- Toleranz halt). Das eigentliche Design beginnt erst 1/3 von der Hinterkante.

maguumo
2015-04-09, 19:05:10
Ich weiß nicht in wie weit das für Fiji noch gilt, ein PCB für einen Interposer mit GPU+VRAM könnte wohl doch größere Veränderungen im Layout mitbringen...

StefanV
2015-04-09, 20:00:22
Ich weiß nicht in wie weit das für Fiji noch gilt, ein PCB für einen Interposer mit GPU+VRAM könnte wohl doch größere Veränderungen im Layout mitbringen...
Dem PCB kann der Interposer egal sein. Das ist etwas, was du aufs Package (=den Chip) knallst.
Aufs PCB hast dann nur noch SpaWas und Anschlüsse, mehr brauchst nicht mehr.

Sprich: Das ganze wird durch HBM verdammt einfach!
Mal a Beispiel:
http://www.heise.de/newsticker/meldung/Stapel-RAM-fuer-AMD-Grafikkarten-2454735.html
http://i.imgur.com/r6bhoXl.jpg
http://community.futuremark.com/forum/showthread.php?182060-AMD-2-5D-GPU-with-HBM-confirmed

HOT
2015-04-09, 20:30:24
Die Stromversorgung müsste sich mit Interposer ja auch ändern, der Speicher muss ja anders versorgt werden als bisher.

Hübie
2015-04-09, 20:33:00
Na n bissl kommt noch dazu (Ausgänge z. B.). Aber im Großen und Ganzen ändert sich am PCB nicht viel. Die könnten auch alle seit langem kürzer sein, aber das ist vielleicht teurer oder aufwändiger beim Design. Jeder "knick" auf so einer Platine muss berechnet sein.

StefanV
2015-04-09, 20:58:36
Na n bissl kommt noch dazu (Ausgänge z. B.).
Da war ich so frei, das in Anschlüsse zusammen zu fassen.
Also was du brauchst:
Display + Strom Anschlüsse
Stromversorgung
PCIe
GPU

Das wars im Prinzip damit...


Aber im Großen und Ganzen ändert sich am PCB nicht viel. Die könnten auch alle seit langem kürzer sein, aber das ist vielleicht teurer oder aufwändiger beim Design. Jeder "knick" auf so einer Platine muss berechnet sein.
Doch, schon.

Alles, was mit dem Grafikspeicher zu tun hat, fällt weg, das PCB wird dadurch deutlich einfacher...
Brauchst also echt 'nur' noch Stromversorgung, Interface und Ausgänge...

Schaut dann z.B. so aus:
http://www.tul.com.tw/global/Product_Detail.aspx?folderid=18&cat1=78&cat2=212&cat3=481
http://www.tul.com.tw/global/Product_Detail.aspx?folderid=18&cat1=78&cat2=211&cat3=475

maguumo
2015-04-09, 21:05:50
Alles, was mit dem Grafikspeicher zu tun hat, fällt weg, das PCB wird dadurch deutlich einfacher...
Brauchst also echt 'nur' noch Stromversorgung, Interface und Ausgänge...



Genau das meinte ich damit das ich nicht weiß ob das Fiji PCB denen die wir von aktuellen High End Karten kennen noch großartig ähneln wird. Man kann sich eben einiges was bis jetzt nötig war.

horn 12
2015-04-09, 22:36:39
Ruby mit einem Eintrag und ein Pic :-(

http://wccftech.com/xfx-radeon-r9-390-double-dissipation-allegedly-pictured/

Hübie
2015-04-09, 22:46:23
http://abload.de/img/hd6670-powercolort3p4r.jpg (http://abload.de/image.php?img=hd6670-powercolort3p4r.jpg)

http://abload.de/img/e6460-er91f36sn3.jpg (http://abload.de/image.php?img=e6460-er91f36sn3.jpg)

Also so unterschiedlich ist das nicht. Und da kannst du jetzt sagen was du willst.

Pick
2015-04-09, 23:08:01
http://forums.anandtech.com/showpost.php?p=37316508&postcount=447 :biggrin:

DR.DEATH
2015-04-09, 23:12:04
http://abload.de/img/hd6670-powercolort3p4r.jpg (http://abload.de/image.php?img=hd6670-powercolort3p4r.jpg)

http://abload.de/img/e6460-er91f36sn3.jpg (http://abload.de/image.php?img=e6460-er91f36sn3.jpg)

Also so unterschiedlich ist das nicht. Und da kannst du jetzt sagen was du willst.

Aha. Sehen wir die selben Bilder?
Bei dem unteren Bild hast du keine Leitungen für die RAM-Anbindung und damit auch kein aufwendiges Signal-Routing (dürfte das PCB einiges billiger machen, wahrscheinlich braucht man auch nicht so viele Layer). Das untere Bild dürfte auch nichtmal die Hälfte vom oberen Bild haben.

Dawn on Titan
2015-04-10, 07:11:57
Ruby mit einem Eintrag und ein Pic :-(

http://wccftech.com/xfx-radeon-r9-390-double-dissipation-allegedly-pictured/

Also ist schon einmal die 380 wirklich ein Rebrand und ich muss sagen, dass ich auch dort auf einen neuen Chip gehofft hatte.

Loeschzwerg
2015-04-10, 07:11:58
Alles, was mit dem Grafikspeicher zu tun hat, fällt weg, das PCB wird dadurch deutlich einfacher...
Brauchst also echt 'nur' noch Stromversorgung, Interface und Ausgänge...

Schaut dann z.B. so aus:
http://www.tul.com.tw/global/Product_Detail.aspx?folderid=18&cat1=78&cat2=212&cat3=481
http://www.tul.com.tw/global/Product_Detail.aspx?folderid=18&cat1=78&cat2=211&cat3=475

Jup und man kann die Spannungswandlung eigentlich komplett umgestalten bzw. wesentlich näher an die GPU heranrücken => Bessere Effizienz?

Hübie
2015-04-10, 08:56:36
Aha. Sehen wir die selben Bilder?
Bei dem unteren Bild hast du keine Leitungen für die RAM-Anbindung und damit auch kein aufwendiges Signal-Routing (dürfte das PCB einiges billiger machen, wahrscheinlich braucht man auch nicht so viele Layer). Das untere Bild dürfte auch nichtmal die Hälfte vom oberen Bild haben.

Ja sehen wir. Das untere ist MXM. Schrumpft man das obere hat man beinahe gleiche Komplexität. An die Anzahl der Layer hab ich natürlich nicht gedacht. Gutes Argument. Hab mich halt auf Spannungsversorgung konzentriert.
Das PCB wird jedenfalls nicht wesentlich kürzer oder schmaler. Die gesparten Kosten liegen dann doppelt im Interposer.

X.Perry_Mental
2015-04-10, 09:01:13
Also ist schon einmal die 380 wirklich ein Rebrand und ich muss sagen, dass ich auch dort auf einen neuen Chip gehofft hatte.
Woran siehst Du das?

Nightspider
2015-04-10, 09:07:01
=> Bessere Effizienz?

Nein.

Zumindest sollte es Wasserkühler geben die nicht mal halb so groß sind. Damit könnte man Kupfer sparen und die Wasserkühler könnten deutlich billiger für die R9 390X werden.

Hübie
2015-04-10, 09:10:29
Haha. Der war gut. Sagt dir Konsumentenrente etwas? Nein? Frag mal nVidia :naughty:

Pirx
2015-04-10, 09:24:23
Ja sehen wir. Das untere ist MXM. Schrumpft man das obere hat man beinahe gleiche Komplexität. An die Anzahl der Layer hab ich natürlich nicht gedacht. Gutes Argument. Hab mich halt auf Spannungsversorgung konzentriert.
Das PCB wird jedenfalls nicht wesentlich kürzer oder schmaler. Die gesparten Kosten liegen dann doppelt im Interposer.
Wuz, wenn ein 512 Bit SI mit Speicherchips auf dem PCB wegfällt, soll das kaum Raum für Änderungen geben, oder wie?

HOT
2015-04-10, 09:24:38
Also ist schon einmal die 380 wirklich ein Rebrand und ich muss sagen, dass ich auch dort auf einen neuen Chip gehofft hatte.
Ich sehe schon wieder wie sie jetzt alle behaupten, das wär ne 380, nur weil WFCC-Tech das so postet. Nein, das ist ne 390, das ist ziemlich eindeutig, wenn man das Bild vergrößert. Nen 8 sieht gleichmäßiger aus, das ist ein etwas seltsames Schriftformat. Das ist ne 390 OEM alias Hawaii, sonst nix.
Und von einem schiefen XFX-Logo auf einen Fake zu schließen halte ich auch für gewagt, nur nebenbei.

AngelDust 32
2015-04-10, 09:34:44
Wuz, wenn ein 512 Bit SI mit Speicherchips auf dem PCB wegfällt, soll das kaum Raum für Änderungen geben, oder wie?

Das SI liegt doch auf dem Chip und nicht auf dem PCB

M4xw0lf
2015-04-10, 09:39:17
Das SI liegt doch auf dem Chip und nicht auf dem PCB
Die Leiterbahnen vom SI zum Ram liegen aber sehr wohl auf dem PCB.

uweskw
2015-04-10, 09:40:50
http://forums.anandtech.com/showpost.php?p=37316508&postcount=447 :biggrin:


von Stereopixel@anandtech
damit ist doch klar, dass es ein Fake ist
Hat sich da CB jetzt selbst ins Knie geschossen?



http://abload.de/img/565677k2u79.jpg

M4xw0lf
2015-04-10, 09:42:40
Was an dem leicht krüppeligen XFX-Logo jetzt ein schlagender Beweis sein soll, erschließt sich mir nicht. Vielleicht hat da einfach jemand schlampig geklebt.

fondness
2015-04-10, 09:44:01
Eigentlich sind die roten Kästchen völlig fehlplaziert. Das obere rote Kästchen nimmt auf der linken seiten ein paar Pixel vom Power Connector mit und auf der rechten Seite ist noch deutlich Platz bis zur Kante.

Grestorn
2015-04-10, 09:47:29
Das Logo ist definitiv ein Fake, wie man an dem viel zu breiten F erkennen kann.

Pirx
2015-04-10, 09:49:43
Das SI liegt doch auf dem Chip und nicht auf dem PCB
KA, was ist das SI?
Der Controller liegt auf jeden Fall auf dem Chip. Die vielen Leiterbahnen (und Anschlüsse zum PCB), die so gerne vermieden werden (siehe GTX 960) und Chips fallen weg und das ist viel.

uweskw
2015-04-10, 09:50:48
Eigentlich sind die roten Kästchen völlig fehlplaziert. Das obere rote Kästchen nimmt auf der linken seiten ein paar Pixel vom Power Connector mit und auf der rechten Seite ist noch deutlich Platz bis zur Kante.

Ist schon richtig, das ist übertrieben dargestellt. Ändert aber nichts daran, dass der Schriftzug trapezförmig ist, also aus einer anderen Perspektive als die Karte aufgenommen.

Loeschzwerg
2015-04-10, 09:53:33
Nein.

Bitte um genauere Ausführung, denn durch kürzere Leitungswege hast du weniger Widerstand und letztendlich hat man nur noch mit einem "Verbraucher" zu kämpfen. Die Frage ist nur wie sehr es ins Gewicht fällt, aber ich kann mir schon vorstellen dass man hier so einiges optimieren kann.

Dural
2015-04-10, 09:56:59
Wir reden hier von Strom, der geht bevor es bei dir aus der Steckdose kommt km weit durch Leitungen, der Verlust auf wenige cm bezogen dürfte gegen Null gehen. :rolleyes:

Zudem ich sehr Starke Zweifel habe das man überhaupt ein Interesse daran hat die Spannungsversorgung so nah wie möglich bei der GPU zu haben, Thermische Belastung und so... :rolleyes:

Loeschzwerg
2015-04-10, 10:01:02
Es reicht doch schon wenn man dadurch kleinste Schwankungen bei der Spannung ausgleichen kann. Ich denke da eher in die Richtung von Intel IVR, auch wenn das bei Fiji natürlich nicht in den DIE wandert.

Aber gut ich bin kein E-Technik Ingenieur.

Edit: Warum eigentlich gleich diese pissigen Rolleyes Smilies?

AngelDust 32
2015-04-10, 10:04:36
Die Leiterbahnen vom SI zum Ram liegen aber sehr wohl auf dem PCB.

Ich dachte die liegen lose in der Verpackung :-)

Hübie
2015-04-10, 10:12:26
Warum schmeißt Intel IVR wohl wieder über Bord? Der Logik einigen hier zu Folge müsste Hawaii ein größeres PCB haben als Pitcairn (512 vs 256 Bit).
Wie jemand vorher sagte: Man spart wohl layer. Obwohl das bei Fiji ja erst mal nur spekulativ ist. Titan hat afaik 12 layer. Mal sehen.

Unicous
2015-04-10, 10:23:33
IVR wird wahrscheinlich nach Skylake wieder Einzug finden. Das R&D Team in Haifa war aber anscheinend nicht mit der Implementation zufrieden und deswegen haben sie es "rausgeschmissen".

r-or
2015-04-10, 11:54:08
Wir reden hier von Strom, der geht bevor es bei dir aus der Steckdose kommt km weit durch Leitungen, der Verlust auf wenige cm bezogen dürfte gegen Null gehen. :rolleyes:
Das ist als würde der Neurochirurg sagen, 'oh! Naja, letztens hab ich mich beim Abspühlen auch in den Finger geschnitten, wird schon nichts sein'

Aber im Ernst, die ohm'schen Verluste sind natürlich besonders gravierend bei GPUs, CPUs und deren Versorgungsspannungen (hohe Stromstärken, niedrige Spannungen).

Und natürlich die Reaktion auf Lastwechsel... nicht umsonst hat Intel die Power Mosfets bei Haswell auf das Die gezogen. Natürlich wird auch das Board dadurch günstiger.

Dural
2015-04-10, 12:41:24
und ändert das mit der neuen Architektur wieder.

Zudem Intel dies wegen dem Idle Verbrauch getan hat, und nicht wegen dem Last Verbrauch. Und vor allem wurde es wegen dem Notebook Bereich gemacht und nicht für den Desktop.

Wie gesagt, auf einer Grafikkarte kann man dies sicher Messen, jedoch wird das kaum eine Auswirkung auf das Produkt für sich haben.

StefanV
2015-04-10, 13:34:52
Warum schmeißt Intel IVR wohl wieder über Bord?
Weil es, laut Aussage einiger hier im Forum, sehr anspruchsvoll zu implementieren ist. Und man die Resourcen da wohl für andere Dinge lieber aufgewendet hat als IVR wieder zu integrieren...


Der Logik einigen hier zu Folge müsste Hawaii ein größeres PCB haben als Pitcairn (512 vs 256 Bit).
Wie jemand vorher sagte: Man spart wohl layer. Obwohl das bei Fiji ja erst mal nur spekulativ ist. Titan hat afaik 12 layer. Mal sehen.
Ja, man spart hier einiges an Platz.
Du kannst das gesamte Speicherinterface raus schmeißen.
Stell dir mal vor, wie eine Karte ohne Speicherinterface ausschauen könnte...
Insbesondere 'ne High End Karte.

Kurzum:
Prinzipiell kann das PCB nur halb so groß ausfallen -> siehe Radeon HD5770 als Referenz, denk dir jetzt die Speicherchips weg und dafür deutlich potentere Spannungsregler hin...
Man kann auch sehr viele Layer einsparen, da ich denke, dass ein Großteil der Komplexität des PCBs vom Speicherinterface abhängt...

Best Case wäre, dass man hier von 8-12 Layer auf 2-4 Layer runter könnte...

Hübie
2015-04-10, 18:18:58
Das glaube ich erst wenn ich es sehe. Also argumentiere du ruhig weiter :cool:

OBrian
2015-04-11, 08:52:08
Dir Frage ist, wie weit man auch die Stromversorgung vereinfachen kann. Es muß zwar dann nur noch das Hauptpackage versorgt werden und nicht mehr auch noch soundsoviele RAMs, aber allein die hohe Leistungsaufnahme erfordert ja gewissen Aufwand.

Und es muß ein großer Kühler befestigt werden, der die Hitze auf möglichst breiter Fläche aufnehmen soll, d.h. die Stromversorgung sollte einige Zentimeter vom Chip entfernt sein.

Das PCB wird sich also nicht so klein kriegen lassen wie ein 5-€-USB-Controller. Aber deutlich einfacher wird es definitiv.

basix
2015-04-11, 11:41:09
Wir reden hier von Strom, der geht bevor es bei dir aus der Steckdose kommt km weit durch Leitungen, der Verlust auf wenige cm bezogen dürfte gegen Null gehen. :rolleyes:

Nun ja, ich würde sagen das ist "leicht" falsch ;D

Verluste in einem Leiter brechnen sich mit I2 * RLeiter, und I steigt natürlich mit sinkender Spannung bei gleichbleibender Leistung linear an (wissen ja wohl die meisten hier: P=U*I). Über etliche Kilometer ist das nur wirtschaftlich, wenn man sehr hohe Spannungen hat, darum auch >100kV für Überlandleitungen etc.

Wieso sind also Leiterbahnen für die Stromversorgung so breit? Um den Widerstand möglichst gering zu halten, ansonsten würden sie wegschmelzen (alles schon erlebt, bei z.B. 100A schmilzt auch ein Netzkabel fast weg und mit schmelzen meine ich das Kupfer). Und mit den ganzen Wechselstrom / Hochfrequenz-Effekten will ich gar nicht erst anfangen. Die sind auch eher suboptimal für Leitungsverluste (Beispiel: Grosse Untersee Stromleitungen wie z.B. zwischen Dänemark und Schweden sind sehr häufig DC).

Also Null ist es definitiv nicht, verglichen mit der gesamten Grafikkarte aber sicher nicht >1% durch Leitungsverluste auf dem PCB (rein DC, AC siehts evtl. ander aus). Sonst hätten die Ingenieure Mist gebaut ;)

moonraker
2015-04-11, 12:42:27
Stimmt genau,

speziell der Leitungsquerschnitt dürfte nicht allzu groß sein auf dem PCB.
Die Kupferschicht ist ja sehr dünn.

Wenn man mal 2,5mm² annimmt -was natürlich komplett danebenliegen kann- wären das bei 250W und 1,1V ca. 40W für 8 cm Leitung.
Wenn man das auf 5cm reduzieren könnte wären es schon ca. 10W weniger Verlustleistung an der Spannungsversorgung.

Wie gesagt, Leitungsquerschnitt könnte ziemlich daneben liegen.

robbitop
2015-04-11, 12:46:40
Warum schmeißt Intel IVR wohl wieder über Bord?
Ich meine das wurde irgendwo schon begründet. Sie haben den FIVR rausgeschmissen, weil es zu viel auf einmal wurde und sie es nicht mehr geschafft haben. Der kommt später wieder rein.

Intel hat zu Haswell ja mal genauer erklärt, was der bringt. Auch AMD arbeitet laut Roadmap dran. Wenn das sinnlos wäre, hätte Intel es nicht zu Haswell gemacht (und nach Skylake wieder) und AMD würde nicht dran arbeiten.

HarryHirsch
2015-04-11, 12:55:24
Das Logo ist definitiv ein Fake, wie man an dem viel zu breiten F erkennen kann.

bleibt die frage warum man das xfx-logo faken sollte und welche aktuelle xfx-karte diesen kühler verbaut hat.
die google-bildersuche zeigt keine xfx mit so einem kühler.

robbitop
2015-04-11, 13:06:26
Macht für mich auch keinen Sinn. Wer weiß, wie gut der Typ die Verzerrung rausgerechnet hat. Sah auf den ersten Blick eher gepfuscht aus.

derguru
2015-04-11, 13:13:30
kann eigentlich kein fake sein.

ComputerBase kann die Authentizität der Aufnahmen auf Basis eigener Informationen bestätigen.
quelle (http://www.computerbase.de/2015-04/radeon-r9-390-amds-fiji-pro-von-xfx-abgelichtet/quelle)

reaperrr
2015-04-11, 13:30:01
Mal ne ganz spektakuläre Vermutung:

Da augenscheinlich die 260/270 jeweils zur 360/370 werden, wird vielleicht auch Tonga 380er Serie, Hawaii 390er und Fiji 395(X)?

Elite_Warrior
2015-04-11, 14:36:36
Nun, da wir die 370? geleakt bekommen haben und die 390 Fiji sein wird, ist da nicht viel Platz dazwischen. Entweder bleibt Tonga nur ein einmaliges Ding und wandert nur noch bei Apple rein oder man wird mit der Bezeichnung etwas stauchen müssen(Allein mit dem Entfall von Tahiti wird wohl Tonga als Leistungslücke hinhalten).
Also 380 Tonga; 385 Hawai; 390 Fiji. Irgendwie kann ich mir da auch nicht viel Reim machen.

Knuddelbearli
2015-04-11, 14:45:37
kann eigentlich kein fake sein.


quelle (http://www.computerbase.de/2015-04/radeon-r9-390-amds-fiji-pro-von-xfx-abgelichtet/quelle)

CB hat sowas schon min 1 mal behauptet und es wa dann doch ein fake

StefanV
2015-04-11, 14:53:38
Es besteht ja auch noch die Möglichkeit, dass Tonga 370X wird. Oder 380 und Hawaii dann 380X.

Das kann man ja auch nicht völlig ausschließen.

Hübie
2015-04-11, 16:19:41
Scheiß auf die lahmen Gurken. Fiji scheint das einzig interessante zu sein. Um noch mal auf die PCB-Diskussion zurück zu kommen: Im Institut arbeiten wir ständig daran Technik auf möglichst kleinen Raum zu bekommen. Darunter sind Interposer mit FPGAs auch ein wichtiger Ansatz. Die sparen laut Aussagen Fläche aber kaum Volumen. Also so ein PCB ist kleiner, nur ist die Stromversorgung gleich wenn nicht sogar aufwändiger. Das was man am PCB in Geldform spart gibt man doppelt und dreifach wieder aus. Je kleiner etwas ist desto teurer.
Inwieweit das nun auf GPUs übertragbar ist kann ja niemand hier beantworten da die Erfahrungen fehlen. Aber ich gehe nach wie vor davon aus dass ein PCB nicht kürzer oder schmaler wird als bisher. Man erspart sich wohl ein paar layer.

ps: Ich habe gestern einen FPGA für mehrere Tausender gesehen :eek: Und wir schimpfen über die Preise von Grakas X-D

Edit: Also im Klartext: Ihr habt grundsätzlich recht dass ein PCB kleiner werden könnte. ;) Lassen wir uns überraschen. Ich irre ja gerne wenns positiv ist.

maguumo
2015-04-12, 02:47:12
Das Design von der geleakten (oder gefakten) Fiji Karte erinnert mich vom Design her übrigens irgendwie an Deus Ex: Human Revolution. Da kommt wohl bald auch ein neuer Teil, vielleicht wird's ja damit gebundlet...

Unicous
2015-04-12, 10:49:59
DX kommt doch nicht innerhalb der nächsten zwei Monate oder gar in einem halben Jahr. Release ist doch mit hoher Wahrscheinlichkeit erst 2016.

Trap
2015-04-12, 11:28:28
ps: Ich habe gestern einen FPGA für mehrere Tausender gesehen :eek:
Die Topmodelle da sind doch schon seit Jahren 5-stellig: http://www.buyaltera.com/scripts/partsearch.dll?Detail&name=EP4SE820F43I3-ND (Mindestbestellmenge 12 :D)

HOT
2015-04-12, 11:32:14
Das Design von der geleakten (oder gefakten) Fiji Karte erinnert mich vom Design her übrigens irgendwie an Deus Ex: Human Revolution. Da kommt wohl bald auch ein neuer Teil, vielleicht wird's ja damit gebundlet...
http://www.gamestar.de/spiele/deus-ex-mankind-divided/artikel/deus_ex_mankind_divided,52180,3084646.html

maguumo
2015-04-12, 14:16:59
Hätte ich vorher mal überprüfen sollen wann das Spiel denn kommt...

redfirediablo
2015-04-12, 14:51:56
Wann kommt sie denn nun? Die 390X bzw. Fiji?

Ganz ehrlich, wenn ein Produkt schon monatelang fertig ist und nur wegen Treiberarbeit verzögert werden muss, dann ist das eine absolute Katastrophe in so einem schnelllebigen Markt. Da entwickelt man für viele Millionen Dollar ein neues Produkt und kann es nicht auf den Markt bringen, weil man vergisst mal 5 Treiberhanseln einzustellen. Da hat man bei AMD wohl am falschen Ende gespart...

Unicous
2015-04-12, 15:02:49
Da hier keiner Einblicke in die internen Abläufe bei AMD hat, ist es eher müßig darüber zu debattieren. Sie haben anscheinend einen Plan. Ob der nachvollziehbar und im Endeffekt Erfolg verspricht, wissen wir erst wenn die neuen SKUs veröffentlicht wurden.

Und die Treibersache ist sicherlich nur ein Puzzleteil. Irgendeine Strategie werden sie schon verfolgen. Vllt. wissen sie ja etwas über Nvidias roadmap, was wir nicht wissen. Z.B. könnte es ja sein, dass Nvidia für die neue Generation länger braucht und AMD nur wartet bis Nvidia ihr "Pulver" verschossen hat. Früher war es ja meist andersrum. AMD hat released und Nvidia konnte ein paar Wochen/Monate später entsprechend reagieren.

Oder es können auch wirklich gravierende Probleme bei Fiji geben, die so nicht antizipiert wurden. Da nützt es dann auch nichts, wenn schon seit Monaten Testchips im Umlauf sind.

Man kann nur spekulieren, plausible Gerüchte zu den Verzögerungen gibt es nicht. Der Treiber allein kann es wie gesagt mE auch nicht sein.

uweskw
2015-04-12, 15:47:00
.....
Oder es können auch wirklich gravierende Probleme bei Fiji geben, die so nicht antizipiert wurden. Da nützt es dann auch nichts, wenn schon seit Monaten Testchips im Umlauf sind.

......


Klar, da muss etwas tierisch in die Hose gegangen sein. Freiwillig würden die niemals den Markt solange vernachlässigen. Lassen die BWLer gar nicht zu.

greetz
U.S.

Unicous
2015-04-12, 15:54:25
Doch. Gerade die BWLer sagen: Ey, Leute. Ihr wisst aber schon dass wir hier noch eine Halde voll Chips vom letzten Jahr haben. Wie wäre es wenn wir die erst mal verkaufen. Abschreiben wäre nämlich nicht so cool.

Das denke ich nämlich insgeheim immer noch. Sie wollen ihr altes Zeug loswerden, es klappt nur nicht. Das mit dem Treiber hört sich IMHO nach einer Schutzbehauptung an, die ein Mitarbeiter vor lauter Verzweifelung rausgehauen hat und wo ein kleiner Kern Wahrheit drinsteckt.

Ich finde es aber extrem krass, das so gar nichts nach außen dringt. Also wirklich gar nichts. Da werden ja mehr Infos von Nvidia und Intel geleaked. Und wir kämpfen hier eigentlich nur mit leaks die u.U. fake sind, oder z.b. auch veraltete Infos beinhalten.

uweskw
2015-04-12, 15:59:46
Tja, da sieht man auf wessen Seite die ganzen HW-Mags stehen. Will sich halt keiner mehr mit einem Herstelle verscherzen

Schaffe89
2015-04-12, 16:00:23
Probleme wird es nicht geben, wenn jetzt schon Customdinger auf dem Weg sind.
DAs einzige Problem was ich jetzt hab, ist nach Kauf einer Titan X der Wertverfall derer.
Und ich hab irgendwie so das Gefühl dass der ziemlich extrem wird.

In ein paar Wochen könnte es sein, dass die Titan X entweder stark im Preis fallen wird, oder so uninteressant wird, dass sie mir keiner abkaufen will.
Deswegen hab ich das Ding für 1120 in Ebay verhökert.

Das denke ich nämlich insgeheim immer noch. Sie wollen ihr altes Zeug loswerden, es klappt nur nicht. Das mit dem Treiber hört sich IMHO nach einer Schutzbehauptung an, die ein Mitarbeiter vor lauter Verzweifelung rausgehauen hat und wo ein kleiner Kern Wahrheit drinsteckt.

Ich verstehe nicht, warum AMD die 3,5GB Geschichte nicht mehr ausgeschlachtet haben.
Wenn bei MIndfactory eine Werbung eingeblendet würde, lieber 4GB statt 3,5GB bei der GTX 970, wären sicherlich nicht soviele GTX 970 verkauft worden.

dildo4u
2015-04-12, 16:47:31
Probleme wird es nicht geben, wenn jetzt schon Customdinger auf dem Weg sind.
DAs einzige Problem was ich jetzt hab, ist nach Kauf einer Titan X der Wertverfall derer.
Und ich hab irgendwie so das Gefühl dass der ziemlich extrem wird.

In ein paar Wochen könnte es sein, dass die Titan X entweder stark im Preis fallen wird, oder so uninteressant wird, dass sie mir keiner abkaufen will.
Deswegen hab ich das Ding für 1120 in Ebay verhökert.



Ich verstehe nicht, warum AMD die 3,5GB Geschichte nicht mehr ausgeschlachtet haben.
Wenn bei MIndfactory eine Werbung eingeblendet würde, lieber 4GB statt 3,5GB bei der GTX 970, wären sicherlich nicht soviele GTX 970 verkauft worden.
Nvidia fällt nicht im Preis wenn AMD die selbe Leistung hat eine Custom MSI 970 ist teuer als die custom 290X von MSI.Selbst die Leaks von AMD direkt sprechen von 50% zur 290X was im Bereich der Titan X ist.

http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/

Skysnake
2015-04-12, 16:58:34
Da hier keiner Einblicke in die internen Abläufe bei AMD hat, ist es eher müßig darüber zu debattieren. Sie haben anscheinend einen Plan. Ob der nachvollziehbar und im Endeffekt Erfolg verspricht, wissen wir erst wenn die neuen SKUs veröffentlicht wurden.

Und die Treibersache ist sicherlich nur ein Puzzleteil. Irgendeine Strategie werden sie schon verfolgen. Vllt. wissen sie ja etwas über Nvidias roadmap, was wir nicht wissen. Z.B. könnte es ja sein, dass Nvidia für die neue Generation länger braucht und AMD nur wartet bis Nvidia ihr "Pulver" verschossen hat. Früher war es ja meist andersrum. AMD hat released und Nvidia konnte ein paar Wochen/Monate später entsprechend reagieren.

Oder es können auch wirklich gravierende Probleme bei Fiji geben, die so nicht antizipiert wurden. Da nützt es dann auch nichts, wenn schon seit Monaten Testchips im Umlauf sind.

Man kann nur spekulieren, plausible Gerüchte zu den Verzögerungen gibt es nicht. Der Treiber allein kann es wie gesagt mE auch nicht sein.
Oder man hat einen fetten HPC Deal und muss die erstmal beliefern.

Oder man ist einfach schneller mit der Validierung von HBM+Interposer fertig geworden als man geplant hat, weil man weniger Probleme hatte als gedacht.

Oder man ist eben doch noch nicht fertig mit der Validierung, also hat einzelne Karten am Laufen, aber eben noch keine ausgereifte Validierung für die Massenfertigung. Das kann angefangen von fehlendem Equipment bis hin zu fehlenden Slots bei Auftragsfertigern reichen.

Der Punkt ist doch, keiner hier hat ne Ahnung, warum die Karten noch nicht released werden, außer das eben schon recht lange der Termin fest steht, an dem Sie kommen sollen, und Sie da auch scheinbar wirklich kommen wie es bisher aussieht.

So lange man im Zeitplan ist, kann man eigentlich nicht groß Meckern meiner Meinung nach.

reaperrr
2015-04-12, 17:10:13
Nun, da wir die 370? geleakt bekommen haben und die 390 Fiji sein wird, ist da nicht viel Platz dazwischen.
Was ich meinte: Ich vermute, dass das Foto kein Fake, aber auch kein Fiji ist. Die 390 wird meiner Vermutung nach eine Hawaii/Grenada-basierte Karte.

rentex
2015-04-12, 18:26:35
Na ja, das Pläne nicht unbedingt immer aufgehen, sollte auch AMD wissen...hoffen wir mal des es gut geht. Die Leistung muss wohl stimmen.

Hübie
2015-04-12, 18:59:20
Also wenn das nach Plan läuft dann ist der erst mal scheiße. Aber das beurteilen wir dann Ende des Jahres.

MR2
2015-04-12, 20:43:20
Würd ich auch sagen. Ne neue Grafikkartenserie kurz vorm Sommer?
Da haben die Mehrheit der Leute anderes zu tun als ne Grafikkarte zu kaufen und zu spielen...Im Herbst macht Sinn...aber im Sommer?
Wenn es denn Verzögerungen gibt kommen hoffentlich gleich CustomDesign aka VaporX.

ndrs
2015-04-12, 22:35:22
Würd ich auch sagen. Ne neue Grafikkartenserie kurz vorm Sommer?
Da haben die Mehrheit der Leute anderes zu tun als ne Grafikkarte zu kaufen und zu spielen...Im Herbst macht Sinn...aber im Sommer?
Wenn es denn Verzögerungen gibt kommen hoffentlich gleich CustomDesign aka VaporX.
Naja, nur was hätte man bis Herbst noh groß ändern/verbessern sollen? Den Preisverfall nach Relesa kann man aktuell wohl eher vernachlässigen (Oder wieviel haben nVidia's HighEnd-Modelle seit Release nachgegeben?) Wenn man die Möglichkeit hat vor Release der GTX980TI oder was auch immer noch ein paar Käufer mitzunehmen, warum sollte man das nicht tun? Oder allein schon wenn auf die GTX980 & Co ein wenig Preisdruck ausgeübt wird lohnt sich das.

Also ich sehe im aktuellen Markt keinen Vorteil im absichtlichen Warten.

Kriton
2015-04-12, 23:13:35
Würd ich auch sagen. Ne neue Grafikkartenserie kurz vorm Sommer?
Da haben die Mehrheit der Leute anderes zu tun als ne Grafikkarte zu kaufen und zu spielen...Im Herbst macht Sinn...aber im Sommer?
Wenn es denn Verzögerungen gibt kommen hoffentlich gleich CustomDesign aka VaporX.

Witcher 3.

Hübie
2015-04-13, 07:44:00
Öhm. Nee. TWIMTBP-Titel werden seitens AMD wohl nicht aktiv mit neuer Hardware bedient ;) Holiday-seasons bei den Amis löst auch immer ne Welle von Hardwarekäufen aus.

Datarecovery09
2015-04-13, 07:47:15
Ist ja auch nicht so dass in Zukunft keine attraktiven Spiele mehr erscheinen - The Division, Battlefront, Mass Effect... es wird immer einen Grund geben aufzurüsten.

HOT
2015-04-13, 17:41:43
Den Launchzeitpunkt Juni ist sicherlich durch die ganzen Planänderungen und den Wechsel zu GloFo entstanden. Man wird einfach die ursprünglichen Planungen für den Rest von VI und von PI komplett über den Haufen geworfen haben.
Ich würd sogar sagen, es gibt gar keinen Fiji (oder 500mm² 28nm-Chip) mehr. Das ist mMn alles alte Planung gewesen und gecancelt worden in 2014. Ich wette der 500mm²-Chip sollte eigentlich zusammen mit Tonga erscheinen und war gleiches GCN-Level wie Tonga und von TSMC mit GDDR5 (erinnert sich noch wer an die Synopsys-Folie?). Das war sicherlich Maui (nicht Fiji; Tonga -> Maui gleiches Fontend, Maui einfach doppelte CUs und Speicherinterface von Tonga).
Das ist nur alles wild durcheinandergeworfen worden und wir sind da wohl auch auf einen riesen Haufen schlechter Fakes reingefallen.

Hübie
2015-04-13, 17:47:52
Wie kommst du denn darauf? :| Klar sind wir auf einen Haufen schlechter Fakes hereingefallen aber Fiji wird kommen. Man muss ja auch liefern. Sonst kann man sich gleich einmotten.

dargo
2015-04-13, 17:55:08
Nvidia fällt nicht im Preis wenn AMD die selbe Leistung hat eine Custom MSI 970 ist teuer als die custom 290X von MSI.
:rolleyes:
Dein Gedächtnis scheint nicht das beste zu sein.
http://www.computerbase.de/2013-10/nvidia-senkt-geforce-gtx-780-und-770-im-preis/

HOT
2015-04-13, 18:00:00
Nein, es kommt mMn kein Fiji. es kommt ein Bermuda, aber das wohl erst gegen Herbst.
Ich wette, das sieht alles so aus:

R7 350x/360 und R9 370 -> OEM-Renames bekannter Chips
XFX 390 -> Fake
Tonga 350mm² 32CUs -> kein Cancel wegen Apple
Maui 500mm² 64CUs -> Schwesterchip cancel wegen zu guten Fortschritten bei 14nm

Pirate Islands -> Ursprünglich Nachfolgegeneration von VI bei TSMC -> kompletter Cancel, alles was Fiji + HBM betrifft durch die Bank purer Fake-Blödsinn.

Bermuda -> erst Pirate Islands zugeordnet, aber erster 14nm "Pionier-Chip" für GloFo (sowas ähnliches wie Tahiti war, der war GCN-Pionier), wird jetzt Caribbean-Islands zugeordnet, erscheint nicht vor Herbst mMn, vielleicht sogar erst wenn HBM2 verfügbar ist.

Bisher bekannte Codenamen:
Tobago (sicherlich maximal 10-20CUs, 28nm GloFo)
Trinidad (sicherlich maximal 20-32CUs, 28nm GloFo)
Grenada (sicherlich maximal 32-48CUs, 28nm GloFo)
Antigua (total unklar, könnte Bermudas großer oder kleiner Bruder sein oder einfach der CI-Name für Bermuda oder ein nachgeschobener 28nm-Chip oberhalb von Hawaii)
Bermuda (14nm + HBM Pionierchip; Prozess läuft ja und bei AMD wird ja lt. Mitarbeiteraussagen seit geraumer Zeit an 14nm-GCN gearbeitet)
Ich glaub nicht, dass die Codenamen erfunden sind. Die werden schon irgendwo mal gefallen oder aufgetaucht sein.

Das Problem, was ich mit dem ominösen 28nm 500mm²-Monster hab, ist, dass 14nm quasi vor der Tür steht und das Teil vollkommen überflüssig ist, wenn man schon mit dem neuen Prozess arbeitet.

Übrigens ist die 200er Serie wieder gut lieferbar, die Lieferengpässe scheinen Geschichte zu sein. Sogar Bonaire ist wieder recht gut zu bekommen. Das spricht dafür, dass man die 200er noch ne Weile halten wird.

horn 12
2015-04-13, 18:31:03
Nochmals eine Halbes Jahr Durststrecke, und NV somit ein Jahr GTX 970 / 980 und halbes Jahr Titan X überlassen ,-
Nie und Niemals kann dies sich dann für AMD rechnen!

Entweder es kommt nun bald Fiji, und falls nicht kann HOT Recht behalten,- wäre aber wohl für AMD ein extrem Saurer Apfel und wohl knapp am Ruin.

Effe
2015-04-13, 18:36:24
Wenn das so sein sollte, wovon ich nicht ausgehe, dann sollte AMD schleunigts Tonga mit 4GB bringen, um was gegen die 960 in der Hand zu haben.
Die 280er gehen immer mehr aus dem Markt raus. Wenn nichts wirklich Neues kommt, muss Tonga mit 4GB kaufbar werden.
Erst die Woche haben mich 2 Freunde gefragt, was es für 220€ so gibt. Einen 3 Jahre alten Chip von AMD(Tahiti) und eine überteuerte Midrangekarte (GTX960). Zur 285 kann man nicht ernsthaft raten wegen der nur 2GB.
Einer hat nun die 280X genommen und einer die noch merh überteuerte 960 mit 4GB

Sunrise
2015-04-13, 18:39:27
HOT, es gibt mehr als genug Hinweise auf Fiji. Man cancelt doch in AMDs Lage keinen Chip der schon seit Monaten fertig ist und in den bereits Millionen an R&D eingeflossen sind.

Sehr früh 2016 wird Pascal kommen (nicht unbedingt GP100, aber sicher GP104), da hätte AMD jetzt noch ein halbes Jahr und das Weihnachtsquartal gerettet.

Ebenso mit dem Hintergrund, das AMD mehrfach auf H2 hinwies und darauf Marktanteile zurückzugewinnen.

Sowas passiert nur dann, wenn auch etwas Großes gelauncht wird.

Einerseits argumentierst du, dass AMD etliche neue ASICs auflegt, was auch wieder Millionen kostet und dann sagst du es gibt keinen Fiji.

Also dich hätte ich nicht gerne als Finanzchef oder Entscheider, dann wäre eine Firma von heute auf morgen sofort pleite. Du kannst doch nicht in einem Vakuum spekulieren, AMD hat sehr knappe Ressourcen und solche Stunts wären absolut das Ende.

Als hätte AMD unbegrenzt Barmittel zur Verfügung.

Auch die Geschichte mit Fiji bzw. Bermuda auf 14nm ist absoluter Käse, daran kannst du frühestens Q1/Q2 2016 denken, bzw. wenn Arctic Islands dann geplant erscheint. Dann ist auch HBM2 besser verfügbar.

Ravenhearth
2015-04-13, 18:48:12
HOT lebt doch eh in seiner eigenen Welt.

horn 12
2015-04-13, 19:12:46
Karten werden Tag für Tag weniger und hier meine ich speziell die R9 290
HIS ICQ² , PCS+ Turboduo sind nur mehr wenige vereinzelt Lieferbar!

Aussgenommen Sapphire, da wimmelt es nur so von Angeboten und denke jene haben am meinsten Chips auf Halde liegen da "First" Abnehmer bei AMD, ähnlich wie bei NV ---> EVGA

Sollte in etwa hinkommen, könnten in circa 4-5 Wochen die Karten doch recht rar werden.
Zumindest die R9 290-er Karte.

CD-LABS
2015-04-13, 20:44:05
naja, selbst 4x1.1 hält noch gut mit,so gut hätte ich es nicht mal erwartet.(nur 4k werte angeschaut)
Was ja aber auch bei den allgemein niedrigen FPS-Werten in 2160P kein Wunder ist---drei Millisekunden Latenz machen halt eher wenig aus, wenn die Grafikkarte vollkommen unlimitiert 33 ms brauchen würde---hat man ein höheres FPS-Ziel, sieht es aber halt schon viel schlimmer aus! Aber ja, wenn man die Auflösung sehr hoch schraubt, nimmt der PCIe-Anteil ab!

CD-LABS
2015-04-13, 20:48:59
Karten werden Tag für Tag weniger und hier meine ich speziell die R9 290
HIS ICQ² , PCS+ Turboduo sind nur mehr wenige vereinzelt Lieferbar!

Aussgenommen Sapphire, da wimmelt es nur so von Angeboten und denke jene haben am meinsten Chips auf Halde liegen da "First" Abnehmer bei AMD, ähnlich wie bei NV ---> EVGA

Sollte in etwa hinkommen, könnten in circa 4-5 Wochen die Karten doch recht rar werden.
Zumindest die R9 290-er Karte.
Die viel interessantere Frage ist doch, ob AMD endlich die verbleibenden Tahiti-basierten Karten loswird! Ich mein nur: Stellt euch mal vor, dass immer noch welche von den Dingern rumliegen würden---dann müsste AMD die ja NOCH MAL rebranden... :ucrazy3::uexplode:

Korvaun
2015-04-13, 21:30:17
Es mag ja sein das 14nm so langsam in Schwung kommt (spez. im Smartphone-Bereich) aber eine Desktop-GPU ist da wohl nen anderer Kaliber. Ich rechne nicht vor Anfang 2016 mit irgend welchen 14nm GPUs. Top-GPU eher Richtung Mitte 2016. AMD muss was liefern auf der Computex, sonst siehts wirklich düster aus.

NV würde sich wohl freuen wenn von AMD nix ausser jämmerliche rebrands kommt. TITAN unangefochten und ohne Konkurrenz an der Spitze, die kleineren Klassen hat man mit der "Effizienz-Keule" im Griff, da klingelt die Kasse, mindestens bis die 14nm Generation kommt :)

HOT
2015-04-13, 22:23:05
HOT lebt doch eh in seiner eigenen Welt.
Mit sehr viel Spass möchte ich hinzufügen ;).


Man kann ja auch evtl. was liefern. Man wird sogar ganz sicher was liefern zur Computex. Aber was wird sich zeigen. Ich vertraue jedenfalls keiner Leak-Folie mehr.

Sunrise
Das was ärgerlich wäre, ist, dass man dann die Maske und das Tapeout fürn Popo gemacht hat. Aber was nützt es, wenn so ein Chip einfach nicht konkurrenzfähig wäre. Man vertraut ja auch Tonga nicht wirklich, sonst hätte man Tahiti ersetzt. Nun gut, 3 GB kommen AMD auch billiger als 4.

Es mag ja sein das 14nm so langsam in Schwung kommt (spez. im Smartphone-Bereich) aber eine Desktop-GPU ist da wohl nen anderer Kaliber. Ich rechne nicht vor Anfang 2016 mit irgend welchen 14nm GPUs. Top-GPU eher Richtung Mitte 2016. AMD muss was liefern auf der Computex, sonst siehts wirklich düster aus.

Wenn an den Kommentaren der AMD-Mitarbeiter in den sozialen Netzwerken was dran ist, arbeitet man schon seit Mitte 2014 am 14nm-Silizium. Das ist auf jeden Fall genug Zeit. Und die Fab8 ist groß. Vielleicht schafft man es nicht bis Sommer, dann müssten die Dinger jetzt in Massenproduktion gehen, aber bis Herbst müsste realistisch sein. Stellt sich nur die Frage ob man auf HBM2 wartet.
[...]

maguumo
2015-04-13, 23:05:41
Wenn an den Kommentaren der AMD-Mitarbeiter in den sozialen Netzwerken was dran ist, arbeitet man schon seit Mitte 2014 am 14nm-Silizium. Das ist auf jeden Fall genug Zeit. Und die Fab8 ist groß. Vielleicht schafft man es nicht bis Sommer, dann müssten die Dinger jetzt in Massenproduktion gehen, aber bis Herbst müsste realistisch sein. Stellt sich nur die Frage ob man auf HBM2 wartet.

Das sie schon recht lange daran arbeiten dürfte klar sein, nur ob der Prozess selbst schon so weit ist? Was wird da bis jetzt gefertigt, ein paar kleine mobile SoCs. Gibt's einen für GPUs geeigneten HP Prozess überhaupt schon? Ich denke nicht das wir da dieses Jahr überhaupt noch GPUs drauf sehen...

Skysnake
2015-04-13, 23:09:28
Wenn an den Kommentaren der AMD-Mitarbeiter in den sozialen Netzwerken was dran ist, arbeitet man schon seit Mitte 2014 am 14nm-Silizium. Das ist auf jeden Fall genug Zeit. Und die Fab8 ist groß. Vielleicht schafft man es nicht bis Sommer, dann müssten die Dinger jetzt in Massenproduktion gehen, aber bis Herbst müsste realistisch sein. Stellt sich nur die Frage ob man auf HBM2 wartet.
Wer sagt denn, das es überhaupt genug 14/16/20nm Kapazitäten gibt, damit AMD oder nVidia was produzieren lassen können? Ich glaube mal nicht, das ihr neu Karten in homöopatischen Dosen haben wollt.

Man sollte sich vielleicht mal anschauen, wer denn aktuell in den neuesten Nodes was produziert, und in wievielen unterschiedlichen FABs/Auftragsfertigern.

Für mich sieht das nicht danach aus, als ob da für Player wie AMD und nVidia ernsthaft Kapazitäten frei wären in absehbarer Zeit, geschweige denn jetzt.

Raff
2015-04-13, 23:11:29
Karten werden Tag für Tag weniger und hier meine ich speziell die R9 290
HIS ICQ² , PCS+ Turboduo sind nur mehr wenige vereinzelt Lieferbar!

Aussgenommen Sapphire, da wimmelt es nur so von Angeboten und denke jene haben am meinsten Chips auf Halde liegen da "First" Abnehmer bei AMD, ähnlich wie bei NV ---> EVGA

Sollte in etwa hinkommen, könnten in circa 4-5 Wochen die Karten doch recht rar werden.
Zumindest die R9 290-er Karte.

Parallel steigen die Preise immer weiter. Die R9 290 war vor zwei Monaten noch bei 250 Euro, nun 280; die R9 280 ging von 180 auf 200 hoch. Alles grobe Zahlen, aber mit eindeutiger Richtung. Wenn das so weiter geht, sehen die Geforce-Karten, speziell die GTX 960 mit 4 GiB, plötzlich gar nicht mehr so überteuert aus. :ugly:

MfG,
Raff

horn 12
2015-04-13, 23:16:38
Wohl dem Dollar zu schulden, aber auch der sicherlich besseren Absetzbarkeit der R9 290 gegenüber der GTX 970.

dargo
2015-04-13, 23:22:22
Parallel steigen die Preise immer weiter. Die R9 290 war vor zwei Monaten noch bei 250 Euro, nun 280; die R9 280 ging von 180 auf 200 hoch. Alles grobe Zahlen, aber mit eindeutiger Richtung. Wenn das so weiter geht, sehen die Geforce-Karten, speziell die GTX 960 mit 4 GiB, plötzlich gar nicht mehr so überteuert aus. :ugly:

MfG,
Raff
Das seltsame dabei... bei manchen Karten hat sich sehr wenig bis gar nichts am Preis geändert.
http://geizhals.at/de/?phist=1167956
http://geizhals.at/de/?phist=1189866

Gerade bei dem höheren Preisgefüge müsste sich der schwächere Euro stärker auswirken.

PuppetMaster
2015-04-13, 23:49:23
Beide Karten sind wohl schon länger EU-weit nicht lieferbar.

uweskw
2015-04-14, 09:38:42
AMD hat kaum etwas gut verfügbar. Deswegen glaube ich auch nicht daran das da absichtlich, oder nur wegen Treiberkorrekturen, etwas zurück gehalten wird.

Dural
2015-04-14, 10:02:40
Wafer muss man Monate zum Voraus Bestellen, es wäre nicht das erste mal das eine Firma die benötigte Menge völlig falsch einschätzt. (Gerade bei AMD war dies ja schon öfter der Fall)

BlacKi
2015-04-14, 10:15:23
AMD hat kaum etwas gut verfügbar. Deswegen glaube ich auch nicht daran das da absichtlich, oder nur wegen Treiberkorrekturen, etwas zurück gehalten wird.

vor einigen monaten hieß es noch das amd auf seinen karten sitzen bleibt und die lager voll sind. tja, soll schnell kanns wohl manchmal gehen. scheinbar war das 970 debakel doch zu etwas gut^^

tm0975
2015-04-14, 12:34:00
mmn sind lagerbestand und vorab produzierte menge für den verkaufsstart 2 dinge, deren bedeutung für den zeitlichen produktstart gern unterschätzt wird. allerdings kann ich mir bei einer karte von mehr als 700 € startpreis kaum vorstellen, dass man da 100.000 stück für den marktstart benötigt.

Nakai
2015-04-14, 12:38:32
vor einigen monaten hieß es noch das amd auf seinen karten sitzen bleibt und die lager voll sind. tja, soll schnell kanns wohl manchmal gehen. scheinbar war das 970 debakel doch zu etwas gut^^

Naja Geizhals-Top10 bei GPUs sind durchwachsen. Sowohl AMD und NV sind verteten. Das war vor dem GTX 970-Debakel tatsächlich anders. Sagen wir es so: AMD verkauft ihre Karten. Von einem Verkaufswunder würde ich nicht sprechen.

horn 12
2015-04-14, 12:59:54
Dennoch sollten es wohl um die 20 bis 30% Mehrverkauf sein,- als vor dem GTX 970 Fiasko
Titan X ist für Insider und GTX 980 immer noch zu teuer, müsste auf 450 Euro runter...

OBrian
2015-04-14, 13:39:31
Die geringe Verfügbarkeit diverser Karten bei Händlern würde ich einfach nur auf deren Vorsicht schieben. In der aktuellen Jahreszeit geht eh üblicherweise wenig weg, und da wird sich wohl keiner viel hinlegen wollen, wenn alle von einer neuen Generation reden, die "bald" kommt. Bei der Geheimniskrämerei von AMD kriegen die das ja auch nicht früher mit als wir, also bestenfalls (inoffiziell) 2-3 Wochen vorher, und dann bricht der Markt ja komplett zusammen (auch für Nvidia), weil die paar Tage wirklich jeder noch abwartet. Als Händler stände man dann dumm da, wenn man sich noch einen Halbjahresvorrat hingelegt hätte.

MR2
2015-04-14, 23:24:17
So AMD. Jetzt paar tolle Fiji GTA V Benchmarks, Balken gut vor der TitanX und Bilder der Karte...
Aber leider..nichts...

Duplex
2015-04-14, 23:33:24
Mit 4096 Shader, Turbo & 8GB HBM wird es kein Problem sein schneller als TitanX zu sein.
Bald kommt sicher was neues.

reaperrr
2015-04-15, 00:41:26
Mit 4096 Shader, Turbo & 8GB HBM wird es kein Problem sein schneller als TitanX zu sein.
Schön wär's ja...

Aber:
- GTX 980 im Durchschnitt vor 290X, im weit verbreiteten FullHD (1080p) sogar recht deutlich
- Titan X von den Specs her GTX 980 * 1,5 (außer beim Chiptakt)
- Fiji im Vollausbau "nur" 290X * 1,45 (bei ALU/TMU, Rest ist ja noch unbekannt)

Fiji kann eigentlich nur über den Takt (der darf ohne Architekturverbesserungen -anders als bei der TitanX- nicht niedriger als beim nächstschwächeren Chip aus dem eigenen Haus sein) und die Speicherbandbreite punkten.
Ich denke, dass auch TitanX wegen DCC und hohem Speichertakt nicht nennenswert bandbreitenlimitiert ist, daher erwarte ich von HBM nur einige wenige zusätzliche Prozent ggü. 512bit-SI + DCC.

Also wenn sich am Frontend, oder ALUs/TMUs, oder Backend, oder der Taktbarkeit innerhalb einer vertretbaren TDP bei Fiji/GCN1.3 nichts größeres getan hat, erwarte ich maximal Gleichstand. GCN 1.2 + HBM würde jedenfalls IMO nicht reichen.

Dawn on Titan
2015-04-15, 07:08:08
Verfügbarkeit sagt nichts. Denn nicht nur die Ladenpreise sind gestiegen, auch die Einkaufspreise für Händler sind gestiegen und niemand legt sich jetzt alte Karten zu hohen Preisen ins Lager wenn der Sommer vor der Tür steht und mit Nachfolgern zu rechnen ist.

Hübie
2015-04-15, 07:17:50
Schön wär's ja...

Aber:
- GTX 980 im Durchschnitt vor 290X, im weit verbreiteten FullHD (1080p) sogar recht deutlich
- Titan X von den Specs her GTX 980 * 1,5 (außer beim Chiptakt)
- Fiji im Vollausbau "nur" 290X * 1,45 (bei ALU/TMU, Rest ist ja noch unbekannt)

Fiji kann eigentlich nur über den Takt (der darf ohne Architekturverbesserungen -anders als bei der TitanX- nicht niedriger als beim nächstschwächeren Chip aus dem eigenen Haus sein) und die Speicherbandbreite punkten.
Ich denke, dass auch TitanX wegen DCC und hohem Speichertakt nicht nennenswert bandbreitenlimitiert ist, daher erwarte ich von HBM nur einige wenige zusätzliche Prozent ggü. 512bit-SI + DCC.

Also wenn sich am Frontend, oder ALUs/TMUs, oder Backend, oder der Taktbarkeit innerhalb einer vertretbaren TDP bei Fiji/GCN1.3 nichts größeres getan hat, erwarte ich maximal Gleichstand. GCN 1.2 + HBM würde jedenfalls IMO nicht reichen.

Quark. Das meiste holt man über µArch raus. Sonst erkläre mir wie Maxwell mit 2048 SPs schneller ist als Kepler mit 2880 2688 wenn der Takt gleichgesetzt wird. :wink:

M4xw0lf
2015-04-15, 07:51:23
Quark. Das meiste holt man über µArch raus. Sonst erkläre mir wie Maxwell mit 2048 SPs schneller ist als Kepler mit 2880 wenn der Takt gleichgesetzt wird. :wink:
Bei gleichem Takt möchte ich das anzweifeln.

Hübie
2015-04-15, 08:00:51
Ups. Meinte auch 2688 ALUs. Raff hatte doch mal Titan gegen 980 antreten lassen. 980 war meistens schneller. Meine Aussage hat dennoch bestand.

Korvaun
2015-04-15, 08:02:00
Wenn ich mir die Benchmarks auf Computerbase so anschaue scheint ja GTAV nen ordentlicher Hardwarefresser zu sein, noch dazu recht anspruchslos was die CPU angeht. Eigentlich Ideal für nen paar Teaser-Benches von AMD. NV freuts, 970/980/TitanX sind die Top 3, alles bestens.

Hallo AMD-Marketing, jemand zuhause? Oder ham die nen Maulkorb vom Management verpasst bekommen? Gibts doch noch grössere Probleme mit Fiji?

Hübie
2015-04-15, 08:06:30
Hier der Artikel: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-980-vs-GTX-Titan-Test-Benchmarks-1136918/

Muss mich korrigieren: ungefähr gleich schnell müsste es korrekt lauten. Wie gesagt bleibt der Kern der Aussage gleich. Du holst über µArch ne Menge raus.

Nightspider
2015-04-15, 08:13:02
Für GTA5 hätte ich jetzt auch schon gerne Fiji. :usad:

Die R9 290X reicht gerade so für 1440p ohne MSAA mit leichten Slowdowns.

Das Game würde ich viel lieber in 4K spielen. :usad:

Hübie
2015-04-15, 08:18:53
Ich finde die 290X verdächtig langsam in den Benchmarks. Da klemmt viellicht was im Treiber. Mein SLi is ja schon aufgelöst... waiting for Fiji to come in :naughty:

Nightspider
2015-04-15, 08:30:48
Also in den PCGH Benchmarks liegt die 290X nicht weit hinter der 980 und Titan X.

M4xw0lf
2015-04-15, 08:56:24
Also in den PCGH Benchmarks liegt die 290X nicht weit hinter der 980 und Titan X.
Bei Guru3d sehr nah dran an der 980 und damit teils deutlich vor der 780Ti. Da kann man also sehr viel über die Settings machen ;)

Wie gesagt bleibt der Kern der Aussage gleich. Du holst über µArch ne Menge raus.
Ja gut, das stimmt zweifellos. Wenn man die ganzen Ergebnisse auf die Rohleistung normieren würde, dann wäre das auch deutlich zu sehen.

uweskw
2015-04-15, 09:19:42
Bei Guru3d sehr nah dran an der 980 und damit teils deutlich vor der 780Ti. Da kann man also sehr viel über die Settings machen ;)
.......



Eben. AMDs MarketingFuzzis sind sowas von unfähig!!! Wo bleiben die GTA V Leaks von der 390er?

greetz
U.S.

Godmode
2015-04-15, 09:33:06
Mit 4096 Shader, Turbo & 8GB HBM wird es kein Problem sein schneller als TitanX zu sein.
Bald kommt sicher was neues.

Die Frage ist eher was schneller heißt, also reichen da 5% schon oder doch eher 10% oder 20%? Warum leaked man nicht, wenn man schneller ist? Oder wollen sie gar nicht in Konkurrenz zur Titan X gehen, sondern zur 980 Ti, die ja auch schneller als eine Standard X sein könnte? Dann könnte man aber trotzdem jetzt etwas leaken. Ein guter Leak hätte mich definitiv vom Kauf der X abhalten können, wenn gar nichts kommt, dann kaufe ich eben was gerade da ist.

M4xw0lf
2015-04-15, 09:38:02
Ich sehe immer noch nicht wie ein Hawaii-plus-45% so deutlich schneller sein soll als eine TitanX... da brauchts schon größere Mengen secret sauce um auf reale Hawaii+50% oder gar +60% zu kommen, die nötig wären um wirklich schneller zu sein als die TitanX.

Pirx
2015-04-15, 09:39:48
Leaks waren bei AMD doch in den letzten Jahren immer Mangelware.

Godmode
2015-04-15, 09:45:32
Ich sehe immer noch nicht wie ein Hawaii-plus-45% so deutlich schneller sein soll als eine TitanX... da brauchts schon größere Mengen secret sauce um auf reale Hawaii+50% oder gar +60% zu kommen, die nötig wären um wirklich schneller zu sein als die TitanX.

Theoretisch hätte man um den Faktor 1,33 mehr ALUs, verglichen mit GM200. Könnte man diese auch durchgehend auslasten, wäre wohl ein netter Vorsprung möglich. Allerdings dürfte dann auch der Stromverbrauch dementsprechend ansteigen. Andererseits würde das Frontend dann größer werden und man hätte vielleicht doch nicht mehr genug Platz für 4k ALUs.

M4xw0lf
2015-04-15, 10:01:49
Theoretisch hätte man um den Faktor 1,33 mehr ALUs, verglichen mit GM200.
Äpfel vs. Birnen in Reinkultur ;)
Wohl annähernd gleiche Fläche und gleicher Transistorcount - da entscheidet also die Effizienz der Architektur. Ob nur aufgebohrtes Frontend bei Fiji so viel rausreißt gegenüber Hawaii?

Sunrise
2015-04-15, 10:34:23
Die Frage ist eher was schneller heißt, also reichen da 5% schon oder doch eher 10% oder 20%? Warum leaked man nicht, wenn man schneller ist? Oder wollen sie gar nicht in Konkurrenz zur Titan X gehen, sondern zur 980 Ti, die ja auch schneller als eine Standard X sein könnte? Dann könnte man aber trotzdem jetzt etwas leaken. Ein guter Leak hätte mich definitiv vom Kauf der X abhalten können, wenn gar nichts kommt, dann kaufe ich eben was gerade da ist.
Ich hatte hier ja schon eine selbst erstellte Tabelle auf Basis der geleakten Infos (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10564244#post10564244) gepostet mit einem Performance-Vergleich.

Wenn 290X mit 5.632 AMD-TFLOPS auf die geleakten Fiji 8.600 AMD-TFLOPS hochgerechnet wird und du von perfektem Scaling ausgehst, dann kannst du einfach jedes Benchmark-Ergebnis mit 1,5269886 multiplizieren.

Darin ist aber nicht eingerechnet, dass Fiji evtl. diverse Flaschenhälse beseitigen könnte, zudem noch HBM und evtl. verbesserte Treiber.

Es wird sich also alles zwischen >45% und ~60% Verbesserung im Vergleich zur 290X abspielen.

Die Rechnung oben funktioniert übrigens perfekt (siehe auch meine Performance-Tabelle), wenn du die 980 NV-TFLOPS auf die Titan X NV-TFLOPS hochrechnest (weil GM200 eben exakt GM204 +50% HW-seitig ist). Die Abweichung liegt hier bei nur ca. 1-2% (das kann man unter Messungenauigkeiten abbuchen).

Du kannst dir also alles jetzt schon ausrechnen, wenn du davon ausgehst, dass die geleakten AMD TFLOP-Werte stimmen.

horn 12
2015-04-15, 11:06:52
AMD ist sich Ihrer Sache zwecks Fiji wohl verdammt sicher.
Mann lässt sich wohl nicht in die Karten schauen um nicht der Konkurrenz die Chance zu geben das Produkt anzupassen zwecks der Taktraten.
Gut möglich dass man gar Titan X plus etwa 20% erreichen kann, ----> Sprich Titan X mit etwa 1400 Mhz.

Es bleibt verdammt mal spannend!

Hammer wäre: R9 390 --> Titan X Leistung für 650 Euro
R9 390X ---> Titan X Referenz plus 20% für 799 Euro inkl. AIO

Das würde NV gewaltig unter Druck setzen.

y33H@
2015-04-15, 11:14:21
Was fabulierst du eigentlich da immer zusammen? :ugly:

Kartenlehrling
2015-04-15, 11:15:55
Die Träume hatten man schon mit Hawaii.
Es wird Teuer oder soo laaala.

Dural
2015-04-15, 11:25:17
Das dumme für AMD ist, früher konnte man "gut" über den Preis gehen, das dürfte mit Fiji nicht mehr so einfach sein. Gross + Speicher + WaKü :)

Das bedeutet doch nichts anders das AMD mit Fiji liefern muss, wenn man nicht was vernünftiges liefern kann, ja dann wird sprichwörtlich nichts geliefert.

Es ist sehr ruhig, laut Asetek letztes Jahr müssten ja Karten schon in der Herstellung sein. Wenn sie das bis heute nicht sind, gab es wohl eine Verzögerung.

fondness
2015-04-15, 11:29:05
Das Produkt muss überzeugen, alles andere wie Herstellungskosten, etc. ist sekundär. R300 war auch extrem ambitioniert, gerade mit dem 256-bit SI, aber wenn das Produkt überzeugt dann wird es eben auch gekauft und dann ist es auch egal wenn man geringere Margen pro Stuck erreicht. Auch NV hatte lange viel größere Dies. Natürlich ist das ein gewisses Risiko keine Frage, einen Fiji wird man nicht verschleudern können.

Die ganzen Hochrechnungen kranken daran, dass Fiji mehr ist wie nur Hawaii mit mehr Einheiten, anders wie bei GM200 vs. GM204.

Kriton
2015-04-15, 11:32:18
Schön wär's ja...

Aber:
- GTX 980 im Durchschnitt vor 290X, im weit verbreiteten FullHD (1080p) sogar recht deutlich
- Titan X von den Specs her GTX 980 * 1,5 (außer beim Chiptakt)
- Fiji im Vollausbau "nur" 290X * 1,45 (bei ALU/TMU, Rest ist ja noch unbekannt)

Fiji kann eigentlich nur über den Takt (der darf ohne Architekturverbesserungen -anders als bei der TitanX- nicht niedriger als beim nächstschwächeren Chip aus dem eigenen Haus sein) und die Speicherbandbreite punkten.
Ich denke, dass auch TitanX wegen DCC und hohem Speichertakt nicht nennenswert bandbreitenlimitiert ist, daher erwarte ich von HBM nur einige wenige zusätzliche Prozent ggü. 512bit-SI + DCC.

Also wenn sich am Frontend, oder ALUs/TMUs, oder Backend, oder der Taktbarkeit innerhalb einer vertretbaren TDP bei Fiji/GCN1.3 nichts größeres getan hat, erwarte ich maximal Gleichstand. GCN 1.2 + HBM würde jedenfalls IMO nicht reichen.

Die 980 und Titan X haben aber auch dieselbe Architektur. Etwas, dass wir für die 290X und Fiji wohl sicher ausschließen dürften. Du deutest es am Schluss ja selber an. Wir werden sicher mehr sehen als GCN 1.2 + HBM - dafür ist zuviel Zeit seit der 290X vergangen.

horn 12
2015-04-15, 11:47:37
@Fondness

Also könnte dies so kommen wie von mir vermutet
Preis und Performance beides mal wird Titan X - GTX 9x0 TI angegriffen.

Dawn on Titan
2015-04-15, 12:03:54
1,5x Hawaii ist sehr konservativ. Man kann hier eher einen größeren Sprung erwarten, da mehr Einheiten + neue Architketur.

X.Perry_Mental
2015-04-15, 12:12:00
1,5x Hawaii ist sehr konservativ. Man kann hier eher einen größeren Sprung erwarten, da mehr Einheiten + neue Architketur.
Kann es sein, dass hier die Rohleistung und die Mehrperformance in Anwendungen bzw. Spielen durcheinandergeraten?

mironicus
2015-04-15, 12:26:17
Oder es ist nicht so positiv. Vielleicht ist AMD momentan so verzweifelt und benötigt viel Zeit um einen Treiber zu schreiben, um die Performance einer GTX 980 zuverlässig schlagen zu können. :D

horn 12
2015-04-15, 12:57:55
Ne, für die GTX 980 kommt schon eine Andere Karte...

uweskw
2015-04-15, 13:12:59
Nee, bei AMD ist wohl richtig was schief gelaufen. Freiwillig verschenken nichtmal die Vollpfosten vom AMD Marketing so viele Marktanteile.

greetz
U.S.

Schnoesel
2015-04-15, 13:19:37
Ist doch alles Gestochere im Trüben hier. Kein Mensch weiß was da los ist und da AMD alle Löcher gestopft hat bekommt man derzeit eben gar keine Infos. Möglichkeiten gibts viele: Von AMD hat gar nix zu bieten bis hin zum großen Knaller der die Titan X mal eben rasiert ist alles dabei. 4GB HBM/8GB HBM wie viel darfs denn sein. AMD selbst scheint die Ruhe weg zu haben. Der/die neue CEO hat wohl eine ganz andere Marschrichtung vorgegeben als die Vorgänger. Glauben kann man jedenfalls schon lange nichts mehr was zu AMD fabuliert wird (siehe Startseite mit angeblicher Zen-Architektur features die ja mal sowas von aus der Luft gegriffen sind)

uweskw
2015-04-15, 13:49:04
Und diejenigen die etwas wissen halten die Klappe, weil es ja doch einfach voll unfair ist NDA zu brechen, vor den Kollegen zu berichten und die Investitionen der Industrie zu gefärden:freak::freak::freak:
wir user sind halt egal.

greetz
U.S.

Kriton
2015-04-15, 13:55:29
Wir dürfen auch nicht vergessen, dass Lisa Su vom Hintergrund Technikerin ist. Die Herangehensweise ist da vielleicht eine andere als bei Read oder generell eher (rein) finanziell denkenen Managern (wobei klar ist, dass auch Su auf die Zahlen achten muss).

HOT
2015-04-15, 13:56:41
Ich nehme an, es werden überhaupt nur noch sehr wenig Personen von den Internas wissen, nicht so wie früher.
Man erfährt ja auch nicht, was sie für einen Schwachsinn machen, man erfährt einfach gar nix. Und die Gerüchte haben sich zu 99% als Blödsinn entpuppt.

Thunderburne
2015-04-15, 14:14:44
Ende Mai gibt es Bonus vielleicht fügt sich bis dorthin alles.
Eine Karte die TitanX schlägt wäre auf jeden Fall was feines.
Und hoffentlich bewahrheiten sich die 8GB.

woodsdog
2015-04-15, 17:51:39
8GB MUSS sein. Sonst ist von Anfang an Schluss. Period.

reaperrr
2015-04-15, 18:18:48
Die 980 und Titan X haben aber auch dieselbe Architektur. Etwas, dass wir für die 290X und Fiji wohl sicher ausschließen dürften. Du deutest es am Schluss ja selber an. Wir werden sicher mehr sehen als GCN 1.2 + HBM - dafür ist zuviel Zeit seit der 290X vergangen.

1,5x Hawaii ist sehr konservativ. Man kann hier eher einen größeren Sprung erwarten, da mehr Einheiten + neue Architketur.

Genau da habe ich so meine Zweifel. Zwischen GCN 1.0 und GCN 1.2 lagen auch über 2,5 Jahre, trotzdem ist die 285 nur bei viel Geometrie/Tesselation schneller als eine 280, ansonsten ist die "IPC" kaum gestiegen, pro Transistor ist sie sogar gesunken (trotz verdoppeltem Frontend, das vorher immer als vermeintlicher Hauptschuldiger für Tahitis mäßige Leistung pro ALU angesehen wurde). Ich hoffe ja selbst, dass GCN 1.3 ein etwas größerer Sprung wird und Tonga im Grunde nur ein relativ kleiner Zwischenschritt war (quasi GCN1.1 + DCC und mehr Cache), aber ich bin skeptisch. Einen Sprung wie von Kepler auf Maxwell erwarte ich bei der Architektur-Effizienz jedenfalls nicht, einfach weil es immer noch GCN ist, und selbst Kepler ist IMO insgesamt noch leicht besser als GCN 1.2, bei AMD müsste sich da schon verdammt viel tun.

Quaker
2015-04-15, 18:43:10
Man hofft ja immer das beste.
Eventuell wird es ja so ein Knaller, wie das iPhone 1 damals für Smartphones.

Super Leistung bei niedriger Leistungsaufnahme.

Wäre mal schön, wenn es eine Überraschung geben würde und nicht schon alles vorher durch leaks bekannt ist.

MfG

Hübie
2015-04-15, 19:53:02
Ich habe heute mal seit langem wieder den AMD Treiber gesehen und war positiv überrascht. Klar so kleine fails sind immer noch drin, aber Gesamteindruck war gut. Auch RAPTR lief soweit ganz gut. Wenn die Fiji softwareseitig nicht verkacken hat man imo schon viel gewonnen. Dann nur noch keinen Failfan und keine 94°C TT :naughty:
Ich erwarte nicht mal eine höhere Performance als Titan X aber zumindest einen Preis der nicht nach "Frechheit" schreit. Da ich das Leid habe Preise zu kennen fasse ich mir an den Kopf wie man auch nur ansatzweise 1200€ rechtfertigen will. Käufer sollen lieber sagen: Mir is die Kohle egal ich will Leistung. Ohne Wenn und Aber von wegen auf 5 Jahre a 5 Stunden täglich Blah Blah. ;D Anders kommt man aus der Nummer nicht raus.

Es ist übrigens schon beruhigend dass aktuell nix kommt da es auf einen Release in den nächsten 4-6 Wochen hindeuten könnte :cool:

Edit: Bezüglich Leistungsaufnahme erwarte ich gar nicht viel, da man mit Hawaii erst mal schockiert hatte. Es kann also nur noch besser werden.

uweskw
2015-04-15, 20:16:34
8GB MUSS sein. Sonst ist von Anfang an Schluss. Period.

Warum eigentlich?
Selbst unter echten 4K limitiert der Speicher einer 980er nur bei Spielen bei denen irgenwas richtig vermurkst wurde. Selbst bei GTA 5 unter3840x2160 und FXAA und 16AF limitiert nicht mal die 970er mit ihrem Krüppelspeicher.
http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/

Zudem wissen wir ja, dass AMD ne Ecke effizienter mit dem Speicher umgeht.
Also ich kann mir gut vorstellen, dass ne 390 non X mit 4GB weniger Speicherlimitiert ist als ne 980TI mit 6GB.

greetz
U.S.

AngelDust 32
2015-04-15, 20:27:47
Selbst bei GTA 5 unter3840x2160 und FXAA und 16AF limitiert nicht mal die 970er mit ihrem Krüppelspeicher.



http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2

Hier bei 2560 x 1600 schon

Thunderburne
2015-04-15, 20:27:57
@uweskw
Kauf dir ruhig eine 4GB Karte alles gut .
Ich werde das auf keinen Fall machen .
Ich lege auch schon lange nicht mehr Wert auf 20-40 Sekunden Benchmarks .
Sie sind ein kleiner Wegweiser mehr aber auch nicht für mich und das schon seit langer Zeit.

uweskw
2015-04-15, 20:52:03
http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2

Hier bei 2560 x 1600 schon

ok, die 970 mit ihrem Krüppelspeicher bricht mit MSAA ein.
Mich hätte mal die 980er unter 3.840 x 2.160 4xMSAA 16xAF interresiert

greetz
U.S.

BiG OnE
2015-04-15, 21:25:15
Ja, ist schon komisch das Hardwareluxx diese Ergebnisse uns vorenthält.

Bis denne ...

Dawn on Titan
2015-04-15, 21:27:46
Was willst Du mit Werten unter 20FPS?

krötenfresse
2015-04-15, 22:11:11
8GB MUSS sein. Sonst ist von Anfang an Schluss. Period.
hängt (momentan) bei hbm die speichergröße nicht proportional mit der speicherbandbreite zusammen?
falls ja, dann bleibt denen ja gar nichts anderes übrig

uweskw
2015-04-15, 23:13:19
Ja, ist schon komisch das Hardwareluxx diese Ergebnisse uns vorenthält.

Bis denne ...

was ich bei HWLuxx interessant finde:
bei 2.560 x 1.600 verliert die 970 durch zuschalten von 4xMSAA und 16AF 63% FPS und die 4GB 980er nur 40%. Zeigt wohl das die 970er nen Speicherkrüppel ist.
Nur wenn es an der Speichermenge liegt, warum verliert die 3GB 780Ti nur 36% ?:freak:
Unnd jetzt wird es interessant:
Während die 12GB Titan X von 2.560 x 1.600 auf 3.840 x 2.160 33% verliert kostet diese Mehrauflösung bei der 4GB 295er gerade mal 17%
http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2

Also die Menge des Speichers wird meiner Meinung nach viel zu hoch bewertet. Es kommt mehr darauf an wie man ihn einbindet. Ich bin mir sicher eine 390 mit 4GB Speicher wäre absolut passend bestückt. Nur wären unsere "Fachmedien" gar nicht in der Lage das dem Käufer zu vermitteln. Das ist wie Watt bei der Stereoanlage: Viel hilft viel und ist besser:freak: basta!
Wer schon mal eine 20000€ High-End Anlage mit 2x40 Watt gehört hat kann über den Mainstream Receiver mit 2x250 Watt nur müde lächeln.


greetz
U.S.

iuno
2015-04-15, 23:16:32
hängt (momentan) bei hbm die speichergröße nicht proportional mit der speicherbandbreite zusammen?
falls ja, dann bleibt denen ja gar nichts anderes übrig
Wieso soll nichts anderes übrig bleiben als 8 GiB? Macht doch keinen Sinn. Schließlich läge man schon mit 4 Stacks (=4 GiB*) mehr als 50% über den Bandbreiten der Titan X oder 290X.
Hier wird ja schon lange gerätselt, wie AMD(+Hynix?) mehr Speichermenge an dem wohl 4096 Bit breiten SI umsetzen könnten. Unmöglich scheint es zumindest nicht

*Das sind die seit Monaten offiziell lieferbaren Stacks lt. Hynix.


@uweskw:
Was meinst du denn mit "wie man ihn einbindet"? Das hängt von den Studios ab und sollten neue Spiele Speicherfresser sein, hat man mit zu wenig Speicher eben verloren. Wenn je nach Setting (und für 1080p braucht man auch nicht unbedingt so eine Karte) mehr als 4 GiB gebraucht werden, wird man mit einer 4 GiB Karte nicht die maximalen Einstellungen fahren können, auch wenn genug Rechenleistung da wäre. Das ist schon deprimierend, wenn man sich so ein High-End Produkt holt. Mit den Wattangaben von Lautsprechern hat das mal gar nichts zu tun.

Hübie
2015-04-15, 23:54:22
Er meinte wohl die Anbindung und Integration samt Kompression. Das verstehe ich zumindest so. Er hat auch nicht Unrecht nur ist dieser Blickwinkel zu eng. GK110 hat 240 TMUs während GM204 192 derer hat. Allein das könnte schon einen Unterschied bilden. Dazu kommen noch anderes Frontend (mit Maxwell lagert man wieder mehr in compiler / driver aus. Obendrein auch noch geänderte ROPs und eben Anzahl der Speicherkanäle (2*32*6=384@GK110 vs 2*32*4=256@GM204). Durch Interleaving kann man ja wieder Latenz "verstecken".

Ich stimme Uwe zu wenn alle effizient Programmcode nutzen / schreiben würden aber dem ist nicht so. Also wird man als dummer User gezwungen tiefer in die Tasche zu greifen.
Obwohl man rein rechnerisch auch schon 4+ GiB bräuchte um 4k+AA konstant mit 60 fps zu füttern. Am Ende ists dann aber doch komplexer ;)

uweskw
2015-04-16, 00:38:44
GTA V
Während die 12GB Titan X von 2.560 x 1.600 auf 3.840 x 2.160 33% verliert, kostet diese Mehrauflösung bei der 4GB 295er gerade mal 17%


gibt es denn irgendwo Benches bei denen die 4GB 295X2 ernsthaft durch den Speicher limitiert wird? Kaputte Spiele wie Mordors Schatten mal ausgenommen?

woodsdog
2015-04-16, 06:26:33
Warum eigentlich?
Selbst unter echten 4K limitiert der Speicher einer 980er nur bei Spielen bei denen irgenwas richtig vermurkst wurde.

Zudem wissen wir ja, dass AMD ne Ecke effizienter mit dem Speicher umgeht.
Also ich kann mir gut vorstellen, dass ne 390 non X mit 4GB weniger Speicherlimitiert ist als ne 980TI mit 6GB.

weil es für die großen Hersteller OEMs UND den non-3DCenter Nerd nicht vermittelbar ist das diese x00 Eur "High end" Karte nur so viel RAM hat wie Nvidias Mittelklasse bzw AMD's alte Karten.

Es wäre unabhängig vom Nutzen einfach eine Marketing-Katastrophe das gegen 12GB Titans und ggf 6GB 9x0 TI's zu stellen.

Davon abgesehen würde ICH persönlich auch keine "High End" karte mit nur noch 4GB kaufen wenn heute schon Games da sind die es praktisch nutzen. Das wird in Zukunft mit Sicherheit nicht anders werden.
Ich kauf aber auch nicht alle 6 monate neu....

Thunderburne
2015-04-16, 08:22:32
Cod advance warfare belegt auf einer 290X 8GB in FHD Maxout ingame Settings 7,1GB Speicher z.b Watch dogs lag glaube ich bei 4,6.
Selbst wenn ein Treiber das regelt wird ein und ausgelagert wieso sollte ich mir mir das in Zukunft antun so weis ich von Beginn an das der RAM einfach reicht.
Es gibt noch paar weitere Titel in FHD Max out die über 4GB belegen.
Habe mir schon so ein Paar Screens von Leuten angesehen die Karten mit viel RAM haben.

Ich gehe da lieber Safe.
Dank der Konsolen erwarte ich da auf jeden Fall keine Besserungen.

Nightspider
2015-04-16, 08:24:24
GTA V
Während die 12GB Titan X von 2.560 x 1.600 auf 3.840 x 2.160 33% verliert, kostet diese Mehrauflösung bei der 4GB 295er gerade mal 17%


gibt es denn irgendwo Benches bei denen die 4GB 295X2 ernsthaft durch den Speicher limitiert wird? Kaputte Spiele wie Mordors Schatten mal ausgenommen?

Das ist heftig und könnte darauf zurückzuführen sein sein das Konsolen AMD Hardware besitzen. GTA5 ist einfach auf CGN optimiert.
GTA5 könnte DAS Paradespiel für Fiji und 4K werden. 40-50fps stabil in 4K könnten durchaus drin sein.

uweskw
2015-04-16, 08:48:10
Cod advance warfare belegt auf einer 290X 8GB in FHD Maxout ingame Settings 7,1GB Speicher z.b Watch dogs lag glaube ich bei 4,6.
Selbst wenn ein Treiber das regelt wird ein und ausgelagert wieso sollte ich mir mir das in Zukunft antun so weis ich von Beginn an das der RAM einfach reicht.
Es gibt noch paar weitere Titel in FHD Max out die über 4GB belegen.
Habe mir schon so ein Paar Screens von Leuten angesehen die Karten mit viel RAM haben.

Ich gehe da lieber Safe.
Dank der Konsolen erwarte ich da auf jeden Fall keine Besserungen.

Also in den Benches von HT4u limitiert der Speicher der 290X nicht in 3840 x 2160 mit 2xSSAA/16xAF
http://ht4u.net/reviews/2014/call_of_duty_advanced_warfare_im_test/index6.php

Thunderburne
2015-04-16, 08:54:07
Was für ein Vergleich DualGPU mit 5600 Shadern mit einer 3000 ShaderTitan X vergleichen .
Wenn dann nimmt man sich den Einbruch einer 290X und vergleicht den %tual mit der Titan X.
Wird langsam komisch hier.
@uweskw
Das sind Benschmark von 20 -40 Sekunden danach solltest du dich nicht immer richten .
Wenn man zockt werden ganze teilweise riesige Ariale in die Karte geladen bei einem Benchmark oft nur ein kleiner Auschnitt dessen.

dargo
2015-04-16, 08:56:13
was ich bei HWLuxx interessant finde:
bei 2.560 x 1.600 verliert die 970 durch zuschalten von 4xMSAA und 16AF 63% FPS und die 4GB 980er nur 40%. Zeigt wohl das die 970er nen Speicherkrüppel ist.
Nur wenn es an der Speichermenge liegt, warum verliert die 3GB 780Ti nur 36% ?:freak:

Es liegt einfach an dem verkrüppelten Design der GTX970. Sobald die extrem langsamen 0,5GB angesprochen werden bricht die gesamte Performance total ein und kann sich komischerweise nicht so schnell wieder einfangen (siehe sekundenlange Hänger im Test von CB). Da man nur die Frames und keine Frametimes misst ist es eventuell schwer vorstellbar warum gerade die 3,5GB + 0,5GB Karte gegenüber der 3GB Karte den Kürzeren zieht. Ich versuche das mal anhand einer simplen Grafik darzustellen wie es aussehen könnte, vielleicht kann man sich das dann besser vorstellen.

51655

Mit den fps siehst du halt nur den Schnitt dieser Linien.

horn 12
2015-04-16, 09:17:07
GTA war ja mal für AMD´s Mantle geplant
Wurde durch Vulkan wohl schlussendlich "verworfen"

Man darf gespannt sein...
Durch die Konsolen Deal´s kann es echt rosig für AMD in Zukunft aussehen.

Kartenlehrling
2015-04-16, 09:24:30
GTA war ja mal für AMD´s Mantle geplant

Die haben das bei Rockstar nie gesagt, die werden das mal in einem Interview gesagt haben das sie sich Mantle "anschauen" werden.
Solche Leute wie du @Horn12 machen daraus Kindergarten Stillepost .... "Rockstar entwickelt GTA5 auch für Mantle."

dargo
2015-04-16, 09:32:21
GTA war ja mal für AMD´s Mantle geplant

Nein, Rockstar hatte mit Mantle nur herumexperimentiert so wie es aussieht. Möglicherweise um sich schon mal für GTA VI @Vulkan/D3D12 einzuarbeiten.

Dawn on Titan
2015-04-16, 10:25:31
GTA war ja mal für AMD´s Mantle geplant
Wurde durch Vulkan wohl schlussendlich "verworfen"

Man darf gespannt sein...
Durch die Konsolen Deal´s kann es echt rosig für AMD in Zukunft aussehen.

Bei der nächsten Generation wird eine AMD GPU einfach Pflicht werden, wenn man ein optimales Spielerlebnis haben will.

robbitop
2015-04-16, 10:46:30
Das ist heftig und könnte darauf zurückzuführen sein sein das Konsolen AMD Hardware besitzen. GTA5 ist einfach auf CGN optimiert.
GTA5 könnte DAS Paradespiel für Fiji und 4K werden. 40-50fps stabil in 4K könnten durchaus drin sein.
Der nicht lineare Verlust von Hawaii bei steigender Auflösung hat nichts mit Optimierung zu tun. Auflösung kostet immer linear von allem. Kostet es weniger als Linear gibt es einen Flaschenhals im Bereich Geometrie/Front-End, der bei steigender Auflösung an Bedeutung verliert.
Und das ist ja bei Radeons schon länger so.

Pirx
2015-04-16, 10:53:17
Dann kostet Auflösung doch nicht immer linear von allem?

Ailuros
2015-04-16, 10:55:01
Bei der nächsten Generation wird eine AMD GPU einfach Pflicht werden, wenn man ein optimales Spielerlebnis haben will.

Wieso hat AMD ueber Nacht tonnenweise DevRel Personal engagiert dass ich es verpasst habe? Die Tendenz ist eher in Richtung tonnenweise Entlassungen und das schon seit einiger Zeit. Es ist eben das daemlich dass sich game code leider nicht von sich selber optimieren laesst, noch dass man alles auf einen autopilot schnallt und alles automatisch vorgeht :rolleyes:

M4xw0lf
2015-04-16, 10:57:55
Gibts eigentlich mal wieder irgendwelche leckeren neuen Gerüchte? Hier ist seit gefühlten Wochen nix los :-/

Raff
2015-04-16, 11:25:19
Gibts eigentlich mal wieder irgendwelche leckeren neuen Gerüchte? Hier ist seit gefühlten Wochen nix los :-/

Alle Welt, auch AMDs Ingenieure, zockt GTA 5 PC. Das Spiel ist für eine weltweite Rezession und sich verschiebende Produktlaunches verantwortlich.

... schätze ich. Denn wenn's etwas gäbe, stünde das hier. :biggrin:

MfG,
Raff

Dawn on Titan
2015-04-16, 11:49:27
Wieso hat AMD ueber Nacht tonnenweise DevRel Personal engagiert dass ich es verpasst habe? Die Tendenz ist eher in Richtung tonnenweise Entlassungen und das schon seit einiger Zeit. Es ist eben das daemlich dass sich game code leider nicht von sich selber optimieren laesst, noch dass man alles auf einen autopilot schnallt und alles automatisch vorgeht :rolleyes:

Man muss doch Hoffnung machen. Hier will doch keiner wissen, dass AMD nur mit Wasser kocht und afaik sogar mit deutlich weniger Wasser als NV.

boxleitnerb
2015-04-16, 12:26:06
GTA V
Während die 12GB Titan X von 2.560 x 1.600 auf 3.840 x 2.160 33% verliert, kostet diese Mehrauflösung bei der 4GB 295er gerade mal 17%


gibt es denn irgendwo Benches bei denen die 4GB 295X2 ernsthaft durch den Speicher limitiert wird? Kaputte Spiele wie Mordors Schatten mal ausgenommen?

Oder die AMD hängt bei der niedrigeren Auflösung eher im CPU-Limit (CF kostet wie SLI auch noch etwas CPU-Leistung). NV war ja im CPU-Limit meist schneller als AMD zuletzt. Ich würde das nicht so einseitig betrachten. Die Stärke bei hohen Auflösungen ist eher eine Schwäche bei niedrigen, deshalb entsteht dieser falsche Eindruck. Wenn dann noch die CPU-Optimierungen des Treibers dazukommen, wird es noch komplizierter.

robbitop
2015-04-16, 12:42:34
Dann kostet Auflösung doch nicht immer linear von allem?
Von allem außer Geometrie/Front-End. Da ist AMD schon länger immer etwas schwach auf der Brust, weshalb die Karten als gute Wahl für hohe Auflösung gelten.

Ailuros
2015-04-16, 13:20:10
Man muss doch Hoffnung machen.

Ich muss gar nichts; ausser sterben :P