PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

robbitop
2015-03-17, 16:45:09
Natürlich ergibt es Sinn, teildeaktivierte Varianten zu verkaufen. Oder soll man die GPUs wegschmeißen, bei denen ein Fehler im Back End, Execution Bereich liegt, die man noch als salvage verkaufen kann? Das wäre betriebswirtschaftlich daneben.

IMO ist Hawaii für eine Performance Karte einfach zu fett (512 bit). Tonga ist zu fett für Midrange.

Ggf. hat AMD für eines von beiden Segmente eine entschlackte GPU entwickelt?

john carmack
2015-03-17, 16:47:36
Nur um das mal eben klarzustellen: Tonga XT im MacPro hat 150 Watt TDP. Und da klebt das Teil auch permanent dran. Tonga XT hat wie Tahiti einen 384 Bit MC und 2048 SPs. Also durchaus als Nachfolger geeignet.


hier steht 256Bit SI für TongaXT @ iMac ? !

http://www.golem.de/news/apple-tonga-xt-chip-mit-3-5-tflops-fuer-den-imac-retina-1410-109954.html

robbitop
2015-03-17, 16:53:27
Dann frage ich mich, wozu überhaupt ein 384 bit SI im Tonga verbaut worden ist...

(IMO ist Tonga selbst in der XT Version nicht bandbreitenlimitiert). Oder hebt sich AMD das ggf wirklich für die 370X auf? Wäre ja eine nette Midrangekarte mit 6 GiB.

Datarecovery09
2015-03-17, 16:55:17
... und wäre auch eine extrem günstige 6GB-Karte.

fondness
2015-03-17, 16:55:50
Dann frage ich mich, wozu überhaupt ein 384 bit SI im Tonga verbaut worden ist...

(IMO ist Tonga selbst in der XT Version nicht bandbreitenlimitiert). Oder hebt sich AMD das ggf wirklich für die 370X auf? Wäre ja eine nette Midrangekarte mit 6 GiB.

Bis jetzt gibt es keine Bestätigung für die 384bit bei Tonga. Die Frage ist nur warum der Chip so fett ist.

basix
2015-03-17, 16:57:00
Das wäre aber ein ziemlich verschwenderischer und damit teurer Testlauf.

Jein :) Wäre es nicht billiger einen Chip mit HBM Interface zu entwerfen, wo man schon weiss, dass man ihn für die Nachfolgegeneration verwenden wird? Evtl. kommen ja auch die Tonga-Derivate mit HBM ;D

Und 28nm ist schon so lange am Markt und sehr gut erprobt, sodass sich die zusätzliche Chipfläche wirtschaftlich nicht so dramatisch auswirken sollte. Ist nicht optimal aber auch nicht dramatisch. Die grossen Brötchen werden eine Kategorie unterhalb von Tonga verdient ;)
Und Entwurf / Validierung / Maske etc. ist möglicherweise teurer als die 50mm2

robbitop
2015-03-17, 16:57:43
Hat chipworks den noch nicht aufgemacht? IMO hat Tonga einfach zu viele Transistoren als dass er kein 384 bit SI hat. Aber wer weiß, was AMD sich bei Tonga gedacht hat. Leider kennen wir den Vollausbau auch nicht gut genug...
Wäre aber sicher auch ok als Midrangekarte. 4 GiB sind angemessen. Wenn das Ding wirklich auf 150 W kommt und zwischen R280X und R290 liegt, wäre das ein Fortschritt.

john carmack
2015-03-17, 17:02:54
Hat chipworks den noch nicht aufgemacht? IMO hat Tonga einfach zu viele Transistoren als dass er kein 384 bit SI hat. Aber wer weiß, was AMD sich bei Tonga gedacht hat. Leider kennen wir den Vollausbau auch nicht gut genug...
Wäre aber sicher auch ok als Midrangekarte. 4 GiB sind angemessen. Wenn das Ding wirklich auf 150 W kommt und zwischen R280X und R290 liegt, wäre das ein Fortschritt.




Hübie hat gesagt das TongaXT ein 384Bit SI hat:
Nur um das mal eben klarzustellen: Tonga XT im MacPro hat 150 Watt TDP. Und da klebt das Teil auch permanent dran. Tonga XT hat wie Tahiti einen 384 Bit MC und 2048 SPs. Also durchaus als Nachfolger geeignet.



Golem.de sagt 256Bit SI
http://www.golem.de/news/apple-tonga-xt-chip-mit-3-5-tflops-fuer-den-imac-retina-1410-109954.html

Unicous
2015-03-17, 17:12:30
Hübie ist gerade Straight EDGE, warten wir bis er wieder etwas mehr Internet im Blutspiegel hat.

Salvage Parts mit größeren "physischen" aber nach außen gekappten Interface gibt es schon längere Zeit, das wäre also keine Neuerung.

Ob Tonga tatsächlich ein 384Bit Interface hat, werden wir im Zweifelsfall nie erfahren, ich denke aber eher nicht dass das Fall ist (siehe DCC). Dass 32 CUs verbaut sind, ist aber gesichert ;).
Gesichert ist aber nicht ob die architekturellen Veränderungen sowie einige Features zu dem Anstieg der Transistorzahl geführt hat, oder ob Tonga doch noch ein Geheimnis birgt.

Thunder99
2015-03-17, 17:20:14
Hübi kann sich auch irren, hat er selber gesagt :wink:

Wenn es ein 384bit Interface gibt werden wir es sehen da es nach meiner Ansicht null Sinn macht was zu entwickeln und dann doch nicht zu nutzen

tm0975
2015-03-17, 17:24:46
Natürlich ergibt es Sinn, teildeaktivierte Varianten zu verkaufen. Oder soll man die GPUs wegschmeißen, bei denen ein Fehler im Back End, Execution Bereich liegt, die man noch als salvage verkaufen kann? Das wäre betriebswirtschaftlich daneben.

esgeht nicht ums betriebswirtschaftliche. es geht darum, dass die chips hinreichend lange produziert worden sind um eine so geringe fehlerquote zu haben, dass der ausschuß minimal ist. für 0,8% fehlerquote plane ich doch keine teildeaktivierten produkte...
vor allem, weil man durch mehr einheiten und geringere frequenz und somit geringere spannung den verbrauch senken und somit die effizienz steigern könnte, wenn auch nur ein wenig.

maguumo
2015-03-17, 17:28:09
Ich bezweifle das der Ausschuss auch nur annähernd so gering ist... Gibt's da eigentlich offizielle Zahlen zu? Die letzte halbwegs sichere Wert zur Ausbeute den ich gehört habe stammt von den ersten Fermi Testwafern...

john carmack
2015-03-17, 17:35:01
Hübi kann sich auch irren, hat er selber gesagt :wink:

Wenn es ein 384bit Interface gibt werden wir es sehen da es nach meiner Ansicht null Sinn macht was zu entwickeln und dann doch nicht zu nutzen

Es sein denn es wurde nicht zu ende entwickelt und wurde (zB. aus kostengründen) eingestampft!

robbitop
2015-03-17, 17:45:56
esgeht nicht ums betriebswirtschaftliche. es geht darum, dass die chips hinreichend lange produziert worden sind um eine so geringe fehlerquote zu haben, dass der ausschuß minimal ist. für 0,8% fehlerquote plane ich doch keine teildeaktivierten produkte...
vor allem, weil man durch mehr einheiten und geringere frequenz und somit geringere spannung den verbrauch senken und somit die effizienz steigern könnte, wenn auch nur ein wenig.
Trotz einer sehr hohen Reife, hat jeder Prozess noch genug Defects die das lohnenswert machen. Immerhin ist Hawaii mit >400 sqmm einfach ziemlich groß. Bei kleinen GPUs muss es nicht sein. Aber selbst da wird es gemacht. Ohne Ausnahme bei jeder Generation. Das machen IHVs nicht zum Spaß.

Hübie
2015-03-17, 18:20:22
Ja sorry. Ich meine diese Bierdosen. Die haben 6 GB und 384 Bit. Wenn das Tahiti ist dann sollte klar sein dass ich mich geirrt habe. Ich dreh durch mit dem lahmen Netz hier :mad:

AngelDust 32
2015-03-17, 18:34:36
Ja sorry. Ich meine diese Bierdosen. Die haben 6 GB und 384 Bit. Wenn das Tahiti ist dann sollte klar sein dass ich mich geirrt habe. Ich dreh durch mit dem lahmen Netz hier :mad:

384 Bit wurde zumindest mal vermutet

http://www.computerbase.de/2014-09/amd-tonga-2.048-shader-384-bit-hsa/

Ob das immer noch so ist ???

Gipsel
2015-03-17, 18:44:57
Ja sorry. Ich meine diese Bierdosen. Die haben 6 GB und 384 Bit. Wenn das Tahiti ist dann sollte klar sein dass ich mich geirrt habe. Ich dreh durch mit dem lahmen Netz hier :mad:Die Dinger gibt es doch schon viel zu lange (seit 2013!), als daß da ein Tonga drin ist. Da sind offiziell je zwei FirePros verbaut. Gibt ja verschiedene Modelle mit D300 (zwei Pitcairns mit 2 x 2GB), D500 (zwei Salvage Tahiti mit 2 x 3GB) oder D700 (zwei volle Tahiti mit 2 x 6GB).

Loeschzwerg
2015-03-17, 19:04:12
Jein :) Wäre es nicht billiger einen Chip mit HBM Interface zu entwerfen, wo man schon weiss, dass man ihn für die Nachfolgegeneration verwenden wird? Evtl. kommen ja auch die Tonga-Derivate mit HBM ;D

Und 28nm ist schon so lange am Markt und sehr gut erprobt, sodass sich die zusätzliche Chipfläche wirtschaftlich nicht so dramatisch auswirken sollte. Ist nicht optimal aber auch nicht dramatisch. Die grossen Brötchen werden eine Kategorie unterhalb von Tonga verdient ;)
Und Entwurf / Validierung / Maske etc. ist möglicherweise teurer als die 50mm2

Guck dir einfach mal diesen Tahiti DIE Shot hier an:
http://www.abload.de/img/nfqygvru4k.jpg

Nimmt schon viel Fläche weg so ein Speicherinterface, gell? ;) Da will man nicht zwei davon im DIE haben wenn es nicht irgend nötig ist.

esgeht nicht ums betriebswirtschaftliche. es geht darum, dass die chips hinreichend lange produziert worden sind um eine so geringe fehlerquote zu haben, dass der ausschuß minimal ist. für 0,8% fehlerquote plane ich doch keine teildeaktivierten produkte...
vor allem, weil man durch mehr einheiten und geringere frequenz und somit geringere spannung den verbrauch senken und somit die effizienz steigern könnte, wenn auch nur ein wenig.

Man macht das auch schlichtweg um die Produktpalette beim Preis abzurunden und dadurch möglichst viele potentielle Kunden ansprechen zu können.

@Tonga: Will nicht einer eine 285 opfern, den DIE schleifen und unters Mikroskop legen? ;D

Sunrise
2015-03-17, 19:13:20
Man macht das auch schlichtweg um die Produktpalette beim Preis abzurunden und dadurch möglichst viele potentielle Kunden ansprechen zu können.
Man geht sogar teilweise soweit und verkauft funktionsfähige Dies mit irgendwelcher evtl. sogar künstlichen Limitierung, nur um das was du schreibst zu erreichen, wenn die Ausbeute gigantisch gut ist. Das ist mittlerweile zwar aufgrund der komplexen GPUs kaum noch möglich, wäre aber absolut kein Problem, wenn die Margen hoch genug sind.

Ich weiß gar nicht, was es da oben mit robbitop zu diskutieren gibt. Der hat wie ich in Form der R300 auch miterlebt, wie AMD die "Massen", mit teilweise voll-funktionsfähigen Karten erreichen wollte, leider aber wie schon angesprochen auf Kosten der Margen.

HOT
2015-03-17, 19:24:32
a.) Tonga hat garantiert kein 384Bit Interface, sonst gäbs schon längst kein Tahiti mehr sondern Tonga mit 3GB RAM
b.) Tonga war für den PC ein epic-Fail, sonst gäbs schon längs keinen Tahiti mehr, Tahiti scheint AMD billiger zu kommen
c.) Tonga ist speziell auf die Bedürfnisse von Apple abgestimmt, wer weiss, was das Teil noch alles können sollte, irgendwo sind die Transistoren ja hingewandert

Ich sehe das auch so, dass die 285 nur Ausschuss ist, um Mist abzuverkaufen. Es gab ja auch nur recht wenig Tongas, sonst wären die Preise zwischenzeitlich mal unter Tahiti gerutscht, das ist aber nie passiert.
Und AMD wird Tonga nicht für die 300er Serie vorsehen, sonst gäbe es heute keinen Tahiti mehr (ich laufe Gefahr mich zu wiederholen...).
Die haben den Chip nur wegen Apple fertiggestellt, sonst hätte der in der Form nie ne Fab von innen gesehen.

Hübie
2015-03-17, 19:43:28
Die Dinger gibt es doch schon viel zu lange (seit 2013!), als daß da ein Tonga drin ist. Da sind offiziell je zwei FirePros verbaut. Gibt ja verschiedene Modelle mit D300 (zwei Pitcairns mit 2 x 2GB), D500 (zwei Salvage Tahiti mit 2 x 3GB) oder D700 (zwei volle Tahiti mit 2 x 6GB).

Ah okay. Mir kamen die vor kurzem zum ersten Mal unter. Kenne mich mit Apple aber überhaupt nicht aus und mit AMD bin ich seit Tahiti auch nicht sonderlich vertraut ;) Es waren zwei D700 verbaut. Danke für die Aufklärung.
Dann könnte es also doch sein dass Tonga 130 Watt TDP hat da der Salvage ja im Grunde 280<->285 entspricht.

tm0975
2015-03-17, 19:56:42
Ich weiß gar nicht, was es da oben mit robbitop zu diskutieren gibt. Der hat wie ich in Form der R300 auch miterlebt, wie AMD die "Massen", mit teilweise voll-funktionsfähigen Karten erreichen wollte, leider aber wie schon angesprochen auf Kosten der Margen.

Du diskutierst, ich spekuliere. und genau das sollte man hier im Forum doch dürfen. Wenn es aus heutiger Sicht günstiger ist, die Leistung einer 290 (zukünftig 380) statt durch eine teildeaktivierte 290x lieber durch eine nicht teildeaktivierte 285 samt 4 gb zu ersetzen, ist das betriebswirtschaftlich (aufgrund der die-fläche) sinnvoll. die leistung dürfte annähernd identisch sein, verbrauch und feature-level würden wohl eher für tonga sprechen. das ganze funkioniert aber nur mit entsprechender chip-ausbeute. und die wiederum sollte möglicherweise hoch genug sein, weil beide chips reichlich lange produziert werden.

am ende könnte für amd aber keine der technischen punkte relevant werden sondern man rebrandet am ehesten das, was noch genügend im lager ist.

john carmack
2015-03-17, 21:11:53
Was denkt ihr - wieviel "Technologievorsprung" hat AMD mit HBM vor Nvidia?

Nvidia wird ja bekannterweise erst mit Pascal HBM einführen.

Wird AMD über die nächsten Jahre einen gewissen (Erfahrungs)Vorsprung haben?
bzw. Kann Nvidia diesen "Vorsprung" einfach so mit der nächsten Gen. wieder wegmachen?

-/\-CruNcher-/\-
2015-03-17, 21:12:52
1 Release Zyklus so gesehen ist das nichts wirklich auffäliges wenn sie ihn beim nächsten wieder abtretten ;)

aber es gab auch Zeiten da lagen sie 2 Zyklen dahinter so gesehen ist seit GCN ne menge los ;)

Das zeigt sich ja auch im Preis der für AMD GPU Hardware wieder steigt, was ja auch ein resultat der höheren investitionen ist was man ja überall positiv auch endlich im Ökosystem sieht ;)

Korvaun
2015-03-17, 21:18:36
Jetzt kann AMD ja endlich nen paar Serien-TitanX kaufen und dann das Fiji-Gesamtpaket entsprechend final anpassen... hopp hopp AMD!

Mandalore
2015-03-17, 22:14:03
Sollten die Fiji SLides stimmen, dann ist die TitanX@4K der R9 390X deutlich unterlegen und die liefert schon beeindruckende Szenenen:love2::love2:

Mancko
2015-03-17, 22:54:56
Das zeigt sich ja auch im Preis der für AMD GPU Hardware wieder steigt, was ja auch ein resultat der höheren investitionen ist was man ja überall positiv auch endlich im Ökosystem sieht ;)

Das musst Du mir jetzt aber mal erklären. Ein Unternehmen, dass seit dem GK104 Launch auf um die 30% Marktanteile nach Stückzahlen und unter 30% Marktanteile nach Umsatz gesunken ist von vormals über 40% hat jetzt seit GCN nochmal was richtig im Markt gemacht? Ich weiß ja nicht was Du rauchst aber das Zeug muss irrsinnig effektiv wirken. Der von Dir erwähnte Erfolg ist ungefähr genauso groß wie der Griechenlands bei der Tilgung der eigenen Schulden und Herstellung der wirtschaftlichen Wettbewerbsfähigkeit.

Grestorn
2015-03-17, 23:03:42
Sollten die Fiji SLides stimmen, dann ist die TitanX@4K der R9 390X deutlich unterlegen und die liefert schon beeindruckende Szenenen:love2::love2:

Die meisten, die diese Slides in Performance-Gewinn umrechnen, machen den Fehler davon auszugehen, dass eine theoretische Mehrleistung der GPU direkt 1:1 auf die Framerate durchschlägt.

Das ist aber bei AMD genauso wenig möglich wie bei nVidia.

Das Gesamtsystem, CPU, Bus usw. bringt immer Verluste, so dass nur in absoluten Ausnahmesituationen, ergo in ganz bestimmten, synthetischen Benchmarks, eine solche 1:1 Leistungssteigerung tatsächlich herauskommt.

Lassen wir uns also überraschen, was Fiji in der Praxis bringt.

Wenn Fiji auf Augenhöhe mit der Titan X sein sollte - was ich mir gut vorstellen kann - dann wird nVidia u.U. gezwungen sein, den Preis anzupassen. Was für uns Kunden sicher nicht schlecht wäre.

Dass Fiji den Boden mit der Titan X aufwischen wird, halte ich aber für ziemlich unwahrscheinlich.

Raspo
2015-03-17, 23:14:27
Das musst Du mir jetzt aber mal erklären. Ein Unternehmen, dass seit dem GK104 Launch auf um die 30% Marktanteile nach Stückzahlen und unter 30% Marktanteile nach Umsatz gesunken ist von vormals über 40% hat jetzt seit GCN nochmal was richtig im Markt gemacht? Ich weiß ja nicht was Du rauchst aber das Zeug muss irrsinnig effektiv wirken. Der von Dir erwähnte Erfolg ist ungefähr genauso groß wie der Griechenlands bei der Tilgung der eigenen Schulden und Herstellung der wirtschaftlichen Wettbewerbsfähigkeit.

GCN ist in der PS4 und Xone, dazu maßgeblicher Beitrag zu Vulcan / DX12-Anschubser ist sicher nicht zu verachten.
Dazu die Gerüchte zur Zusammenarbeit mit Mediatek.
Sieht für mich bis jetzt nach "Fundamentanlage" aus. Und so langsam kommen sie dazu die Früchte zu ernten, sprich GCN-Karten performen unter DX12 / Vulcan besser. Was natürlich zu beweisen wäre.

-/\-CruNcher-/\-
2015-03-17, 23:15:36
Das musst Du mir jetzt aber mal erklären. Ein Unternehmen, dass seit dem GK104 Launch auf um die 30% Marktanteile nach Stückzahlen und unter 30% Marktanteile nach Umsatz gesunken ist von vormals über 40% hat jetzt seit GCN nochmal was richtig im Markt gemacht? Ich weiß ja nicht was Du rauchst aber das Zeug muss irrsinnig effektiv wirken. Der von Dir erwähnte Erfolg ist ungefähr genauso groß wie der Griechenlands bei der Tilgung der eigenen Schulden und Herstellung der wirtschaftlichen Wettbewerbsfähigkeit.

Der Erfolg setzt ja jetzt erst langsam ein das er schon da ist hab ich doch garnicht gesagt ;)
Das ist das selbe wie von GMA 500 zu Intel (GMA) HD ;)
Gut nicht ganz aber vom Ökosystem auf jedenfall und hier hat AMD riesen fortschritte gemacht und holt auf und hat mit Low Level API sogar den anderen den Weg gewiesen weit vorne und zur Belohnung die Konsolen kassiert.
Auch werden diese Konsolendaten sehr dazu beitragen weiter HSA voran zu treiben und zu optimieren ;)

Dural
2015-03-18, 00:04:21
AMD ist in den konsolen drin weil kein anderer billiger war, weder intel noch nv hätten hardware zu solchen konditionen liefern können/wollen.

dies als erfolg zu werten halte ich unternehmerisch für äusserst zweifelhaft, erst recht wenn man die aktuellen quartals zahlen ansieht.

maximus_hertus
2015-03-18, 00:18:42
AMD ist in den konsolen drin weil kein anderer billiger war, weder intel noch nv hätten hardware zu solchen konditionen liefern können/wollen.

Hätte Intel den eine Grafiklösung auf Niveau der aktuellen PS4 liefern können? Bei allem Respekt Intel gegenüber bin ich mir sehr sicher, dass das nicht der Fall ist.

Und nV hat keine x86 CPU Kerne. Und die ARM Kerne sind schlicht deutlich zu Leistungsschwach.

Welche Optionen gab es daher? Als SOC nichts, außer AMD. Bei Intel / nV höchstens ein Zwei-Chip-Design, mit vielen Nachteilen.

Datarecovery09
2015-03-18, 00:24:06
In diese Quartalszahlen sind aber auch langfristige Abschreibungen mit eingeflossen (was die Sache natürlich nicht maßgeblich besser macht^^). Die Konsolendeals hingegen waren M. W. n. noch eine der wenigen größeren Geldquelle für AMD; insofern schon eine Art unternehmerischer Erfolg.

edit: Es dürfte für Microsoft und Sony schon Gründe gehabt haben, eine Ein-Chip-Lösung von AMD vorzuziehen. Ich kann das schwer einschätzen, aber ich denke mir, dass man erheblich mehr bang for the buck kriegt wenn man die Hauptbestandteile aus einer Hand beziehen kann.

Raspo
2015-03-18, 00:29:37
Und nicht zu vergessen ist der Effekt sich eine Art Ökosystem aufzubauen, d. h. durch die Konsolen wird automatisch GCN gepusht. Ich glaube, dass AMD momentan vieles hinter den Kulissen richtig macht, was sich aber erst voll mit der Zeit (Windows 10) auswirken wird.

maximus_hertus
2015-03-18, 00:50:13
Sagt mal, auf einer der "geleakten" 390X Folien ist die Rede von new Dual GPU modes - also mehrere(!) neue Modi. Also könnte nur ein SFR nicht gemeint sein. Was könnte da noch kommen?

Vor allem ist ja nur die Rede von neuen Modi für 2 GPUs, nicht für 3 oder 4.

Unicous
2015-03-18, 01:26:51
Könnte zum Beispiel sein, dass die eine GPU die Szene an sich rendert, während die andere GPU Licht, Schatten, Physik whatever berechnet.


Bitsandchips ist wohl auf der CEBIT und will da erfahren haben, was Ailuros ja schon andeutete: der Treiber soll noch nicht ready for prime time sein.

Googlish:
According to what we have come to know, speaking directly with some leaders of the houses that develop solutions with GPU from AMD, it seems that the house of Sunnyvale has long been ready for the new cards R9 390X, but is waiting for the video drivers are practically perfect (a big announcement will be made ​​at Computex, as we predicted ).


Desweiteren wird behauptet die Gerüchte um die Performance wären u.U. noch untertrieben (wenn nicht gar Fake, hoffe das ist richtig interpretiert)
One last thing to note concerns the recent rumor appeared on the web, regarding the performance offered by the 390X. It seems that the performance of the 390X are much higher than those presented so far, and that is what we have seen so far, if not false, far from reality. Fingers crossed.
https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.bitsandchips.it%2F9-hardware%2F5387-cebit-2015-confermato-r9-390x-pronte-ma-amd-aspetta-che-i-driver-siano-maturi&edit-text=

Beim letzten Absatz würde ich aber lieber mit ein wenig Salzwasser gurgeln.:wink:

Locuza
2015-03-18, 01:48:00
Ohje, wegen Treiberarbeit noch Monate warten müssen.
Bei AMDs Treiberabteilung läuft scheinbar vieles nicht so flüssig wie erhofft.
Ähnlich unglücklich scheint es beim neuem GPU-Kernel für Linux zu laufen, ein AMD Mitarbeiter meinte beim Phoronix Forum, dass man gerne den HSA-Stack bald veröffentlichen würde, allerdings auf den neuen GPU-Kernel warten muss.
Im Notfall veröffentlicht man den HSA-Stack vorerst ohne Carrizo Support.

Unicous
2015-03-18, 02:03:00
Ich habe aber zwei Absätze nicht zitiert:

While qusto means give away a few months ahead of sales to nVidia GTX 970 and GTX with 980, on the other hand will allow AMD to present a product almost entirely free of defects, so as not to commit the same mistake of which are been victims 7xxx series cards (Tahiti in the first place), so mistreated by users as journalists for drivers unripe

Contrary to what it has always done, now AMD does not point only to offer before the competitor product theoretically more powerful, but also more ealmente exploitable. The same strategy was adopted in the market for professional video cards for a few months, and look at the market shares gnawed at nVidia (not forgetting the closed contract with Apple for the Mac Pro) that approach is succeeding.

Sie wollen also das Ding mit "perfekten" Treibern und Support rausbringen um von Anfang an ein gutes Produkt abzuliefern. Ob sie das schaffen keine Ahnung, aber an sich ist es ja ein hehres Ziel. Man will das Ding nicht vor der Konkurrenz raushauen nur um sie wegen schlechter Treiberarbeit gleichziehen zu lassen oder sie gar zu übertrumpfen (wie beispielsweise bei Tahiti).

Hört sich toll an, die Realität wird darüber entscheiden ob es am Ende auch so kommt.:wink:

Isen
2015-03-18, 03:45:52
Googlish:

Desweiteren wird behauptet die Gerüchte um die Performance wären u.U. noch untertrieben (wenn nicht gar Fake, hoffe das ist richtig interpretiert)



Frei übersetzt heißt es:

Zu beachten gilt das bei den jüngsten Gerüchten um die Leistung der 390x, dass die Leistung dieser deutlich höher ausfällt als diese zeigen und die wir gesehen haben. Wenn diese sogar eher die falschen und weit weg von der Realität [realtà] sind.
(Ist auch nur eine Annahme von denen)

Ailuros
2015-03-18, 06:52:56
Ohje, wegen Treiberarbeit noch Monate warten müssen.
Bei AMDs Treiberabteilung läuft scheinbar vieles nicht so flüssig wie erhofft.
Ähnlich unglücklich scheint es beim neuem GPU-Kernel für Linux zu laufen, ein AMD Mitarbeiter meinte beim Phoronix Forum, dass man gerne den HSA-Stack bald veröffentlichen würde, allerdings auf den neuen GPU-Kernel warten muss.
Im Notfall veröffentlicht man den HSA-Stack vorerst ohne Carrizo Support.

Du kannst Gift darauf nehmen dass sich die Kerle dort bis zum geht nicht mehr schuften; wenn man zu wenig Personal hat dann geht es auch nicht besser weiter.

horn 12
2015-03-18, 06:58:57
Nun, falls es echt nur am Treiber liegen sollte, kann auch ein Release am 18 April (Slides) oder Ende April nicht recht unrealistisch sein.
Somit wäre man ca. 1 Monat nach Titan X am Markt, denn jene Karte wird bei uns wohl erst Ende nächster Woche in etwa kaufbar sein, für sage und schreibe billige 1150 Euro, eher mehr!

Nun gut, andererseits bringen wir dies 2 Monate auch noch rum.

Ailuros
2015-03-18, 07:04:50
Nun, falls es echt nur am Treiber liegen sollte, kann auch ein Release am 18 April (Slides) oder Ende April nicht recht unrealistisch sein.
Somit wäre man ca. 1 Monat nach Titan X am Markt, denn jene Karte wird bei uns wohl erst Ende nächster Woche in etwa kaufbar sein, für sage und schreibe billige 1150 Euro, eher mehr!

Nun gut, andererseits bringen wir dies 2 Monate auch noch rum.

Nochmal auch fuer Dich:

1. Titan ist ein Sonderprodukt fuer das AMD keine Antwort hat und wohl auch nicht haben kann.

2. Fiji und co sind fuer Juni projeziert. Punkt.

3. Bis zum Juni haben die Gruenen Zeit die paar Titanen zu verkaufen die sie verkaufen wollen und koennen dann sehen ob sie etwas gegen Fiji direkt stellen wollen.

4. Wenn AMD's top dog sich tatsaechlich bei einem >$700 MSRP einpendelt, sollten die hard fanboys froh sein dass NV AMD nicht am oberen Ende mit niedrigeren Preisen angreift.

Dawn on Titan
2015-03-18, 07:23:05
Im Juni hätte NV imho wenig Probleme einen minimal deaktivierten GM200 mit höherem Takt und 12GB gegen 390X WCE zu stellen.

AMD kann froh sein wenn es bei 12GB Titan X und 6GB Salvage bleibt.

Korvaun
2015-03-18, 07:23:55
Das die Treiber noch so unfertig sein sollen wundert mich schon. Die Hardware ist ja seit "Ewigkeiten" lauffähig, und die Architektur an sich ist ja immer noch GCN, sollte also nich sooo unterschiedlich sein was den Treiber angeht.

Ich denke auch das von der Computex nix mehr passiert, TitanX ist einfach zu teuer und unsexy als das sich AMD deswegen jetzt beeilen müsste. Preislich gehe ich, auch wegen dem miesen Wechselkurs, von 799/899/999€ UVP (390/390X/390X "WC-Edition", jeweils mit 8GB) aus. Vielleicht 50€ weniger, mal sehen...

Korvaun
2015-03-18, 07:41:42
Im Juni hätte NV imho wenig Probleme einen minimal deaktivierten GM200 mit höherem Takt und 12GB gegen 390X WCE zu stellen.

AMD kann froh sein wenn es bei 12GB Titan X und 6GB Salvage bleibt.

Dass NV mit ner 980TI (leicht beschnittener GM200) den Start von Fiji kontern wird ist sehr wahrscheinlich. Vielleicht passt NV dann auch den Preis der TitanX leicht nach unten an.

Wenn AMD bis zur Computex ordentliche Treiber auf die Beine stellt sollte das aber kein Problem sein. Auch sollte dann ein echter "Hardlaunch" mit breiter Verfügbarkeit drin sein. Dieses Jahr hat AMD wirklich mal wieder eine echte Chance, ich hoffe AMD nutzt sie :smile:

mboeller
2015-03-18, 07:44:22
Die meisten, die diese Slides in Performance-Gewinn umrechnen, machen den Fehler davon auszugehen, dass eine theoretische Mehrleistung der GPU direkt 1:1 auf die Framerate durchschlägt.


Wenn die Slides von videocardz nicht komplett falsch sind läuft es hier doch sogar umgekehrt!

4096/2816 = 1,45 ... also +45%

Die Slides zeigen aber bis zu +60%

AMD scheint also einige andere Baustellen beseitigt zu haben. So dass die Skalierung >1:1 läuft. Wäre mal was neues!

Dawn on Titan
2015-03-18, 07:49:44
Das die Treiber noch so unfertig sein sollen wundert mich schon. Die Hardware ist ja seit "Ewigkeiten" lauffähig, und die Architektur an sich ist ja immer noch GCN, sollte also nich sooo unterschiedlich sein was den Treiber angeht.

Ich denke auch das von der Computex nix mehr passiert, TitanX ist einfach zu teuer und unsexy als das sich AMD deswegen jetzt beeilen müsste. Preislich gehe ich, auch wegen dem miesen Wechselkurs, von 799/899/999€ UVP (390/390X/390X "WC-Edition", jeweils mit 8GB) aus. Vielleicht 50€ weniger, mal sehen...

ManPower ist halt auch wichtig.

Ailuros
2015-03-18, 08:09:24
Das die Treiber noch so unfertig sein sollen wundert mich schon. Die Hardware ist ja seit "Ewigkeiten" lauffähig, und die Architektur an sich ist ja immer noch GCN, sollte also nich sooo unterschiedlich sein was den Treiber angeht.

Wie stellst Du Dir die Treiberentwicklung genau vor? Etwas dass man in ein paar Tagen aus dem Hut zaubern kann? Es ist nicht nur eine verdammt aufwendige Geschichte sondern benoetigt auch N Anzahl an Personal die anscheinend fehlt.

Ich denke auch das von der Computex nix mehr passiert, TitanX ist einfach zu teuer und unsexy als das sich AMD deswegen jetzt beeilen müsste. Preislich gehe ich, auch wegen dem miesen Wechselkurs, von 799/899/999€ UVP (390/390X/390X "WC-Edition", jeweils mit 8GB) aus. Vielleicht 50€ weniger, mal sehen...

Was heisst jetzt "beeilen"? NV haette den TitanX so oder so vorgestellt weil AMD sowieso kein Interesse an einer solchen Produkt-Kategorie hat. Es heisst uebrigens 390X WCE - water cooled edition, mit dem Klo hat es nichts zu tun ;D

Wenn die Slides von videocardz nicht komplett falsch sind läuft es hier doch sogar umgekehrt!

4096/2816 = 1,45 ... also +45%

Die Slides zeigen aber bis zu +60%

AMD scheint also einige andere Baustellen beseitigt zu haben. So dass die Skalierung >1:1 läuft. Wäre mal was neues!

Ich hab das Gefuehl dass Du den Durschnitt mit "bis zu " Werten mal wieder verwechselst. Die "bis zu" 60% sind eine gesunde Einschaetzung vom marketing wo es stellenweise sicher auch Faelle mit +100% wenn nicht sogar mehr geben wird. Wo der eigentliche Durchschnitt liegen wird haengt davon ab wie viel unter 3D Fiji die Unmenge an mehr Bandbreite ausnutzen kann.

dargo
2015-03-18, 08:18:13
AMD ist in den konsolen drin weil kein anderer billiger war, weder intel noch nv hätten hardware zu solchen konditionen liefern können/wollen.

dies als erfolg zu werten halte ich unternehmerisch für äusserst zweifelhaft, erst recht wenn man die aktuellen quartals zahlen ansieht.
Was hätte denn Intel und/oder Nvidia 2013 so an brauchbaren SoCs für Konsolen liefern können? :rolleyes:

Ailuros
2015-03-18, 08:25:24
Was hätte denn Intel und/oder Nvidia 2013 so an brauchbaren SoCs für Konsolen liefern können? :rolleyes:

Ach lass ihn doch. Zu 99% schreibt er nur Stuss den er auch nie wiederlegen kann.

StefanV
2015-03-18, 08:27:57
Bin schon sehr auf das PCB von Fiji gespannt, da die Speicherzellen ja auf die GPU wandern, bleibt somit seeehr viel Platz über, so dass man hier eventuell gar ein sehr kleines PCB nutzen kann.

Auch kann man hier durchaus denken, dass das PCB sehr einfach gehalten wird, eben weil die ganzen Leitungen von und zum Speicher wegfallen, so dass es eventuell gar preiswerter als ein Low End PCB werden könnte.

Auch Low Profile Karten könnten theoretisch möglich sein, da man ja 'nur' noch Grafikchip, Anschlüsse, Spannungsregler und Anschlüsse für die Versorgung benötigen würde...

Da bin ich schon sehr gespannt drauf und warte sehnsüchtig auf die ersten 'nackten PCB Bilder' =)

dargo
2015-03-18, 08:30:59
Bin schon sehr auf das PCB von Fiji gespannt, da die Speicherzellen ja auf die GPU wandern, bleibt somit seeehr viel Platz über, so dass man hier eventuell gar ein sehr kleines PCB nutzen kann.

Naja... der relativ hohe Stromverbrauch bleibt ja. Vielleicht sollte man die Stromversorgung auf dem PCB etwas breiter auslegen. Nicht, dass es nachher wieder "fiiiieeepp" heißt. :D

Korvaun
2015-03-18, 09:10:09
Wie stellst Du Dir die Treiberentwicklung genau vor? Etwas dass man in ein paar Tagen aus dem Hut zaubern kann? Es ist nicht nur eine verdammt aufwendige Geschichte sondern benoetigt auch N Anzahl an Personal die anscheinend fehlt.

Ja, aber die fangen ja nicht bei 0 an, oder? Funktionierende Hardware haben Sie auch schon seit langer Zeit (ca. 4-6 Monate?). Architektur hat sich auch nicht groß geändert, oder ist das geänderte Speicherinterface treiberseitig problematisch? Andere neue Grafikkarten gabs in der Zwischenzeit auch nicht, können sich also mehr oder weniger komplett auf Fiji konzentrieren (vor allem wenn der Rest der 300er Serie eher Rebrands sind).



Was heisst jetzt "beeilen"? NV haette den TitanX so oder so vorgestellt weil AMD sowieso kein Interesse an einer solchen Produkt-Kategorie hat. Es heisst uebrigens 390X WCE - water cooled edition, mit dem Klo hat es nichts zu tun ;D


Ist mir schon klar, wollte nur darauf anspielen das der Begriff "WCE" in Deutschland "ausgenutzt" werden kann... :wink:

Mancko
2015-03-18, 09:25:31
Der Erfolg setzt ja jetzt erst langsam ein das er schon da ist hab ich doch garnicht gesagt ;)
Das ist das selbe wie von GMA 500 zu Intel (GMA) HD ;)
Gut nicht ganz aber vom Ökosystem auf jedenfall und hier hat AMD riesen fortschritte gemacht und holt auf und hat mit Low Level API sogar den anderen den Weg gewiesen weit vorne und zur Belohnung die Konsolen kassiert.
Auch werden diese Konsolendaten sehr dazu beitragen weiter HSA voran zu treiben und zu optimieren ;)

Von der Low Level API haben sie doch rein gar nichts. Keinen einzigen echten Vorteil. Alle anderen haben hübsch dafür gesorgt, dass AMD die Mantle Nummer halt eben nicht voll reiten kann und mit Vulkan ist die Ausgangslage für alle gleich. Sprich kein Extra Einfluss von AMD und genau das wollte die Konkurrenz erreichen.

Konsolen ist ein ganz anderes Thema. Hat nix mit Mantle oder HSA zu tun sondern einfach x86 Paket + GPU zu möglichst geringen Preisen. Die Konsolen sind das einzige was aktuell einigermaßen läuft. Die restlichen 75% des Geschäfts laufen dafür gar nicht.

Mancko
2015-03-18, 09:28:59
Und nicht zu vergessen ist der Effekt sich eine Art Ökosystem aufzubauen, d. h. durch die Konsolen wird automatisch GCN gepusht. Ich glaube, dass AMD momentan vieles hinter den Kulissen richtig macht, was sich aber erst voll mit der Zeit (Windows 10) auswirken wird.

Davon wird sich gar nichts auswirken. AMD hat keinen echten Mehrwert dadurch. Das ist rein Konsolenisoliert mehr nicht. Die Konsolen gibt es ja nun auch schon lange genug damit sich sort echte Vorteile hätten einstellen können. Ist aber in Summe Fehlanzeige. Es ist beim üblichen Spielchen geblieben das der eine hier und der andere da Vorteile in den PC Games hat. Sonst hätte AMD auch nicht so brutal Marktanteile verloren. Das jetzt in irgendwelche Windows 10 Träumereien zu verwandeln ist nun wirklich sehr weit hergeholt. Das ist es genauso realistisch, dass ich nun plötzlich das fliegen lerne.

Thunder99
2015-03-18, 09:35:21
Dann wird es Zeit das sie für einen ausgeglichenen Personalstand sorgen sollen!

Deren Ziele scheinen derzeit einfach zu groß zu sein. Ein guter Treiber ist zwar ein muss aber perfekt muss er doch nicht sein... Regelmäßige Updates mit inkrementelle Verbesserungen scheint da besser zu sein

dargo
2015-03-18, 09:43:17
Davon wird sich gar nichts auswirken. AMD hat keinen echten Mehrwert dadurch.
Die Auswirkungen (sollte es welche nennenswert geben) werden sich erst 2015/2016 langsam zeigen. Reine Next-Gen Titel kann ich heute an einer Hand abzählen.

Godmode
2015-03-18, 09:51:21
Nochmal auch fuer Dich:

1. Titan ist ein Sonderprodukt fuer das AMD keine Antwort hat und wohl auch nicht haben kann.

2. Fiji und co sind fuer Juni projeziert. Punkt.

3. Bis zum Juni haben die Gruenen Zeit die paar Titanen zu verkaufen die sie verkaufen wollen und koennen dann sehen ob sie etwas gegen Fiji direkt stellen wollen.

4. Wenn AMD's top dog sich tatsaechlich bei einem >$700 MSRP einpendelt, sollten die hard fanboys froh sein dass NV AMD nicht am oberen Ende mit niedrigeren Preisen angreift.

@1: Was willst du damit sagen? Geht es da um die Leistung oder um was anderes?

Skysnake
2015-03-18, 09:55:46
Bzgl treiber sollte man nicht vergessen, das Fiji wohl HSA kompatibel sein wird. Da wird man schon einiges an Arbeit in den Treiber stecken muessen.

HOT
2015-03-18, 09:57:47
Die 300 Serie kommt nicht im Juni. Vielleicht kommt Fiji im Juni, der Rest kommt aber im April. Ich halte das für sehr sicher. Sonst hat AMD gar keine Grafikkarten mehr auf dem Markt von April bis Juni.
Und das Titan X Salvage sei ist purer Schwachsinn. Das ist ne Ausrede von NV Fanboy die sich mehr davon versprochen hatten als NV liefern konnte. Dass die Architektur reif ist sieht man am GM204, es ist ja auch schon die zweite Inkarnation von Maxwell. Und auf den Prozess kann man das auch nicht schieben. Nein, das Teil wird wohl kaum noch viel besser werden.
NV wird jetzt bis Herbst 2016 mit dem Auskommen was man hat (jedenfalls wenn man bei TSMC geblieben ist. Sollte man rechtzeitig nach Samsung gewechselt sein, dürfte Pascal früher kommen.). Die 980ti wird noch als Salvage nachgeschoben, während man sich diesmal tatsächlich einer sehr starken Konkurrenz gegenüber sieht.

Dural
2015-03-18, 10:13:28
Die Titan waren bis jetzt immer langsamer als das GTX Ti Gegenstück.
Ist auch logisch, da man mit der hälfte Speicher sicher einige Watt einsparen kann + Partner Karte mit anderen Kühler usw.
Das hat nichts mit Wunsch denken zu tun.

Und wer mehr von der Titan X erwartet hat, hat Technisch so wie so keine Ahnung. Auf Einheiten und Takt bezogen ist sie genau dort wo sie sein soll.

Ailuros
2015-03-18, 10:20:00
@1: Was willst du damit sagen? Geht es da um die Leistung oder um was anderes?

AMD hat nicht das image ein solches premium Produkt bei so hohen Preisen zu verkaufen.

Die Titan waren bis jetzt immer langsamer als das GTX Ti Gegenstück.

Der erste Titan war auch ein salvage part.

Ist auch logisch, da man mit der hälfte Speicher sicher einige Watt einsparen kann + Partner Karte mit anderen Kühler usw.
Das hat nichts mit Wunsch denken zu tun.

Wenn die Anzahl der Speicherchips zwischen 12 und 6GB pro SKU gleich ist, soll es inwiefern den Stromverbrauch beeinflussen?

Und wer mehr von der Titan X erwartet hat, hat Technisch so wie so keine Ahnung. Auf Einheiten und Takt bezogen ist sie genau dort wo sie sein soll.

Wenn es zu "Ahnung" kommt sind wir sowieso ziemlich satt von Deinen Beitraegen :P

mironicus
2015-03-18, 10:25:22
AMD hat nicht das image ein solches premium Produkt bei so hohen Preisen zu verkaufen.

Lösung: Sie fangen an ein Premiumprodukt zu verkaufen um dieses Image zu erhalten, mit der neuen R390x. Irgendwann muss man ja mal einen Schritt wagen. ;D

HOT
2015-03-18, 10:27:37
Die Titan waren bis jetzt immer langsamer als das GTX Ti Gegenstück.
Ist auch logisch, da man mit der hälfte Speicher sicher einige Watt einsparen kann + Partner Karte mit anderen Kühler usw.
Das hat nichts mit Wunsch denken zu tun.

Und wer mehr von der Titan X erwartet hat, hat Technisch so wie so keine Ahnung. Auf Einheiten und Takt bezogen ist sie genau dort wo sie sein soll.
Die Titan Black Referenz ist schneller als die GTX780Ti Referenz und die Titan ist schneller als die GTX780 Referenz... Außerdem haben die gleich viel Speicherchips, das wird den Bock nicht fett machen. NV konnte ebenfalls noch eine WCE auflegen, das wird man aber den Herstellern überlassen. Titan X ist Vollausbau mit Maximaltakt/Powertarget und die 980ti wird meiner Ansicht nach Salvage sein oder NV legt eine GTX990Ti und GTX990 auf, die etwas langsamer sind und weniger Speicher haben.

Armaq
2015-03-18, 10:29:17
Ich glaube für die Marke AMD ist es der richtige Schritt eine "runde Lösung" ins Regal zu stellen.
Ändert HBM eigentlich etwas an der Verzögerung wie bspw. HDD zu SSD? Natürlich nicht in diesem Extrem, aber kann das von Vorteil sein?

Ailuros
2015-03-18, 10:31:01
Lösung: Sie fangen an ein Premiumprodukt zu verkaufen um dieses Image zu erhalten, mit der neuen R390x. Irgendwann muss man ja mal einen Schritt wagen. ;D

AMD ist wohl Deiner Meinung nach in einer idealen Lage irgendwelches Risiko momentan einzugehen oder?

HOT
2015-03-18, 10:35:46
AMD ist wohl Deiner Meinung nach in einer idealen Lage irgendwelches Risiko momentan einzugehen oder?
Sie sind in der Lage, dass sie Risiken eigehen müssen.

Ailuros
2015-03-18, 10:43:43
Sie sind in der Lage, dass sie Risiken eigehen müssen.

Dann rede ich offensichtlich ueber ein anderes AMD. Wenn sie irgendwo ein MUSS gegeben haette waere es die neuen Produkte frueher auf den Markt zu bringen; alles andere danach ist nur substanzloser Unfug.

dargo
2015-03-18, 10:44:11
AMD hat nicht das image ein solches premium Produkt bei so hohen Preisen zu verkaufen.

Hmm... ich frage mich dabei gerade warum die Titan Z dann um schlappe 1400€ im Preis (kurzzeitig 1500€) gefallen ist? :uponder:
http://geizhals.at/de/?phist=1121809

Ailuros
2015-03-18, 10:45:48
Hmm... ich frage mich dabei gerade warum die Titan Z dann um schlappe 1400€ im Preis (kurzzeitig 1500€) gefallen ist? :uponder:
http://geizhals.at/de/?phist=1121809

Was hat das mit AMD jetzt zu tun? Die Antwort schlummert im Preis-/Leistungsverhaeltnis von der TitanZ im Vergleich zu TitanX.

dargo
2015-03-18, 10:48:13
Was hat das mit AMD jetzt zu tun?

Image und so.


Die Antwort schlummert im Preis-/Leistungsverhaeltnis von der TitanZ im Vergleich zu TitanX.
Der Preis der Titan Z lag schon November 2014 bei 1650€, da war die Titan X noch lange nicht greifbar.

mironicus
2015-03-18, 10:50:51
AMD ist wohl Deiner Meinung nach in einer idealen Lage irgendwelches Risiko momentan einzugehen oder?

Wichtiger ist erst mal ein Produkt auf dem Markt zu bekommen was ganz oben mitspielt. Wenn die R390x kommt, kann NVidia mit einem Salvage von GM200 und einer 6 GB-Variante nicht dagegen ankommen. AMD kann seine Karte teurer verkaufen. Daher auch der nicht allzu hohe Preis der Titan X, die hätte NVidia auch für 1500 Dollar anbieten können, wenn sie nicht wüßten das die Konkurrenz bald mit etwas gleichwertigem bzw. besserem kommen wird.

Ailuros
2015-03-18, 10:52:13
Image und so.

Wenn AMD die TitanZ verkaufen wuerde, wuerde ich auch einen Zusammenhang sehen.

Der Preis der Titan Z lag schon November 2014 bei 1650€, da war die Titan X noch lange nicht greifbar.

Es hat immer noch nichts mit AMD zu tun. Selbst wenn sich jemand noch mehr Zeit verschwenden wuerde und den Preisverlauf einer 295X2 mit der von der TitanZ vergleichen wuerde bleibt es immer noch OT.

HOT
2015-03-18, 10:54:59
Dann rede ich offensichtlich ueber ein anderes AMD. Wenn sie irgendwo ein MUSS gegeben haette waere es die neuen Produkte frueher auf den Markt zu bringen; alles andere danach ist nur substanzloser Unfug.
Quatsch. Jetzt schon auf HBM zu setzen war offensichtlich ein enormes Risiko, es wird sich diesmal aber auszahlen. Sowas kann furchtbar schief gehen. Ich rede von echten Risiken. Man musste das Risiko eine Big-Chips dieses mal tatsächlich auch eingehen, sonst wär man permanent abgefallen mit seinen Marktanteilen. Zusätzlich hat man evtl. noch das Risiko eines Foundrywechsels auf sich genommen. Das sind doch alles wirtschaftliche Risiken, aber es geht nunmal nicht ohne, sonst geht man unter.
AMD war in seinen Aktionen bislang oft extrem konservativ, außer bei BD und wir wissen wie das ausgegangen ist. Dennoch muss man an der Strategie festhalten und versuchen Kosten einzusparen, auch wenn das Risiken eingehen bedeutet. Wer nicht wagt der nicht gewinnt.

mironicus
2015-03-18, 10:57:47
Und um immerhin eine HBM-Speziallösung zu finden um eine Karte mit 8 GB anbieten zu können, was essientiell ist. AMD hat die richtigen Entscheidungen getroffen.

Ailuros
2015-03-18, 10:58:20
Wichtiger ist erst mal ein Produkt auf dem Markt zu bekommen was ganz oben mitspielt.

Mit halbgahren Treibern? Haetten sich auch vor Wochen machen koennen.

Wenn die R390x kommt, kann NVidia mit einem Salvage von GM200 und einer 6 GB-Variante nicht dagegen ankommen. AMD kann seine Karte teurer verkaufen. Daher auch der nicht allzu hohe Preis der Titan X, die hätte NVidia auch für 1500 Dollar anbieten können, wenn sie nicht wüßten das die Konkurrenz bald mit etwas gleichwertigem bzw. besserem kommen wird.

Wieso braucht NV einen salvage GM200 um auf AMD's top dog bei niedrigeren Preisen zu antworten wenn sie es wollen?

Ein MSRP von $999 ist nicht "hoch" fuer TitanX? :rolleyes:

Ailuros
2015-03-18, 11:00:47
zero

-/\-CruNcher-/\-
2015-03-18, 11:06:14
Die Auswirkungen (sollte es welche nennenswert geben) werden sich erst 2015/2016 langsam zeigen. Reine Next-Gen Titel kann ich heute an einer Hand abzählen.

Sie zeigen sich schon langsam mann muss sie aber erkennen können, glaubst du ich bin umsonst hier ;)
AMD steht bald auf Augenhöhe und das haben sie verdient bzw ATI hat das ;)

Mancko
2015-03-18, 11:06:20
Die Auswirkungen (sollte es welche nennenswert geben) werden sich erst 2015/2016 langsam zeigen. Reine Next-Gen Titel kann ich heute an einer Hand abzählen.

Glaubst Du wirklich ernsthaft, dass sich nach so einem langen Zeitraum da irgendwas zeigt? Ganz ehrlich, wenn ich das jetzt mal sehr optimistisch auslege und einen AAA Spieletitel finden würde der genau das aufzeigt, dann nimmt Nvidia einfach Geld in die Hand und bringt Gameworks ins Spiel oder aber lässt seine Treiberabteilung von der Kette die kurzerhand einfach alles kritische replacen.

M.E. versprecht ihr Euch davon zu viel. AMD hat nicht die Masse um davon wirklich zu profitieren. Wenns unbedingt sein muss kauft sich Nvidia kurzerhand beim Publisher ein und das Thema ist erledigt.

-/\-CruNcher-/\-
2015-03-18, 11:16:48
Glaubst Du wirklich ernsthaft, dass sich nach so einem langen Zeitraum da irgendwas zeigt? Ganz ehrlich, wenn ich das jetzt mal sehr optimistisch auslege und einen AAA Spieletitel finden würde der genau das aufzeigt, dann nimmt Nvidia einfach Geld in die Hand und bringt Gameworks ins Spiel oder aber lässt seine Treiberabteilung von der Kette die kurzerhand einfach alles kritische replacen.

M.E. versprecht ihr Euch davon zu viel. AMD hat nicht die Masse um davon wirklich zu profitieren. Wenns unbedingt sein muss kauft sich Nvidia kurzerhand beim Publisher ein und das Thema ist erledigt.

Diese Strategie funktioniert in Zukunft aber nicht mehr du sagtest es selbst gleiche bedingungen und du hast richtig erkannt das ist der neue pfad der Differenzierung den man bei Nvidia eingeschlagen hat.

Nvidia wird mit Pascal einen ganz anderen Angriff starten (abwarten)

wir sind mitten in der Phase der Konsolidierung da wird einiges passieren :)

Nvidia hat sich schon bei zumindestens einem Publisher eingekauft und der Erfolg ist sehr mässig bis jetzt ;)

Korvaun
2015-03-18, 11:20:54
Zumindest ist es für AMD nicht von Nachteil das beide aktuellen Konsolen AMD-Hardware haben. Das bedeutet ja das alle Entwickler sich mit AMD Hardware vertraut machen müssen, insbesondere das leidige Optimierungs-Thema der Konsolen (Full-HD/60fps) sollte besser optimierte Engines für AMD-Hardware bringen als es bisher der Fall war. Das NV das mit Geld/Entwicklern (noch?) ausgleichen kann ist ja in Ordnung.

-/\-CruNcher-/\-
2015-03-18, 11:25:40
Nvidia hat aber auch ihre Platform und die steht unter ihrer eigenen kompletten Kontrolle, das darf man nicht aus dem Auge verlieren :)

Und wird momentan belächelnd von den anderen (als Spielzeug) dem Konsumenten untergejubelt es ist aber wahrlich kein Spielzeug sondern part ihrer Strategie ;)

Botcruscher
2015-03-18, 11:25:53
Die Treibergeschichte passt aber auch nicht als alleinige Erklärung. Da wird AMD sich wohl auch mal Zeit für ordentliche Herstellerkarten genommen haben. Der Abverkauf der vollen Lager steht auch noch im Raum.

mironicus
2015-03-18, 11:28:47
Nvidia hat sich schon bei zumindestens einem Publisher eingekauft und der Erfolg ist sehr mässig bis jetzt ;)

Da sieht man mal in welcher Position sich momentan NVidia befindet. Die müssen Geld ausgeben um Zuneigung zu erhalten, von selbst aus kommt niemand mehr auf sie zu. :freak:

-/\-CruNcher-/\-
2015-03-18, 11:32:57
Jo da war die GTX 970 geschichte nicht sehr förderlich es war ein komplettes Marketing versagen diese Marketing leute sind generel versager weil sie nichts richtig verstehen einfach nur erzogene Kinder die nicht selber denken können, allerdings sehr gefährliche Menschen was Entscheidungen angeht man sollte lieber auf sich selbst hören als auf die am Tisch ;)

Gipsel
2015-03-18, 11:36:15
Ändert HBM eigentlich etwas an der Verzögerung wie bspw. HDD zu SSD? Natürlich nicht in diesem Extrem, aber kann das von Vorteil sein?Latenzen bleiben praktisch gleich, die Bandbreite geht halt hoch bei weniger als halbem Stromverbrauch (bei gleicher Bandbreite). Das war's.
Die effektive Bandbreitenausnutzung könnte leicht steigen, weil es mehr Kanäle und mehr gleichzeitig offene Speicherbänke gibt sowie der Refresh nicht mehr für einen ganzen Chip sondern für jede Bank einzeln erfolgen kann. Das hängt aber vom Zugriffsmuster und den Umständen ab und dürfte im Normalfall nicht übermäßig viel ausmachen.

Ravenhearth
2015-03-18, 12:42:04
Könnte es sein, dass AMD dual-link auch in Zukunft noch braucht? Mit Hynix' HBM Gen2 sind zwar 8GB ohne dual-link möglich, aber was ist mit den FirePro-Karten? Könnten die das nicht nutzen, um 16GB anzubinden? Oder bieten sich eher andere Lösungen an?

ndrs
2015-03-18, 13:04:41
Könnte es sein, dass AMD dual-link auch in Zukunft noch braucht? Mit Hynix' HBM Gen2 sind zwar 8GB ohne dual-link möglich, aber was ist mit den FirePro-Karten? Könnten die das nicht nutzen, um 16GB anzubinden? Oder bieten sich eher andere Lösungen an?
Wenn ich mich recht erinnere sollte HBM2 nicht nur die Kapazität pro Schicht, sondern auch die Anzahl der Schichten verdoppeln, was in einer vierfachen maximalen Kapazität münden würde. Die Grenze bei vier Interfaces läge dann bei 16GB.
Aber prinzipiell ist es natürlich immer gut, eine solche Entwicklung schon in der Schublade zu haben. Spätestens wenn sich HBM in allen Segmenten etabliert hat, braucht man es wieder um bei einer R5 750 32GB Speicher an einem einzigen 1024Bit Interface anzubinden :freak:

Dural
2015-03-18, 13:10:44
Latenzen bleiben praktisch gleich, die Bandbreite geht halt hoch bei weniger als halbem Stromverbrauch (bei gleicher Bandbreite). Das war's.


Das bedeutet aber ja nichts anders das HBM mit 640GB/s in etwa so viel Strom verbraucht wie Hawaii mit seinen 320GB/s GDDR5 :rolleyes:

So mit hat Fiji für die restliche GPU nicht mehr Watt zur Verfügung gegenüber Hawaii. Wie so wird den hier Monate lang was deutlich anders gesagt?

Blediator16
2015-03-18, 13:36:09
Das bedeutet aber ja nichts anders das HBM mit 640GB/s in etwa so viel Strom verbraucht wie Hawaii mit seinen 320GB/s GDDR5 :rolleyes:

So mit hat Fiji für die restliche GPU nicht mehr Watt zur Verfügung gegenüber Hawaii. Wie so wird den hier Monate lang was deutlich anders gesagt?

Es wird bei manchen, so wie dir, am Ende sowieso keinen Unterschied machen. Irgendwas wird sowieso "scheisse" sein und du wirst wieder das Haar in der Suppe finden, egal was es sein wird.

Ailuros
2015-03-18, 13:41:25
Auf purer sachlicher Ebene wenn mein Verbrauch zwischen N und N*2 Bandbreite gleich gross ist, ist es von sich aus schon ein ziemlich grosser Gewinn. Muss und soll aber auch nicht jeder verstehen koennen, sonst wird es langweilig hier :freak:

Unicous
2015-03-18, 13:56:21
Dass es eine Folie gibt, die hier und sonst wo schon zig mal gepostet wurde, die von weiter mehr als halbierter Leistungsaufnahme bei gleichbleibender Bandbreite ausgeht, mal außen vor gelassen.:wink:

Dural kommentiert halt gern, des Kommentierens wegen. Kohärenz und Logik darf man nicht erwarten. (warum ist er eigentlich noch auf meiner ignore-list...gleich mal fixen)


@HBM2

Das ist so wie es scheint eher eine Herstellungsprozess-Limitierung als eine wirklich technologische und wird auch nur exklusiv von SK hynix genutzt, hat also nichts mit dem JEDEC-Standard zu tun. Bevor Gipsel uns das eröffnet hat, ging ich z.B. davon aus, dass es eine separate Spec sei. Ist es aber nicht.

Ich schätze mal, wenn man auf einen kleineren node wechselt, kann man auch "HBM 2" herstellen und deswegen wird man erst 2016 mit der Produktion beginnen können.

Effe
2015-03-18, 14:04:57
Freesync geht bald los:
Tinytomlogan: Lets see what all this #Freesync fuss is about then....
https://www.facebook.com/tinytomlogan/photos/a.199509330089988.47891.188125641228357/927649287275985/?type=1&theater

Gipsel
2015-03-18, 14:11:03
Könnte es sein, dass AMD dual-link auch in Zukunft noch braucht? Mit Hynix' HBM Gen2 sind zwar 8GB ohne dual-link möglich, aber was ist mit den FirePro-Karten? Könnten die das nicht nutzen, um 16GB anzubinden? Oder bieten sich eher andere Lösungen an?Laut Hynix ermöglicht ihre zweite Produktgeneration 8GB pro Stack.
Wenn ich mich recht erinnere sollte HBM2 nicht nur die Kapazität pro Schicht, sondern auch die Anzahl der Schichten verdoppeln, was in einer vierfachen maximalen Kapazität münden würde. Die Grenze bei vier Interfaces läge dann bei 16GB.Hynix will auf 8 GBit pro Die gehen (momentan nur 2 GBit). Die FirePros könnten also 32 GB mit 4 Stacks erreichen.
Das bedeutet aber ja nichts anders das HBM mit 640GB/s in etwa so viel Strom verbraucht wie Hawaii mit seinen 320GB/s GDDR5 :rolleyes:Es ist weniger als die Hälfte. Laut nVidia (;)) und auch AMD liegt es bei einem Drittel bei gleicher Bandbreite.

Das sagt AMD:
http://cdn3.wccftech.com/wp-content/uploads/2014/05/AMD-HBM-Die-Stacked-Memory.jpeg
Faktor 3.

NVidia sagt (http://www.cs.utah.edu/thememoryforum/mike.pdf) für GDDR5 (wohl für ein 7Gbps Interface, mit steigender Geschwindigkeit wird es etwas mehr), daß jedes übertragene Bit 18-22pJ Energie kostet, mit HBM nur 6-7pJ (da ist wieder der Faktor drei). Für ein 7Gbps 384Bit Interface (GM200) wären das zwischen 48W und 59W. Mit HBM bei gleicher Bandbreite zwischen 16 und 19W, also locker mal 30-40W Unterschied.

Nimmt man jetzt die nV-Angaben und rechnet das auf AMDs Angaben mit dem hochgetakteten (8Gbps, dürfte wie gesagt tendenziell etwas mehr schlucken als ein 7Gbps-Interface) 512Bit GDDR5-Interface hoch, kommt man auf Werte zwischen 74W und 90W, also ziemlich im Bereich der AMD-Angabe von 85W. Mit HBM stehen bei gleicher Bandbreite zwischen 25 und 29W zu Buche, AMD gibt da offenbar 29W an, paßt also auch recht gut. Die Angaben von AMD und nV passen also zusammen und ergeben ein stimmiges Bild.
Mit HBM spart man da also bei gleicher Bandbreite von 512GB/s bereits knapp 60W gegenüber GDDR5. Auch gegenüber dem GM200-Interface spart man noch etwa 25W bei gleichzeitig 52% höherer Bandbreite. Selbst mit den 640GB/s, die offenbar Fiji bietet, ergeben sich etwa 34W (31-36W laut nV-Angaben für HBM) für das Speichersubsystem und damit immer noch etwa 20W weniger gegenüber dem GDDR5-Interface des GM200 bei beinahe doppelter (190%) Bandbreite. Aus der Sicht lohnt sich das also sehr wohl.

HOT
2015-03-18, 14:52:37
HBM2 kann also maximal 32GB, wenn man trickst 64. Damit kann man schon mal gut arbeiten. Und die Bandbreiten sind ja ebenfalls krank.
Was bei HBM aber der Kracher ist sind die Latenzen, die müssen ja irre niedriger sein als mit externen RAM.

MadManniMan
2015-03-18, 15:02:00
Es wird dringend Zeit, dass ich ein Modul in Elektrotechnik belege: wodurch kommen die geringeren Latenzen zustande? Reden wir hier wirklich über Signallaufzeiten bzw. -wege?

Klar wäre die physischen Distanzen ne kanppe Größenordnung drunter, aber macht das tatsächlich was aus?

Ich übertreibe jetzt mal und setze 5 cm für normalen RAM und 5 mm für HBM an, dann hätten wir Laufzeiten von der Größenordnung 0,1 vs. 0,01 Nanosekunden. Hm.

fondness
2015-03-18, 15:07:51
Wie von Gipsel schon mehrmals erwähnt ändert sich an den Latenzen kaum etwas ggü. GDDR5. Die Signale erreichen annähernd Lichtgeschwindigkeit und deshalb stellt die Signallaufzeit keinen limitierenden Faktor dar, egal ob 5cm oder 5mm Signallaufwege.

Gipsel
2015-03-18, 17:22:30
Wie von Gipsel schon mehrmals erwähnt ändert sich an den Latenzen kaum etwas ggü. GDDR5. Die Signale erreichen annähernd Lichtgeschwindigkeit und deshalb stellt die Signallaufzeit keinen limitierenden Faktor dar, egal ob 5cm oder 5mm Signallaufwege.
Genau. Die Latenzen werden vom DRAM selber limitiert, nicht vom Interface. Und die eigentlichen DRAM-Arrays sind bei allen Speichertypen immer ziemlich genau die selben.

chgamauf
2015-03-18, 17:32:51
Wie von Gipsel schon mehrmals erwähnt ändert sich an den Latenzen kaum etwas ggü. GDDR5. Die Signale erreichen annähernd Lichtgeschwindigkeit und deshalb stellt die Signallaufzeit keinen limitierenden Faktor dar, egal ob 5cm oder 5mm Signallaufwege.

Die Geschwindigkeit eines elek. Signales auf einer Leiterplatte beträgt nicht mal annähernd die Lichtgeschwindigkeit. Die Geschwindigkeit hängt von der Dielektrizitätskonstante. v=c/er^(1/2) als ca. c/2 für FR4.

w0mbat
2015-03-18, 17:33:37
Videocardz hat einige Folien einer Präsentation veröffentlicht, die für AMDs Board-Partner gedacht ist und Details über die kommende Radeon R9 390X auflistet. Wir haben uns die Echtheit des Dokuments von einer Quelle bestätigen lassen[...]
http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.html

Golem scheint den Leak für echt zu halten. Ich hatte bis jetzt ja noch meine Zweifel (vor allem weil die 290X als DX11.2 bezeichnet wird und die 390X "nur" als DX12 und nicht mit Feature Level 12.1), aber scheint echt zu sein. Vielleicht wird bei den AIBs Präsentationen auch nicht so viel Wert auf völlständige DX Spezifikationen gelegt. Golems Quelle bestätigt nämlich DX12.1 für Fiji.

Mit den hohen Preisen, der großen Speicherbandbreite und der extremen theoretischen Rechenleistung könnte da echt ein Monster auf uns zu kommen. Ich kann mir Titax X + ne Steigerung im zweistellen Prozentbereich (bei 4k) vorstellen.

Bin vor allem auf mehr Infos zu diesem "dual-link" Modus gespannt. Golem schreibt außerdem:
Da Hynix derzeit nur HBM-Stapel mit 1 GByte anbietet, soll der Speicherhersteller gemeinsam mit AMD eine Technik entwickelt haben, die zwei Stapel mit einem Interposer koppelt.

Was auch sehr interessant wird sind die kleinen GPUs. Wird nur Fiji was wirklich neues? Wieviele re-brands bekommen wir? Oder gar alles neu?

Hoffentlich gibts bald mehr Infos!

tm0975
2015-03-18, 17:37:06
Nvidia hat aber auch ihre Platform und die steht unter ihrer eigenen kompletten Kontrolle, das darf man nicht aus dem Auge verlieren :)

ja, mit der eigenen kompletten kontrolle hast du recht. das zeugs stapelt sich in nvidias inventory, was man von xbox und ps4 nicht behaupten kann. beim thema home entertainment haben sie gegen apple und samsung keine chance, beim thema spielkonsolen gegen ms und sony nicht. und demnächst aktualisiert nintendo auch wieder. und das thema cloud gaming ist sowas von tot. ich will 4 k mit 120 hz und keinen rüchschritt ins letzte jahrtausend.

john carmack
2015-03-18, 17:39:12
Wie von Gipsel schon mehrmals erwähnt ändert sich an den Latenzen kaum etwas ggü. GDDR5. Die Signale erreichen annähernd Lichtgeschwindigkeit und deshalb stellt die Signallaufzeit keinen limitierenden Faktor dar, egal ob 5cm oder 5mm Signallaufwege.
Genau. Die Latenzen werden vom DRAM selber limitiert, nicht vom Interface. Und die eigentlichen DRAM-Arrays sind bei allen Speichertypen immer ziemlich genau die selben.


Was ist der Unterschied zwischen den Signallaufwegen zwischen DDR und HBM außer das die Wege bei HBM viel kürzer sind?

Godmode
2015-03-18, 17:40:50
Golem scheint den Leak für echt zu halten. Ich hatte bis jetzt ja noch meine Zweifel (vor allem weil die 290X als DX11.2 bezeichnet wird und die 390X "nur" als DX12 und nicht mit Feature Level 12.1), aber scheint echt zu sein. Vielleicht wird bei den AIBs Präsentationen auch nicht so viel Wert auf völlständige DX Spezifikationen gelegt. Golems Quelle bestätigt nämlich DX12.1 für Fiji.

Mit den hohen Preisen, der großen Speicherbandbreite und der extremen theoretischen Rechenleistung könnte da echt ein Monster auf uns zu kommen. Ich kann mir Titax X + ne Steigerung im zweistellen Prozentbereich (bei 4k) vorstellen.

Bin vor allem auf mehr Infos zu diesem "dual-link" Modus gespannt. Golem schreibt außerdem:


Was auch sehr interessant wird sind die kleinen GPUs. Wird nur Fiji was wirklich neues? Wieviele re-brands bekommen wir? Oder gar alles neu?

Hoffentlich gibts bald mehr Infos!

Ich verstehe nicht, warum man nicht jetzt schon Leistungswerte spoilert? Ich möchte eigentlich nicht unbedingt lange Warten, aber die Titan X überzeugt halt angesichts des Preises doch nicht 100%.

Schnoesel
2015-03-18, 17:42:32
Inkusive Steuer macht das bei 700 Dollar ca. 780€. + Kühlblock , da kommst was zusammen :freak: Also ca. 900 mit Wakü. Sportlich !

fondness
2015-03-18, 17:46:27
Ich verstehe nicht, warum man nicht jetzt schon Leistungswerte spoilert?

Weil der maximale Hype dann erreicht werden soll, wenn man die Karte auch kaufen kann und nicht Wochen davor. AMD hat eh schon relativ viel geteased inkl. neuer Features.

Sunrise
2015-03-18, 17:49:36
Inkusive Steuer macht das bei 700 Dollar ca. 780€. + Kühlblock , da kommst was zusammen :freak: Also ca. 900 mit Wakü. Sportlich !
Was sind denn bitte 900 EUR wenn du relativ dazu massig neue Features und Performance bekommen würdest. Ist alles relativ. Wir sollten AMD erstmal liefern lassen, dann ganz ganz am Schluss kann man den Preis relativieren. Sieht aber nicht schlecht aus, bisher hat uns AMD in jedem Punkt überrascht.

Ich freu mich auf das Teil.

fondness
2015-03-18, 17:54:43
Die Geschwindigkeit eines elek. Signales auf einer Leiterplatte beträgt nicht mal annähernd die Lichtgeschwindigkeit. Die Geschwindigkeit hängt von der Dielektrizitätskonstante. v=c/er^(1/2) als ca. c/2 für FR4.

Annähernd ist zugegebenermaßen großzügig gerundet, sagen wir es ist mehr als schnell genug. :)

Gipsel
2015-03-18, 17:59:01
Die Geschwindigkeit eines elek. Signales auf einer Leiterplatte beträgt nicht mal annähernd die Lichtgeschwindigkeit.Aber immer noch verdammt schnell. Halbe Lichtgeschwindigkeit kommt etwa hin als Faustregel (natürlich abhängig von den Dielektrizitätskonstanten, wie Du schriebst). Ändert aber nicht viel daran, daß die Signallaufzeiten im Normalfall kein limitierender Faktor bei DRAM-Latenzen sind.

Gipsel
2015-03-18, 18:01:05
Was ist der Unterschied zwischen den Signallaufwegen zwischen DDR und HBM außer das die Wege bei HBM viel kürzer sind?Die Signallaufwege haben eine geringere Kapazität, werden geringer getaktet und benötigen keine Terminierung. Deshalb benötigt man wesentlich weniger Energie, um da Bits drüberzuschicken.

Schnoesel
2015-03-18, 18:04:13
Was sind denn bitte 900 EUR wenn du relativ dazu massig neue Features und Performance bekommen würdest. Ist alles relativ.

Erstmal muss geliefert werden und dann öffnet sich evtl. der Geldbeutel. Die Kriegskasse ist voll. +50% auf meine R9290X dürften es schon sein.

Godmode
2015-03-18, 18:08:31
Weil der maximale Hype dann erreicht werden soll, wenn man die Karte auch kaufen kann und nicht Wochen davor. AMD hat eh schon relativ viel geteased inkl. neuer Features.

Das hält aber potentielle Käufer nicht zurück jetzt eine Titan X zu kaufen. Wenn es jetzt aber Folien gäbe, die eine R390X 20% vor einer Titan sehen...

basix
2015-03-18, 18:09:39
Annähernd ist zugegebenermaßen ein dehnbarer begriff, sagen wir es ist mehr als schnell genug. :)

Hey die paar Picosekunden machen es aus ;D

Nee die Gesamtlatenz ist wahrscheinlich nicht von der Signallaufzeit limitiert, da vom Signal bei c/2 ca. 15cm pro Nanosekunde zurückgelegt werden.

Aber eine Rolle kann die Signallaufzeit trotzdem spielen. Siehe DDR3: Da muss man alle Daten-Leiterbahnen zum Speichermodul möglichst mit gleicher Länge routen im nicht Signallaufzeitfehler zu erhalten. Darum immer diese Schlangenlinien auf dem PCB. Angenommen bei 1 GHz Phy-Takt und 15cm Längenunterschied einer Leiterbahn ist genau 1 Signalperiode (oder Bit) Unterschied dazwischen ;)

Bei GDDR5 wird das irgendwie adaptiv "eingemessen", womit man sich das komplizierte Layout sparen kann. Leiterbahn gerade hinziehen und gut ist. Aber ich kann mir vorstellen, dass dieses "einmessen" eine zusätzlich Stufe innerhalb der DRAM-Logik benötigt. Falls dies der Fall ist, wird es garantiert länger dauern die Daten zu verarbeiten, wenn das bei HBM durch die extrem kurzen Signalwege weggelassen oder vereinfacht werden kann.

M4xw0lf
2015-03-18, 18:11:35
Ein bisschen mehr virales Marketing könnte AMD jetzt schon betreiben. Aber auch so sprechen schon viele Leute von Fiji, gerade auch in Titan X-Fäden... der Boden wäre also bereitet, um etwas Fiji-Hype darauf zu säen ^^

Schnoesel
2015-03-18, 18:11:38
Das hält aber potentielle Fanboys nicht zurück jetzt eine Titan X zu kaufen.

Ich habe das mal korrigiert. Jeder der nicht noch auf Fiji wartet um dann die Performance zu vergleichen und gegebenenfalls den Preiskampf mitzunehmen, wird sich eh nicht für die AMD entscheiden. Die Sorte Mensch die vor nem Applestore kampieren kannst nicht überzeugen. Zumal es derzeit kaum neue Games gibt. ich wüsste grade nicht für was ich Titan bräuchte. Ab Mai sollten sie aber langsam mal ranmachen.

PHuV
2015-03-18, 18:12:38
Das hält aber potentielle Käufer nicht zurück jetzt eine Titan X zu kaufen. Wenn es jetzt aber Folien gäbe, die eine R390X 20% vor einer Titan sehen...
Richtig! Wie war das mit dem Spatz in der Hand und der Taube auf dem Dach? :uponder:

R.I.P.
2015-03-18, 18:19:45
Verfolge die Cebit am Rande: Kann das sein, dass nichts von Amd gezeigt oder präsentiert wurde?

dargo
2015-03-18, 18:22:56
Ich hätte mal ne Frage zu dem HBM-Speicher von Hynix. Sind die 1Ghz Takt die kleinste Variante die man kriegen kann? Ich frage mich immer noch wofür man gleich gigantische 640GB/s braucht? Soviel Rohleistung kann selbst die 390X wohl kaum liefern. Wenn es natürlich keinen langsameren Speicher gibt erklärt sich alles von selbst.

Nightspider
2015-03-18, 18:25:35
Coda hat vor kurzem erst gesagt das es noch genug Situationen gibt wo mehr Bandbreite deutlich von Vorteil wären.

basix
2015-03-18, 18:27:26
Coda hat vor kurzem erst gesagt das es noch genug Situationen gibt wo mehr Bandbreite deutlich von Vorteil wären.

Gibt es da Beispiele was denn konkret bei Spielen profitiert? Oder besser gesagt, in welchem Bereich limitiert die jetzige Bandbreite?

PHuV
2015-03-18, 18:32:18
Hm, wenn ich mir das Bild hier ansehe:

http://cdn.videocardz.com/1/2015/03/AMD-Radeon-R9-390X-vs-290X-performance.jpg

Und das mit dem Ergebnisse, wie beispielsweise die UHD.Werte von Computerbase

http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/#diagramm-tomb-raider-3840-2160

dann errechne ich beispielsweise für Tomb Raider 290X mit 24,6 FPS * 1,5 (390X) = 36,9 FPS

Die Titan X liefert 38,8 FPS.

dargo
2015-03-18, 18:32:41
Coda hat vor kurzem erst gesagt das es noch genug Situationen gibt wo mehr Bandbreite deutlich von Vorteil wären.
Beispiele bitte.

w0mbat
2015-03-18, 18:37:17
@PHuV: Und wenn du von der 290X (Max) ausgehst kommst du auf 41,1FPS. Zumal das ein CB Bench ist, vieleicht geht AMD von anderen Zahlen aus. Ganz abgesehen davon, dass das eine langsamere 4GB Version mit nicht finalen Treibern sein könnte.

Also, was lernen wir draus? Nix!

M4xw0lf
2015-03-18, 18:40:19
@PHuV: Und wenn du von der 290X (Max) ausgehst kommst du auf 41,1FPS.
X-D
Alles andere ist auch völliger Stuss, da Fiji seine mutmaßlichen 1050 MHz dank WaKü auch halten dürfte.

fondness
2015-03-18, 18:41:31
Hm, wenn ich mir das Bild hier ansehe:

http://cdn.videocardz.com/1/2015/03/AMD-Radeon-R9-390X-vs-290X-performance.jpg

Und das mit dem Ergebnisse, wie beispielsweise die UHD.Werte von Computerbase

http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/#diagramm-tomb-raider-3840-2160

dann errechne ich beispielsweise für Tomb Raider 290X mit 24,6 FPS * 1,5 (390X) = 36,9 FPS

Die Titan X liefert 38,8 FPS.

Das CB-Rating ist verwirrend, nur die 290X(Max) läuft mit Normaltakt, anders wie bei den NV-Karten.

dildo4u
2015-03-18, 18:41:48
Hm, wenn ich mir das Bild hier ansehe:

http://cdn.videocardz.com/1/2015/03/AMD-Radeon-R9-390X-vs-290X-performance.jpg

Und das mit dem Ergebnisse, wie beispielsweise die UHD.Werte von Computerbase

http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/3/#diagramm-tomb-raider-3840-2160

dann errechne ich beispielsweise für Tomb Raider 290X mit 24,6 FPS * 1,5 (390X) = 36,9 FPS

Die Titan X liefert 38,8 FPS.
Laut Heise wurde doch gesagt das sie unter der 295X2 liegt passt doch.


Hinsichtlich der Performance ordnet AMD beide Karten zwischen der Radeon R9 290X und der enorm schnellen Doppel-GPU-Karte Radeon R9 295X2 ein.

http://www.heise.de/newsticker/meldung/AMDs-Next-Gen-Grafikkarte-R9-390X-soll-ueber-700-US-Dollar-kosten-2575802.html

Godmode
2015-03-18, 18:43:02
Ich hätte mal ne Frage zu dem HBM-Speicher von Hynix. Sind die 1Ghz Takt die kleinste Variante die man kriegen kann? Ich frage mich immer noch wofür man gleich gigantische 640GB/s braucht? Soviel Rohleistung kann selbst die 390X wohl kaum liefern. Wenn es natürlich keinen langsameren Speicher gibt erklärt sich alles von selbst.

Eventuell braucht man dann auch nicht mehr so große Caches auf der GPU?

fondness
2015-03-18, 18:46:12
Ich hätte mal ne Frage zu dem HBM-Speicher von Hynix. Sind die 1Ghz Takt die kleinste Variante die man kriegen kann? Ich frage mich immer noch wofür man gleich gigantische 640GB/s braucht? Soviel Rohleistung kann selbst die 390X wohl kaum liefern. Wenn es natürlich keinen langsameren Speicher gibt erklärt sich alles von selbst.

Nein AMD verbaut sogar schnelleren Speicher als Hynix überhaupt offiziell verkauft.

Hynix listet nur eine Variante mit max. 1Gbps, AMD verbaut 1.25 Gbps HBM.

http://s24.postimg.org/a6xaax4z9/HBM_635x170.png (http://postimage.org/)

dargo
2015-03-18, 18:48:42
Eventuell braucht man dann auch nicht mehr so große Caches auf der GPU?
Glaube ich nicht, Caches erreichen ganz andere Bandbreiten, dagegen ist selbst HBM langsam.

Nein AMD verbaut sogar schnelleren Speicher als Hynix überhaupt offiziell listet.
Strange... umso mehr bin ich auf Fiji gespannt. :freak:

Botcruscher
2015-03-18, 19:16:58
Das CB-Rating ist verwirrend, nur die 290X(Max) läuft mit Normaltakt, anders wie bei den NV-Karten.

Und da sind wir bei der Milchmädchenrechnung schon bei 41,1.

PS: Was AMD verbaut wird bei Hynix nirgendwo gelistet.

Skysnake
2015-03-18, 19:18:27
Hey die paar Picosekunden machen es aus ;D

Nee die Gesamtlatenz ist wahrscheinlich nicht von der Signallaufzeit limitiert, da vom Signal bei c/2 ca. 15cm pro Nanosekunde zurückgelegt werden.

Aber eine Rolle kann die Signallaufzeit trotzdem spielen. Siehe DDR3: Da muss man alle Daten-Leiterbahnen zum Speichermodul möglichst mit gleicher Länge routen im nicht Signallaufzeitfehler zu erhalten. Darum immer diese Schlangenlinien auf dem PCB. Angenommen bei 1 GHz Phy-Takt und 15cm Längenunterschied einer Leiterbahn ist genau 1 Signalperiode (oder Bit) Unterschied dazwischen ;)

Bei GDDR5 wird das irgendwie adaptiv "eingemessen", womit man sich das komplizierte Layout sparen kann. Leiterbahn gerade hinziehen und gut ist. Aber ich kann mir vorstellen, dass dieses "einmessen" eine zusätzlich Stufe innerhalb der DRAM-Logik benötigt. Falls dies der Fall ist, wird es garantiert länger dauern die Daten zu verarbeiten, wenn das bei HBM durch die extrem kurzen Signalwege weggelassen oder vereinfacht werden kann.
Man macht bei GDDR5 ein Training der Links, genau wie bei PCI-E usw.

Das erzeugt auch keine zusätzlichen Latenzen, erfordert aber eben, das man die Abtastpunkte der Signale gegeneinander verschieben kann.

Eventuell braucht man dann auch nicht mehr so große Caches auf der GPU?
Do klar doch. Caches liefern ein vielfaches an bandbreite und haben deutlich niedrigere Latenzen.

Ansonsten kann ich nur sagen, das man eben bei GPGPU NIE! und wenn ich NIE! sage, meine ich wirklich NIE!NEVERE!VER! genug Bandbreite. ;)

mboeller
2015-03-18, 19:20:37
@PHuV: Und wenn du von der 290X (Max) ausgehst kommst du auf 41,1FPS. Zumal das ein CB Bench ist, vieleicht geht AMD von anderen Zahlen aus. Ganz abgesehen davon, dass das eine langsamere 4GB Version mit nicht finalen Treibern sein könnte.

Also, was lernen wir draus? Nix!

Wieso?

Selbst bei den anderen Spielen die in den geleakten Slides von AMD genannt werden ist die 390X in etwa so schnell wie eine TitanX ... passt also IMHO schon. Es wird wohl auf einen Gleichstand (+/-10%, je nach Spiel) hinauslaufen.

Vergleich von
http://www.planet3dnow.de/cms/wp-content/uploads/2015/03/AMD-Radeon-R9-390X-vs-290X-performance-900x508.jpg

und den Computerbase-Benchmarks der TitanX bei 4K

Nakai
2015-03-18, 19:21:33
Glaube ich nicht, Caches erreichen ganz andere Bandbreiten, dagegen ist selbst HBM langsam.


Strange... umso mehr bin ich auf Fiji gespannt. :freak:

L1<->L2 Bandwidth bei GCN ist 64B/Takt per MC. Bei 64 MCs(Hawaii hatte 32 Channels) sind das 4200GB/s, also ja, sehr viel schneller als der HBM.

Gipsel
2015-03-18, 19:31:42
L1<->L2 Bandwidth bei GCN ist 64B/Takt per MC. Bei 64 MCs(Hawaii hatte 32 Channels) sind das 4200GB/s, also ja, sehr viel schneller als der HBM.Das mußt Du durch 2 teilen. Jeder GDDR5-Kanal ist 32Bit breit. Hawaii hat also 16 Kanäle und damit L2-Tiles, die insgesamt 16x64Byte = 1kB pro Takt liefern können. Macht 1 TB/s bei 1GHz. Fiji wird das höchstwahrscheinlich verdoppeln (jeder HBM-Stack hat 8 Kanäle, bei vier sind das dann 32). Der L2 wird also (falls es keine größeren Änderungen gibt) gut die dreifache Bandbreite liefern wie der Speicher. Allerdings ist SRAM flexibler, was die Adressierung angeht. DRAM hat ja je nach Zugriffsmuster teils doch erheblichen Overhead, der die nutzbare Bandbreite erheblich reduzieren kann. Außerdem kostet es auch bei HBM mehr Energie aus dem DRAM zu lesen oder dahin zu schreiben als aus/zu den Caches, es spart also auch Strom.

Dawn on Titan
2015-03-18, 19:36:42
X-D
Alles andere ist auch völliger Stuss, da Fiji seine mutmaßlichen 1050 MHz dank WaKü auch halten dürfte.

Aber möglicherweise dabei TDP-limitiert sein könnte, was Hawaii eben nicht ist.

boxleitnerb
2015-03-18, 19:48:10
Das CB-Rating ist verwirrend, nur die 290X(Max) läuft mit Normaltakt, anders wie bei den NV-Karten.

Nö, das haben wir doch schon 100x durchgekaut. Die NV-Karten laufen ebenso auf Normaltakt mit den Möglichkeiten, die man hier zum "Freilauf" hat, analog zum Uber Modus.

Nakai
2015-03-18, 19:49:42
Das mußt Du durch 2 teilen. Jeder GDDR5-Kanal ist 32Bit breit. Hawaii hat also 16 Kanäle und damit L2-Tiles, die insgesamt 16x64Byte = 1kB pro Takt liefern können. Macht 1 TB/s bei 1GHz. Fiji wird das höchstwahrscheinlich verdoppeln (jeder HBM-Stack hat 8 Kanäle, bei vier sind das dann 32). Der L2 wird also (falls es keine größeren Änderungen gibt) gut die dreifache Bandbreite liefern wie der Speicher. Allerdings ist SRAM flexibler, was die Adressierung angeht. DRAM hat ja je nach Zugriffsmuster teils doch erheblichen Overhead, der die nutzbare Bandbreite erheblich reduzieren kann. Außerdem kostet es auch bei HBM mehr Energie aus dem DRAM zu lesen oder dahin zu schreiben als aus/zu den Caches, es spart also auch Strom.

Ah, ja stimmt. Hab MC mit Channel interpretiert, war aber Controller. Es sind bei Hawaii 8 Controller und 16 Channels, hab das verwechselt. ;D

fondness
2015-03-18, 19:51:38
Nö, das haben wir doch schon 100x durchgekaut. Die NV-Karten laufen ebenso auf Normaltakt mit den Möglichkeiten, die man hier zum "Freilauf" hat, analog zum Uber Modus.

Nenne es wie du willst, jede 290X hält ihren Takt, nur der viel zu schwache Referenzkühler im Quiet-Mode nicht.

boxleitnerb
2015-03-18, 19:53:04
Nenne es wie du willst, jede 290X hält ihren Takt, nur der viel zu schwache Referenzkühler im Quiet-Mode nicht.

Deshalb Max vs Max oder non-Max vs non-Max. Da müssen wir jetzt nicht wieder anfangen rumzudiskutieren.

fondness
2015-03-18, 19:54:50
Deshalb Max vs Max oder non-Max vs non-Max. Da müssen wir jetzt nicht wieder anfangen rumzudiskutieren.

Es ist jedenfalls nicht vergleichbar, da brauchen wir wirklich nicht anzufangen herumzudiskuttieren.

AMD begrenzt im Quiet Mode nur die Lüfterdrehzahl auf 40%, wenn die Karte zu heiß wird wird herunter getaktet, während bei NV "Max" das Power- und Temp-target erhöht wird.

Schaffe89
2015-03-18, 19:56:43
Laut Heise wurde doch gesagt das sie unter der 295X2 liegt passt doch.




http://www.heise.de/newsticker/meldung/AMDs-Next-Gen-Grafikkarte-R9-390X-soll-ueber-700-US-Dollar-kosten-2575802.html

Ist doch albern mit einer untertaktete r9 290x zu vergleichen, zumal die Vergleiche stehts mit einer 1000mhz r9 290x geführt wurden.:freak:
Und die Karte liegt sicherlich von der Rechenleistung unter einer r9 295x2, aber wenn im Parcours 1/6 der Spiele nicht ordentlich skalieren, dann könnte die Endleistung ähnlich ausfallen, man sieht es ja auch mit der Titan.

boxleitnerb
2015-03-18, 19:59:35
Es ist jedenfalls nicht vergleichbar, da brauchen wir wirklich nicht anzufangen herumzudiskuttieren.

AMD begrenzt im Quiet Mode nur die Lüfterdrehzahl auf 40%, wenn die Karte zu heiß wird wird herunter getaktet, während bei NV "Max" das Power- und Temp-target erhöht wird.

Klar ist es vergleichbar. Ob ich den Chip durch stärkere Kühlung kühler mache oder ihn bei gleicher Kühlung heißer werden lasse (mit entsprechender Nachregelung des Lüfters), ist völlig egal - beides löst die Temperaturfesseln etwas, erlaubt höhere Taktraten und damit mehr Performance. Die Leistungsaufnahme muss natürlich dann mit beurteilt werden, soviel ist klar. Rot hat es noch nie gepasst, dass man bei NV eben auch einen Uber Modus hat, der wurde nie akzeptiert. Schade, dass man hier nicht fair vergleichen kann und Prozente heraussuchen muss. Wenn man sich damit besser fühlt, bitte - die meisten wissen, was Sache ist.

P.S.
Plagiate sind unter deinem Niveau, benutze deine eigenen Formulierungen. Danke.

fondness
2015-03-18, 20:03:46
Klar ist es vergleichbar. Ob ich den Chip durch stärkere Kühlung kühler mache oder ihn bei gleicher Kühlung heißer werden lasse (mit entsprechender Nachregelung des Lüfters), ist völlig egal - beides löst die Temperaturfesseln etwas, erlaubt höhere Taktraten und damit mehr Performance. Die Leistungsaufnahme muss natürlich dann mit beurteilt werden, soviel ist klar. Rot hat es noch nie gepasst, dass man bei NV eben auch einen Uber Modus hat, der wurde nie akzeptiert. Schade, dass man hier nicht fair vergleichen kann und Prozente heraussuchen muss. Wenn man sich damit besser fühlt, bitte - die meisten wissen, was Sache ist.

Na solange du bestimmst was fair ist...aber lassen wir das führt eh zu nichts. Die 390X wird das Problem mit der zu schwachen Kühlung ohnehin nicht haben und damit ist auch das leidige Thema erledigt.


P.S.
Plagiate sind unter deinem Niveau, benutze deine eigenen Formulierungen. Danke.

WTF? Ich habe das sicher nirgends abgeschrieben.

w0mbat
2015-03-18, 20:03:51
Deshalb Max vs Max oder non-Max vs non-Max. Da müssen wir jetzt nicht wieder anfangen rumzudiskutieren.

Klar, ich hab 290X (Max) mit Titan X (Max) verglichen.

mczak
2015-03-18, 20:08:15
Ich hätte mal ne Frage zu dem HBM-Speicher von Hynix. Sind die 1Ghz Takt die kleinste Variante die man kriegen kann? Ich frage mich immer noch wofür man gleich gigantische 640GB/s braucht? Soviel Rohleistung kann selbst die 390X wohl kaum liefern. Wenn es natürlich keinen langsameren Speicher gibt erklärt sich alles von selbst.
Es gibt immer Situationen wo man das brauchen kann. Es ist allerdings schon so dass Hawaii nicht gerade vor lauter Bandbreitenmangel verhungert ist :-).
Man könnte sich allenfalls fragen ob da die Framebufferkomprimierung noch Sinn macht (dass man generell mehr Bandbreite brauchen kann siehst du ja schon daran dass eben sowas gemacht wird). Bei AMD (Tonga) funktioniert die eh nicht bei FP32, und bei Compute kannst du das wohl sowieso vergessen. Und die ist natürlich auch nicht gratis (sowohl Stromverbrauch wie Transistoren), wenn also mit HBM ziemlich viel Bandbreite relativ "billig" zu bekommen ist rentiert sowas möglicherweise nicht mehr.

fondness
2015-03-18, 20:08:17
Klar, ich hab 290X (Max) mit Titan X (Max) verglichen.

Ich finde es im übrigen seltsam das die TITAN X bei CB dadurch nur 3% zulegt während die Leistunsgaufnahme doch deutlich steigt.

samm
2015-03-18, 20:15:50
Es gibt immer Situationen wo man das brauchen kann. Es ist allerdings schon so dass Hawaii nicht gerade vor lauter Bandbreitenmangel verhungert ist :-)
Zwei Gründe:

- Reduzierung der Abwärme, verkleinert also den Effizienz-Abstand zu Maxwell und erlaubt es AMD erst, noch schnellere Karten als die 290X im alten 28nm Prozess herzustellen, ohne grundlegend die GCN-Architektur zu überabeiten

- Klare Beseitigung eines möglichen Bottlenecks, man kann sich also quasi unbesorgt um die nächsten Stellschrauben kümmern

von Richthofen
2015-03-18, 20:24:18
Das CB-Rating ist verwirrend, nur die 290X(Max) läuft mit Normaltakt, anders wie bei den NV-Karten.

Leider testet man auch keine der anderen Karten auf neuen Treibern durch. So laufen dann manche auf echt alter Software (http://www.computerbase.de/2014-08/grafikkarten-testverfahren/):

Treiberversionen

AMD Catalyst 14.6 RC2
AMD Catalyst 14.30 Beta (R9 285)
Nvidia GeForce 340.43 Beta
Nvidia GeForce 344.07 (GTX 970, GTX 980)
Nvidia GeForce 347.84 (GTX Titan X)

Die Tests sind immer sehr schön aber hier ist der Vergleich nicht aktuell genug.

maguumo
2015-03-18, 20:25:57
AMD wird sicherlich auch an der Effizienz der GPU selbst gearbeitet haben. Mindestens den aufgebohrten AVFS Kram den wir von den Carrizo Präsentationen kennen wird wohl auch Fiji haben...

Raff
2015-03-18, 20:30:38
Nenne es wie du willst, jede 290X hält ihren Takt, nur der viel zu schwache Referenzkühler im Quiet-Mode nicht.

Nein, es gibt genügend 290X-Partnerdesigns, die in bestimmten Spielen an die Power-Mauer fahren und sich leicht heruntertakten müssen, darunter (aus dem Kopf) die Powercolor PCS+ und auch die 290X New Edition - wobei ich nur die 8-GiB-OC-Version kenne. Symptomatisch ist, dass eine geringfügige Anhebung des Powertune-Limits hilft, den Takt zu stabilisieren.

Leider testet man auch keine der anderen Karten auf neuen Treibern durch. So laufen dann manche auf echt alter Software (http://www.computerbase.de/2014-08/grafikkarten-testverfahren/):
Die Tests sind immer sehr schön aber hier ist der Vergleich nicht aktuell genug.

Derartige Benchmark-Orgien kosten nun mal unfassbar viel Zeit und Nvidia hat den Testern nicht genug davon geliefert. Treibermischmasch führt aber schnell zu falschen Schlüssen, weshalb man das tunlichst lassen sollte, auch wenn die großen Kartenzahlen auf den ersten Blick Eindruck schinden. PCGH mischt übrigens nicht. ;) Oder wenn, dann mit eindeutiger Abgrenzung.

MfG,
Raff

fondness
2015-03-18, 20:36:40
Leider testet man auch keine der anderen Karten auf neuen Treibern durch. So laufen dann manche auf echt alter Software (http://www.computerbase.de/2014-08/grafikkarten-testverfahren/):
Die Tests sind immer sehr schön aber hier ist der Vergleich nicht aktuell genug.

Okay das ist mir gar nicht aufgefallen, das ist natürlich höchst fragwürdig und erklärt dann womöglich auch den größeren Abstand der TITAN.

Raff
2015-03-18, 20:38:30
Gegenüber einem "alten" 344-er bringt der neue tatsächlich ein paar Prozentchen, IIRC (u. a.) in Bioshock, Crysis 3 und Grid Autosport. Rein zufällig beliebte Benchmarkspiele. ;)

MfG,
Raff

fondness
2015-03-18, 20:47:34
Größenvergleich:

http://s8.postimg.org/ag8vlnj5h/hbm_memory_gddr5_comparison.jpg (http://postimage.org/)

http://www.fudzilla.com/news/memory/37308-hbm-1-memory-of-amd-fiji-pictured

Da AMD 8 von den Dingern direkt neben dem wohl auch nicht gerade kleinen Die benötigt dürfte das Package verdammt fett werden.

horn 12
2015-03-18, 21:02:17
@Raff

Hatte Dich selbst um Infos gebeten zwecks der Tri-X New Edition.
Kam aber deinerseits nichts :-(
Kann nur bestätigen dass bei meinem "Ach Du Heiliges Schxxxe Case" der Takt stets gehalten wird, ausser das Spiel fordert es nicht.
Zudem Out of the Box ohne Spannungsanhebung 1100 Mhz stabil läuft
2 Stunden Thief 4 gezokct, Tesselation!! und ebenso 40 Minuten Vallex - Heaven 4.0
Kann nix Negatives zur Karte selöbst sagen, außer den durchaus auftretenden Störgeräuschen bei gewissen Drehzahlen (ab 20 bis 28%) vor Allem.

Raff
2015-03-18, 21:02:46
Größenvergleich:

http://s8.postimg.org/ag8vlnj5h/hbm_memory_gddr5_comparison.jpg (http://postimage.org/)

http://www.fudzilla.com/news/memory/37308-hbm-1-memory-of-amd-fiji-pictured

Da AMD 8 von den Dingern direkt neben dem wohl auch nicht gerade kleinen Die benötigt dürfte das Package verdammt fett werden.

Irgendwie sehe ich gerade eine fast quadratische Platine vor mir. :ugly: 12,5 Zentimeter breit (Richtung Gehäusewand) wie diverse Power-Platinen und ... sagen wir mal 17 Zentimeter lang. Und somit ITX-tauglich. Wie ich darauf komme? Speicher ringsum den großen Die.

MfG,
Raff

Nakai
2015-03-18, 21:27:05
Irgendwie sehe ich gerade eine fast quadratische Platine vor mir. :ugly: 12,5 Zentimeter breit (Richtung Gehäusewand) wie diverse Power-Platinen und ... sagen wir mal 17 Zentimeter lang. Und somit ITX-tauglich. Wie ich darauf komme? Speicher ringsum den großen Die.

MfG,
Raff

Also Fiji wird definitiv nicht quadratisch, aber dank HBM wäre eine Mini-Variante von Fiji möglich, eben für Mini-ITX Computer.

Screemer
2015-03-18, 21:50:57
Nein, es gibt genügend 290X-Partnerdesigns, die in bestimmten Spielen an die Power-Mauer fahren und sich leicht heruntertakten müssen, darunter (aus dem Kopf) die Powercolor PCS+ und auch die 290X New Edition
auch 290 karten laufen teils ins limit. meine xfx 290 dd black soll eigentlich mit 980Mhz laufen. Ohne erhöhung des PT wird das aber so gut wie nie gehalten. 15% muss ich da mind. dazu packen, dann sind aber auch problemlos 1100Mhz drin :ugly:. Liegt aber wohl am Kühler, denn der ist totaler rotz.

kann nur hoffen, dass das bei den neuen karten nicht mehr so ist.

john carmack
2015-03-18, 22:00:32
Ohhh mannn... Ich kann nicht mehr warten! Ich will jetzt ne neue Karte kaufen :D

Loeschzwerg
2015-03-18, 22:06:27
Größenvergleich:

http://s8.postimg.org/ag8vlnj5h/hbm_memory_gddr5_comparison.jpg (http://postimage.org/)

http://www.fudzilla.com/news/memory/37308-hbm-1-memory-of-amd-fiji-pictured

Da AMD 8 von den Dingern direkt neben dem wohl auch nicht gerade kleinen Die benötigt dürfte das Package verdammt fett werden.

Ja, vermutlich ein Package was in die Größenordnung von Intels "Knights Corner (http://computer-zoo.org/knc/PA242506.jpg)" geht, evtl. sogar größer.

john carmack
2015-03-18, 22:17:42
Größenvergleich:

http://s8.postimg.org/ag8vlnj5h/hbm_memory_gddr5_comparison.jpg (http://postimage.org/)

http://www.fudzilla.com/news/memory/37308-hbm-1-memory-of-amd-fiji-pictured

Da AMD 8 von den Dingern direkt neben dem wohl auch nicht gerade kleinen Die benötigt dürfte das Package verdammt fett werden.
Ja, vermutlich ein Package was in die Größenordnung von Intels "Knights Corner (http://computer-zoo.org/knc/PA242506.jpg)" geht, evtl. sogar größer.


Wird in etwas so aussehen ;):
http://cdn.videocardz.com/1/2015/01/AMD-Fiji-mockup-290x200.jpg

http://cdn.videocardz.com/1/2015/01/Silicon-with-interposer.png

Godmode
2015-03-18, 22:28:07
Ohhh mannn... Ich kann nicht mehr warten! Ich will jetzt ne neue Karte kaufen :D

Mich nervt die Vorstellung erst im Juni auch ziemlich. Ich habe gerade meine alten Karten verkauft und sitze jetzt im Trockenen.

Unicous
2015-03-18, 22:51:04
Wow, Fuad ist nach 1 1/2 Jahren aus dem Mußtopf gestiegen und weiß jetzt wie groß so ein HBM-Die ist.

http://semiaccurate.com/assets/uploads/2013/09/Hynix_DDR4_and_HBM.jpg
http://semiaccurate.com/2013/09/23/hynix-shows-bleeding-edge-3d-nand-tsv-based-ddr3-hbm-modules/

Das wären echt krasse news wenn nicht SK hynix eben solch einen Die schon längst gezeigt hätten.

Und diese Absatzüberschrift ist auch mehr als bezeichnend

AMD uses HBM1, Nvidia HBM2
Ja, AMD wird nur "HBM1" nutzen während Nvidia sofort HBM2 nutzt. AMD hat dahingehend natürlich keinerlei Pläne.:rolleyes:

btw. Wo wurde es gezeigt? Auf der CEBIT.;)


Edit:

Von Fottemberg/Gian Maria Forni
From one of my sources, now at cebit with me, the 390X will be a monster. A lot of informations out today are false. The radeon is done, but AMD is waiting for perfect drivers. They are planning a great show at computex.
http://semiaccurate.com/forums/showpost.php?p=231361&postcount=75

Hübie
2015-03-19, 00:26:10
Morgen sind wir bei AMD :naughty: Hoffe die richtigen Ansprechpartner zu treffen ;) Drückt mir die Daumen.

|MatMan|
2015-03-19, 00:43:11
The radeon is done, but AMD is waiting for perfect drivers.
Hm für mich klingt das entweder nach Bullshit oder einer ziemlichen Fehlplanung.

Wenn die Hardware fertig und verkaufbar ist, dann wartet man doch nicht 3 Monate für Feinschliff an den Treibern! :freak: Zumal man wunderbar den Titan-Launch hätte stören und nach 3 Monaten immernoch einen Performance-Treiber mit viel PR hätte nachliefern können.

Sollten die Treiber wirklich so schlecht sein, dass es gar nicht zu veröffentlichen geht, muss das Treiberteam ja von Fiji extrem überrascht worden sein - bei der jahrenlangen Entwicklung von GPUs ist eine so krasse Fehlplanung irgendwie unglaubwürdig... :confused:

iuno
2015-03-19, 00:44:34
Na dann viel Glück :up:

Mich würde mal interessieren, ob mit diesen völlig 'falschen Informationen' technische Details oder Fehleinschätzungen der Leistungsfähigkeit gemeint sind.
Die Folien von Videocardz scheinen ja authentisch zu sein, Golem hat sich das angeblich bestätigen lassen :confused:
'A lot' bezieht sich ja wohl nicht nur auf eine Kleinigkeit wie das Erscheinungsdatum...
Auf die angekündigte Show bin ich aber sehr gespannt

@MatMan: was ist daran so unglaubwürdig? AMD hat etliche Entwickler entlassen. Das Treiberteam arbeitet ja auch nicht nur für Fiji sondern für aktuell auf dem Markt befindliche und andere zukünftige Produkte. Dazu kommt vermutlich Mehraufwand für die neuen APIs und Sachen wie FreeSync (da hat sich der Treiber ja auch verspätet). Offenbar haben sie da aktuell einfach nicht genug Leute.
Dass viele Leute angebliche Treiberprobleme mit AMD haben, hält sich in Foren immer noch hartnäckig und AMD muss an seinem Ruf arbeiten. Da ist es nur ein logischer Schritt, das Produkt mit einem 'perfekten' Treiber auszuliefern

w0mbat
2015-03-19, 00:48:27
Also meine Quellen sagen immer noch, dass die Folien einfach komplett gefaked sind. Es gibt kein "dual-link" HBM. Aber ich kann mich natürlich auch irren.

Hoffen wir, dass Hübie was rausfinden kann :)

Gipsel
2015-03-19, 01:18:22
Also meine Quellen sagen immer noch, dass die Folien einfach komplett gefaked sind. Es gibt kein "dual-link" HBM. Aber ich kann mich natürlich auch irren.Da Hynix inzwischen auf der GTC sagt, bei der HBM1-Generation (HBM2 nutzt kleineren Prozeß mit 8Gbit pro Die und soll Pseudochannels unterstützen [jeder 128Bit-Kanal wird wie zwei 64-Bit-Kanäle angesprochen]) auch 4GBit-Dies und nicht nur 2GBit-Dies zu stapeln und sogar 8Hi-Stacks anzubieten, wären 2GB pro Stack schon mit normalen (preiswerteren) 4Hi-Stacks möglich. Sogar 4 GB-pro Stack wären machbar. Das ganze Dual-Link-Zeug wäre also völlig unnötig. Die von Hynix angegebene Geschwindigkeit von 128GB/Stack hat sich aber nicht geändert. Also kommt Fiji vielleicht doch "nur" mit 512GB/s, dafür aber wie schon vor den fraglichen Folien vermutet direkt mit 2GB-Stacks ohne irgendwelches Rumgefummel mit dem Zusammenschalten von jeweils zweien.

w0mbat
2015-03-19, 01:30:50
Genau. Dazu auch noch die DX Bezeichnungen. Die 290X mit 11.2 (obwohl AMD sonst von 12.0 spricht) und die 390X nur mit DX12.0. Macht keinen Sinn.

|MatMan|
2015-03-19, 01:37:19
@MatMan: was ist daran so unglaubwürdig? AMD hat etliche Entwickler entlassen. Das Treiberteam arbeitet ja auch nicht nur für Fiji sondern für aktuell auf dem Markt befindliche und andere zukünftige Produkte. Dazu kommt vermutlich Mehraufwand für die neuen APIs und Sachen wie FreeSync (da hat sich der Treiber ja auch verspätet). Offenbar haben sie da aktuell einfach nicht genug Leute.
Dass viele Leute angebliche Treiberprobleme mit AMD haben, hält sich in Foren immer noch hartnäckig und AMD muss an seinem Ruf arbeiten. Da ist es nur ein logischer Schritt, das Produkt mit einem 'perfekten' Treiber auszuliefern
Weil ein ganzes Quartal abzuschenken richtig Geld kostet, insbesondere bei der aktuellen Marktsituation - man hat nichts zu verschenken. AMD weiß intern sicher seit Monaten, wann der Treiber "fertig" sein muss. Prioritätenmanagement...
Ist der Treiber wirklich so problematisch, könnte man annehmen, dass die Veränderungen bei Fiji recht tiefgreifend sind. Das wäre ja immerhin positiv.

Die FreeSync Sache ist ebenfalls peinlich, wenn auch nicht soo wichtig, da es nur eine Nische betrifft und nichts womit man direkt Geld verdient.

Ailuros
2015-03-19, 06:46:48
Hm für mich klingt das entweder nach Bullshit oder einer ziemlichen Fehlplanung.

Wenn die Hardware fertig und verkaufbar ist, dann wartet man doch nicht 3 Monate für Feinschliff an den Treibern! :freak: Zumal man wunderbar den Titan-Launch hätte stören und nach 3 Monaten immernoch einen Performance-Treiber mit viel PR hätte nachliefern können.

Sollten die Treiber wirklich so schlecht sein, dass es gar nicht zu veröffentlichen geht, muss das Treiberteam ja von Fiji extrem überrascht worden sein - bei der jahrenlangen Entwicklung von GPUs ist eine so krasse Fehlplanung irgendwie unglaubwürdig... :confused:

Die zahllosen Entlassungen waren auch nie zwischendurch irgendwo geplant; von dem abgesehen bei Hawaii launch meckerten die meisten ueber die Referenz-Kuehlung. Einen potentiellen Fiji launch jetzt mit relativ unreifen Treibern zu liefern wuerden den ersten Eindruck wieder maessigen.

Ich hab rechts und links nachgefragt und es waren sich viele sicher dass es nicht an HBM liegt; wenn es jetzt nicht an den Treibern liegen sollte haette AMD PR kinderleicht dagegen irgendwo kommentieren koennen wenn sie es noch nicht auch machen.

Eine Fehlplanung steckt so oder so dahinter aber wie ich schon mal erwaehnte war ein Ende Q2' launch nicht schon seit kurzem klar sondern schon seit einiger Zeit. Wuerde es hauptsaechlich am Stock liegen ist die relative Fehlplanung dafuer auch nicht besonders schmeichelnd; am Ende ist es auch wirklich egal an was es liegt.

Momentan hocken sie auf fertiger hw fuer Monate; so viel ist sicher.

Hübie
2015-03-19, 06:50:08
@Gipsel: Wäre konservative Doppelbestückung mit HBM ebenfalls möglich? :| Also 8 Chips oben und 8 unten auf dem PCB.
Macht für mich erst mal keinen Sinn da man direkt an das Package durchkontaktieren müsste, aber man muss ja alles ausschließlichen / einkalkulieren.

horn 12
2015-03-19, 06:55:58
Nun, es geschehen immer noch Wunder!
Dennoch diese 2 Monate bekommen wir auch noch rum! Seis drumm :-)

Loeschzwerg
2015-03-19, 06:57:27
Wird in etwas so aussehen ;):
http://cdn.videocardz.com/1/2015/01/AMD-Fiji-mockup-290x200.jpg

http://cdn.videocardz.com/1/2015/01/Silicon-with-interposer.png

Jo, die Bilder sind ja schon ein alter Hut :D Uns ging es um die Größe.

Aber wenn das "Dual Link" Gedöns wirklich Mist war und HBM1 bei Fiji mit höherer Dichte kommt, dann wird das Package wieder etwas kleiner.

@Hübie: Go go go, wir brauchen Input :)

Skysnake
2015-03-19, 06:57:30
Naja, kann auch genau umgekehrt sein. Der Treiber wird nicht später/zu spät fertig, sondern die Hardwarejungs mussten einfach weniger Probleme beseitigen und sind eutlich früher fertig geworden.

Gerade das Testen des HBM Interfaces ist ziemlich aufwändig, wenn es da irgendwelche Probleme gibt. Du kommst einfach nicht an die Signale ran. Das muss also OnChip gemessen werden, und wenn da irgendwas nicht richtig funktioniert, dann darfste erstmal nen neuen Chip bauen, bevor du überhaupt das Interface richtig testen kannst.

Das Interface wird ja erst vervollständigt durch das Zusammenlöten der einzelnen Komponenten. Da kann noch extrem viel schief gehen.

Ja, vermutlich ein Package was in die Größenordnung von Intels "Knights Corner (http://computer-zoo.org/knc/PA242506.jpg)" geht, evtl. sogar größer.
Das Package wird auf jeden Fall größer sein.

Korvaun
2015-03-19, 07:22:37
Das Positive an der Verzögerung:

AMD hat dann zum Launch auf der Computex wirklich auch genügend Karten vorrätig um eine gute Lieferfähigkeit aller Versionen (390/390X/390X-WCE) sicherzustellen. Das sollte auch den Anfangspreisen zugute kommen, hoffe da auf nen kleine Händlerpreiskampf um die Teile loszuschlagen (ist ja immerhin Sommer dann, also nicht die beste Zeit für massig Graka-Verkäufe).

Loeschzwerg
2015-03-19, 07:48:00
Das Package wird auf jeden Fall größer sein.

Ja? Wenn es nur 4 Stacks werden könnte das doch fast passen, immerhin ist der KNC ja ~720mm² groß. Bei ~600mm² für Fiji wäre da viel Platz :)

Aber zugegebenermaßen kann ich schlecht abschätzen wie viel Platz die Verdrahtung des HBM auf dem Package einnimmt.

Edit: Wobei... Kondensatoren müssen ja auch noch drauf. Wenn ich so drüber nachdenke wird das Ding echt groß. Hast recht.

Skysnake
2015-03-19, 07:53:05
Nimm doch einfach mal die Wurzel von beiden Flächen. Ich glaube nicht, dass HBM nur run 1,5mm Kantenlänge kommt ;)

dargo
2015-03-19, 08:05:50
Es gibt immer Situationen wo man das brauchen kann.
Ich will Beweise in Spielen sehen. Gerne auch mit Frametimes anstatt Frameraten.

john carmack
2015-03-19, 08:19:36
Morgen sind wir bei AMD :naughty: Hoffe die richtigen Ansprechpartner zu treffen ;) Drückt mir die Daumen.


Ich erwarte nur echte Fakten!!! :D

Loeschzwerg
2015-03-19, 08:32:26
Nimm doch einfach mal die Wurzel von beiden Flächen. Ich glaube nicht, dass HBM nur run 1,5mm Kantenlänge kommt ;)

Was wird HBM haben, 1/4 vom GDDR5 FBGA (12x14)? Also ~40-45mm²?

Skysnake
2015-03-19, 08:33:51
Ja sowas in der Richtung. Wieviel genau ist doch auch erstmal egal. Es ist auf jeden Fall so viel, dass das Package von Fiji größer wird als das von KNC.

Eher interessant wird der Vergleich zum Package von KNL.

Dawn on Titan
2015-03-19, 08:52:43
Interessant ist nur wie sehr man die GM200 platt macht.

Sunrise
2015-03-19, 09:14:08
Hm für mich klingt das entweder nach Bullshit oder einer ziemlichen Fehlplanung.

Wenn die Hardware fertig und verkaufbar ist, dann wartet man doch nicht 3 Monate für Feinschliff an den Treibern! :freak: Zumal man wunderbar den Titan-Launch hätte stören und nach 3 Monaten immernoch einen Performance-Treiber mit viel PR hätte nachliefern können.

Sollten die Treiber wirklich so schlecht sein, dass es gar nicht zu veröffentlichen geht, muss das Treiberteam ja von Fiji extrem überrascht worden sein - bei der jahrenlangen Entwicklung von GPUs ist eine so krasse Fehlplanung irgendwie unglaubwürdig... :confused:
Bei manchem hast du sicher Recht, allerdings wie schon angesprochen, hat AMD nicht mehr das gleiche Team, das die Treiber für etliche Produkte schreiben muss. Auch setzt das Treiberteam wie du schon festgestellt hast nicht eigenständig Prioritäten, das wird von anderer Ebene verwaltet und dort steht ja auch kein Stein mehr wie früher auf dem anderen. Also sprich, wenn Neuanfang, dann aber richtig.

Bei deinen Überlegungen scheinst du irgendwie zu vergessen (es liest sich jedenfalls so), dass Windows 10 gerade vor der Tür steht und im Sommer veröffentlicht wird.

Auch bringt Fiji und andere Produkte nicht nur GCN im Kern mit, da kommen noch eine ganze Menge weiterer Dinge, die ordentlich implementiert werden müssen und mit denen AMD werben wird. Und wenn das nicht funktioniert gibt es zurecht eine entsprechende Rückmeldung von den potentiellen Kunden. Gerade wir Deutschen sind da rigoros, das siehst du u.a. hier im Forum. AMD wittert auch die quasi "Partnerschaft" mit Apple. Apple will OpenCL, AMD hat aktuell (außer beim Macbook Pro) überall wieder die Produkte mit drin und wenn AMD da auch keinen Mist baut, haben sie da eine ganze Menge Möglichkeiten, ihre Produkte abzusetzen.

Deine Idee, hier ein bzw. mehrere Produkte zu veröffentlichen, die "gerade so" funktionieren, kann ich beim besten Willen nicht nachvollziehen und möchte ich auch nicht untertützen. Sowas ist ja quasi fast schon ein Aufruf für Bananensoft- und Hardware. Was willst du bitte mit fortschrittlicher HW, wenn die Software gerade so passt bzw. nicht anständig optimiert ist? Also das kann es ja nicht sein, auch wenn das leider oft Gang und Gäbe ist. AMD muss zeigen, dass sie die nächsten Jahre wieder ein ernstzunehmender Player sind. Das betrifft ja nicht nur unsere (Gaming)-Produkte, sondern auch die professionellen Ableger. Gerade bei Treibern solltest du doch mitbekommen haben, was 3-6 Monate ausmachen können. Das ist teilweise der Unterschied von einer halben Grafikkarten-Generation, teilweise auch mehr, wenn die Optimierungen passen. Und da ist es für mich nachvollziehbar (wenn es stimmt), dass man hier keine Kompromisse eingeht, weil man bereits bei der HW schon Schritte gegangen ist, die zeigen, dass das nicht so ganz ohne Risiko war.

AMD kann es sich in der aktuellen Situation nicht (mehr) leisten, hier unfertige Produkte auf den Markt zu werfen.

Was natürlich abseits davon nicht optimal ist, ist die Vorstellung im Sommer, bzw. zur Computex. Ich würde mal behaupten, dass das Interesse an PC-Hardware gerade im Sommer nicht sonderlich hoch ist und sich das eher auf das Jahresende bzw. den Jahresanfang schiebt (wie man ja auch unschwer an den Verkaufszahlen erkennen kann).

Das Ding wird schon ein ordentliches Monster und wenn ich an G80 zurück denke, dann kam der zwar deutlich überraschender und mit unerwarteten Änderungen, aber Fiji ist in dieser Hinsicht "gefühlt" ein ähnliches Produkt. Selten hat man so mit Spannung auf etwas gewartet.

Die Titan X lässt mich einfach total kalt, das ist ein 50% erweiterter GM204 mit genauso altbackenem Featureset und das Ding hat nichtmal den fixed-function H.265 Decoder vom GM206 (was mir auch schon vorher klar war). Und veraltete Technik kaufe ich nicht. Es steht und fällt mit der Software (und vor allem den Treibern).

Ailuros
2015-03-19, 09:23:53
Das Ding wird schon ein ordentliches Monster und wenn ich an G80 zurück denke, dann kam der zwar deutlich überraschender und mit unerwarteten Änderungen, aber Fiji ist in dieser Hinsicht "gefühlt" ein ähnliches Produkt. Selten hat man so mit Spannung auf etwas gewartet.


G80 war im Vergleich zu seinem Vorgaenger gleichzeitig ein sehenswerter Sprung in hoeherer Bildqualitaet und Leistungs-steigerung. Wo Ihr jetzt bei Fiji einen aehnlichen Effekt seht waehrend eigentlich nur die Bandbreite (hauptsaechlich fuer die obszoen hohen DP Raten) brutal gesteigert wird entgeht mir ehrlich. Und weil ich weiss dass ich von manchen wieder falsch verstanden werde: ich ziehe meine Hosen auch nicht fuer Pascal runter. Es ist auch nur ein breiterer Maxwell mit HBM.

Die Titan X lässt mich einfach total kalt, das ist ein 50% erweiterter GM204 mit genauso altbackenen Featureset und das Ding hat nichtmal den fixed-function H.265 Decoder vom GM206 (was mir auch schon vorher klar war). Und veraltete Technik kaufe ich nicht.

Den Wucherpreis vom Titan kann man schwer gerechtfertigen, aber nach der obrigen Logik ist Fiji auch nichts anderes als ein erweiterter Hawaii mit HBM.

Hübie
2015-03-19, 09:26:02
Jo, ca 1-2 Stunden :) Muss erst noch einige Dinge klären.

M4xw0lf
2015-03-19, 09:29:37
Jo, ca 1-2 Stunden :) Muss erst noch einige Dinge klären.
Agent 003dc, übernehmen Sie! :D

ndrs
2015-03-19, 09:30:55
@Gipsel: Wäre konservative Doppelbestückung mit HBM ebenfalls möglich? :| Also 8 Chips oben und 8 unten auf dem PCB.
Macht für mich erst mal keinen Sinn da man direkt an das Package durchkontaktieren müsste, aber man muss ja alles ausschließlichen / einkalkulieren.
Nein, da der HBM gar nicht auf dem PCB sondern auf dem SI-Interposer sitzt. Wie will man den von beiden Seiten bekleben und dann auch noch in ein Package mit entsprechenden Aussparungen einsetzen? Für mich zumindest kaum vorstellbar.

fondness
2015-03-19, 09:36:14
Da Hynix inzwischen auf der GTC sagt, bei der HBM1-Generation (HBM2 nutzt kleineren Prozeß mit 8Gbit pro Die und soll Pseudochannels unterstützen [jeder 128Bit-Kanal wird wie zwei 64-Bit-Kanäle angesprochen]) auch 4GBit-Dies und nicht nur 2GBit-Dies zu stapeln und sogar 8Hi-Stacks anzubieten, wären 2GB pro Stack schon mit normalen (preiswerteren) 4Hi-Stacks möglich. Sogar 4 GB-pro Stack wären machbar. Das ganze Dual-Link-Zeug wäre also völlig unnötig. Die von Hynix angegebene Geschwindigkeit von 128GB/Stack hat sich aber nicht geändert. Also kommt Fiji vielleicht doch "nur" mit 512GB/s, dafür aber wie schon vor den fraglichen Folien vermutet direkt mit 2GB-Stacks ohne irgendwelches Rumgefummel mit dem Zusammenschalten von jeweils zweien.

Das würde ja bedeuten das selbst 16GB HBM mit vier Stacks kein Problem wären und man damit auch genug VRAM für den Profi-Bereich zur Verfügung hätte. Und hier wurde monatelang darüber gestritten das die 4Gb HBM zu wenig sind^^. Wobei es auch bedeuten würde das die geleakten Folien alle Fakes wäre und man wieder gar nichts weiß.

Sunrise
2015-03-19, 09:36:49
...waehrend eigentlich nur die Bandbreite (hauptsaechlich fuer die obszoen hohen DP Raten) brutal gesteigert wird entgeht mir ehrlich.
Nur die Bandbreite? Fiji kommt mit deutlich mehr Einheiten als Hawaii, mit erweitertem Featureset, wird extrem schnell (deine Leistungssteigerung), wird durch die massiv gesteigerte Bandbreite auch für Bildqualitätssteigerungen sorgen können (evtl. auch nur exklusiv über Mantle), kommt mit massiv aufgebohrten H.264 und H.265-Einheiten. Und da hört es sicher nicht auf. Es ist kein kompletter Architekturbruch wie beim G80 (sagte ich ja), aber diese massive Anzahl an Verbesserungen ist schon etwas, was in der letzten Zeit deutlich heraussticht.

Den Wucherpreis vom Titan kann man schwer gerechtfertigen, aber nach der obrigen Logik ist Fiji auch nichts anderes als ein erweiterter Hawaii mit HBM.
Ich glaube für Wunder haben wir auf 28nm auch keinen Platz, aber das was Fiji verspricht ist zumindest schon mal locker mehr als das was die Titan X überhaupt bieten kann. Das war ein absoluter Minimalansatz von NV, mit minimalem Risiko, und sie verlangen dafür den maximalen Preis. Das alles noch auf 28nm. Da passt eben was nicht zusammen.

Ich möchte da jetzt auch keinen Hype für Fiji starten (ich will Fakten sehen), aber nach den bisherigen Infos habe ich aktuell mehr Lust auf AMD als auf NV. Es wird einfach langweilig, nur mit NV. Die bauen sich nur noch Nischenfeatures und klammern alle an sich, wo sind wir denn aktuell? Genau an dem Punkt, an dem man selbst wenn man kein NV will, aktuell nur die Wahl für NV hat, außer man verzichtet auf einiges. Wir sind einen Schritt davon entfernt, uns von NV maximal abhängig zu machen. Das geht mir irgendwie gehörig auf den Zeiger.

Nebenbei, ist Huang bei der GTC eigentlich entfallen, dass NV1 die erste GPU von NV war? Er nennt doch tatsächlich die Riva128 als sein erstes Produkt. Wie ist das denn zu verstehen? So nach dem Motto: NV1 war ein Fehlschlag, deshalb aus dem Gedächtnis gestrichen?

Dural
2015-03-19, 10:04:32
"Minimalsatz", wohl gemerkt die grösste GPU die wohl je gebaut wurde ;)

Ich wette eine Titan X das Fiji erst mit Wakü GM200 in Spielbaren-Einstellungen übertrumpft, dieser mit Wakü schneller ist.

Wer geht drauf ein?

ChaosTM
2015-03-19, 10:07:37
Fiji sollte, um wirklich konkurrenzfähig zu sein/bleiben, gut 20% vor der Titan liegen - unter 4K+ und default Takt.

Die Riva 128... lange ist das her und hat damals Quake 2 in atemberaubenden 800x600 ermöglicht. ;)

fondness
2015-03-19, 10:12:23
Es wird einfach langweilig, nur mit NV. Die bauen sich nur noch Nischenfeatures und klammern alle an sich, wo sind wir denn aktuell? Genau an dem Punkt, an dem man selbst wenn man kein NV will, aktuell nur die Wahl für NV hat, außer man verzichtet auf einiges. Wir sind einen Schritt davon entfernt, uns von NV maximal abhängig zu machen. Das geht mir irgendwie gehörig auf den Zeiger.


An den Punkt sind wir nicht erst seit heute, leider begreifen das viele wie immer erst wenn es zu spät ist und dann beginnt der Katzenjammer (jetzt nicht auf dich bezogen). Die einzigen die das ändern können sie die Kunden.

Dawn on Titan
2015-03-19, 10:14:09
AMD ist sowieso immer ein Motor des Fortschritts gewesen. Ich denke Fiji wird wie R300 einschlagen.

john carmack
2015-03-19, 10:23:52
Jo, ca 1-2 Stunden :) Muss erst noch einige Dinge klären.

Kannst du die AMD Leute nicht irgendwie ablenken und eine FijiKarte heimlich in deiner Tasche verschwinden lassen? :D

Hmmm... Hab so das Gefühl das Fiji hier ganz schön gehyped wird... Fiji wird in seiner grössten Ausführung TitanX höchstens um 5-10% übertreffen wenn nicht sogar "nur" gleichziehen.
We will see!

Ich würde auch gerne einen Fiji sehen der TitanX alt aussehen lässt, kann mir aber nicht vorstellen das AMD auf einmal so einen Hammer herzaubert. ;)

Menace
2015-03-19, 10:48:28
So generiert man immer wieder Enttäuschungen auf Seite von AMD (durch User wohlgemerkt, nicht durch AMD): Erwartungen möglichst hoch schrauben und sich danach aufregen, dass diese frei erfundene Erwartungen nicht erfüllt wurden. :rolleyes:

Ailuros
2015-03-19, 10:49:38
Nur die Bandbreite? Fiji kommt mit deutlich mehr Einheiten als Hawaii, mit erweitertem Featureset, wird extrem schnell (deine Leistungssteigerung), wird durch die massiv gesteigerte Bandbreite auch für Bildqualitätssteigerungen sorgen können (evtl. auch nur exklusiv über Mantle), kommt mit massiv aufgebohrten H.264 und H.265-Einheiten.

Von GM204 auf GM200 hab ich 16 zu 24 clusters, waehrend ich von Hawaii auf Fiji von 44 auf 64 clusters komme. Fuer die Anzahl der Einheiten liefert Fiji in dem Bereich gar nichts besonderes im Vergleich zur Konkurrenz. Fuer die zusaetzlichen Bildqualitaetssteigerungen die Fiji zusaetzlich haben soll warte ich erstmal die relevanten Ankuendigungen ab. Nochmal ausser HBM was hat den Fiji wirklich so uebertolles dass ich verpasse?

Und da hört es sicher nicht auf. Es ist kein kompletter Architekturbruch wie beim G80 (sagte ich ja), aber diese massive Anzahl an Verbesserungen ist schon etwas, was in der letzten Zeit deutlich heraussticht.

Ja brutal mehr Bandbreite fuer den HPC Markt hauptsaechlich; was der Ottonormalverbraucher unter 3D davon besonderes gewinnen wird hab ich selbst in diesem Post nicht lesen koennen.

Ich glaube für Wunder haben wir auf 28nm auch keinen Platz, aber das was Fiji verspricht ist zumindest schon mal locker mehr als das was die Titan X überhaupt bieten kann. Das war ein absoluter Minimalansatz von NV, mit minimalem Risiko, und sie verlangen dafür den maximalen Preis. Das alles noch auf 28nm. Da passt eben was nicht zusammen.

Es beantwortet aber leider immer noch nicht meine Fragen denn ich will in solch einem Fall dann schon etwas konkretes lesen wie z.B. rein hypothetisch dass man mit Fiji WCE um 50% schneller mit Supersampling fahren kann als mit einem vollen GM200. Ob NV wirklich den TitanX als direkt Konkurrenz fuer AMDs top dog ansieht werden wir wohl im Juni sehen.

Ich möchte da jetzt auch keinen Hype für Fiji starten (ich will Fakten sehen), aber nach den bisherigen Infos habe ich aktuell mehr Lust auf AMD als auf NV. Es wird einfach langweilig, nur mit NV. Die bauen sich nur noch Nischenfeatures und klammern alle an sich, wo sind wir denn aktuell? Genau an dem Punkt, an dem man selbst wenn man kein NV will, aktuell nur die Wahl für NV hat, außer man verzichtet auf einiges. Wir sind einen Schritt davon entfernt, uns von NV maximal abhängig zu machen. Das geht mir irgendwie gehörig auf den Zeiger.

Es ist bei beiden langweiliger geworden eben weil die Prozesse zu stark bremsen.

Sunrise
2015-03-19, 11:15:47
Nochmal ausser HBM was hat den Fiji wirklich so uebertolles dass ich verpasse?
Kaffee kochen wird er nicht können. :P

Zum Rest: Abwarten. Man sollte sowieso nur durch Taten überzeugen. Also müssen wir uns wohl noch etwas gedulden. Wie und ob AMD die Bandbreite im Consumer-Sektor speziell nutzen wird weiß ich nicht, ich lass mich da lieber mal überraschen (passiert eh alles in Software, die HW kann viel können, wenn es durch die Software nicht nach außen gegeben wird, siehe Apple). Diese Überraschungsmomente sind sowieso viel zu selten geworden. Die Möglichkeiten, da einiges damit anzustellen sind dann aber wenigstens mal da. Und der Rest steht ja schon oben.

robbitop
2015-03-19, 11:23:13
Vielleicht erleben wir ja eine leichte Effizienzsteigerung der ALUs - also mehr Durchsatz pro ALU. (wobei ich nicht so recht dran glaube in dieser Generation)

M4xw0lf
2015-03-19, 11:24:33
Vielleicht erleben wir ja eine leichte Effizienzsteigerung der ALUs - also mehr Durchsatz pro ALU. (wobei ich nicht so recht dran glaube in dieser Generation)
Tonga vs. Tahiti zeigt doch bereits in einigen Fällen genau das. Also eine messbare Steigerung sollte es auf jeden Fall geben. (Falls ich dich nicht gerade falsch verstehe, durch Ahnungslosigkeit ^^)

Ailuros
2015-03-19, 11:26:28
Kaffee kochen wird er nicht können. :P

Zum Rest: Abwarten. Man sollte sowieso nur durch Taten überzeugen. Also müssen wir uns wohl noch etwas gedulden. Wie AMD die Bandbreite nutzt weiß ich nicht, ich lass mich da lieber mal überraschen. Diese Momente sind sowieso viel zu selten geworden.

Und hier genau ist der springende Punkt:

A. AMD engineering kocht leider auch nur mit Wasser.
B. Wird Fiji WCE wirklich um ein einstelliges Prozentual schneller als GM200 ist es womoeglich ein Ereignis fuer perf/mm2 (aber auch nur gering) aber nicht unbedingt fuer perf/W; fuer's letzte muessen wir auch abwarten.
C. Microshaft hat leider vor Jahren die Tuer fuer innovative AA Algorithmen wenn ich mich nicht irre. Damit es hypothetisch hinhaut dass Fiji WCE um N% schneller mit SSAA wird als GM200 wie in meinen vorigen frei erfundenen Beispielen muss auf Hawaii und co so manche Fuellrate dank fehlender Bandbreite flach liegen (wofuer es wohl auch keine Indizien gibt).

Viel wichtiger waere IMHO zu spekulieren (welches aber vielleicht einen dedizierten thread fuer HBM im Techno-forum verdient) wann HBM billig genug sein wird dass IHVs es langsam auch in kleineren GPU chips benutzen koennen. Denn wenn IHVs jetzt anfangen wuerden nur Faehigkeiten fuer 700-1100 Euro GPUs anzubieten wuerde es einen ziemlich schlechten Beigeschmack fuer die wirkliche Mehrzahl der Verbraucher heissen.

robbitop
2015-03-19, 11:26:42
Bei Tonga ist es AFAIK nur das bessere Front End.

Sunrise
2015-03-19, 11:27:02
Tonga vs. Tahiti zeigt doch bereits in einigen Fällen genau das. Also eine messbare Steigerung sollte es auf jeden Fall geben. (Falls ich dich nicht gerade falsch verstehe, durch Ahnungslosigkeit ^^)
Vor allem sehe ich Tonga nicht als non-plus-ultra. Das Ding ist in der aktuell existenten Form alles, aber sicher kein guter Chip. Und AMD baut so einen Mist normalerweise nicht, wenn nicht jemand speziell danach gefragt hätte. Die haben überhaupt nicht das Geld (wenn es nicht durch die Verkäufe abgesichert rückfinanziert wird) um sich solche Stunts zu leisten.

R.I.P.
2015-03-19, 12:58:33
http://www.bitsandchips.it/9-hardware/5387-cebit-2015-confermato-r9-390x-pronte-ma-amd-aspetta-che-i-driver-siano-maturi

Scheinbar dem Vertreter von Bitsandchip auf der Cebit von Kartenhersteller bestätigt, dass AMD an den Treibern arbeitet, um ein perfektes Ergebnis abzuliefern. Die Karte soll sogar stärker, als bisher geleakt, sein.

Jetzt warte ich auf die Antwort von Dural und Ailuros, dass das alles Idioten sind, die nichts verstehen :freak:

mironicus
2015-03-19, 13:00:14
Die Treiber sind AMDs Viagra für Fuji, der Balken soll unendlich lang sein, höher als jeder andere. :)

Psychopat
2015-03-19, 13:26:20
Spekulation zur Bandbreite ohne Kenntnisse der Materie:

Wenn man Bandbreite im Überfluss hat, wie wirkt sich das auf das Chipdesign aus? Man hat eine Restriktion weniger. Bandbreite schonende Maßnahmen braucht es nicht mehr. Das sollte das Design doch vereinfachen was dann wieder höhere Performance bedeutet.

uweskw
2015-03-19, 13:33:06
Laut Golem tritt er tatsächlich mit 4.096-Bit-Speicherinterface an....

http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.html

ob die Jungs von der Treiberabteilung sich da nicht ein bisschen übernehmen.....

greetz
U.S.

Nakai
2015-03-19, 13:33:23
Bei Tonga ist es AFAIK nur das bessere Front End.

Was bei Fiji auch vorliegen wird. :)

Ich bin da schon gespannt, was damit alles möglich ist.

Womöglich ist mehr bei Fiji geändert, als es den ersten Anschein hat.

Unicous
2015-03-19, 13:34:37
Laut Golem tritt er tatsächlich mit 4.096-Bit-Speicherinterface an....

http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.html

ob die Jungs von der Treiberabteilung sich da nicht ein bisschen übernehmen.....

greetz
U.S.

Wie tatsächlich? Anders geht es doch gar nicht.:confused:

Dawn on Titan
2015-03-19, 13:36:04
4 Stacks a 1024bit - wie sonst?

Nakai
2015-03-19, 13:44:12
Wie schon woanders angemerkt, könnten die Folien "noch" Fakes sein. Die zeitliche Platzierung dieser Leaks sind natürlich im Sinne von AMD und auch die Kommentare, dass Fiji stärker als GM200 wird, ebenso.

Ich erwarte von Fiji eine abartig hohe Füllrate(ach nee^^). Fiji hat mehr TMUs und ROPs als GM200. 256TMUs und 128 ROPs sind stark. Die Bandbreite genauso.

Von GM204 auf GM200 hab ich 16 zu 24 clusters, waehrend ich von Hawaii auf Fiji von 44 auf 64 clusters komme. Fuer die Anzahl der Einheiten liefert Fiji in dem Bereich gar nichts besonderes im Vergleich zur Konkurrenz. Fuer die zusaetzlichen Bildqualitaetssteigerungen die Fiji zusaetzlich haben soll warte ich erstmal die relevanten Ankuendigungen ab. Nochmal ausser HBM was hat den Fiji wirklich so uebertolles dass ich verpasse?


Hawaii mit 8GB schlägt sich mit GM204 in UHD-Auflösungen.

http://www.tweaktown.com/tweakipedia/71/nvidia-geforce-gtx-980-sli-vs-radeon-r9-290x-8gb-4k-amd-fx-9590/index.html

Jaja, die CPU ist in diesem Test fehl am Platz.

Tonga ist durch das bessere Frontend auch stärker als erwartet. Eventuell braucht AMD dahigehend mehr Treiberentwicklungszeit.

john carmack
2015-03-19, 14:01:54
http://www.bitsandchips.it/9-hardware/5387-cebit-2015-confermato-r9-390x-pronte-ma-amd-aspetta-che-i-driver-siano-maturi

Scheinbar dem Vertreter von Bitsandchip auf der Cebit von Kartenhersteller bestätigt, dass AMD an den Treibern arbeitet, um ein perfektes Ergebnis abzuliefern. Die Karte soll sogar stärker, als bisher geleakt, sein.

Jetzt warte ich auf die Antwort von Dural und Ailuros, dass das alles Idioten sind, die nichts verstehen :freak:


War das nicht kurz vor dem Bulldozer Launch nicht auch so?

Wurde vom AMD Marketing nicht auch sooo viel versprochen und nichts gehalten?

Naja, würde mich trotzdem riesig freuen wenn Fiji alles in Grund un Boden stampft! :D :)

-/\-CruNcher-/\-
2015-03-19, 14:07:22
Übrigens ich denke mal wir werden sie jetzt doch Endlich sehen die neue hoffe etwas überarbeitetete Crytek Illfonic Demo die neue die Next Gen Phyisicaly Based Shaded RUBY mit TressFX 3 Glory :)

Das Timing währe Perfekt die Demo jetzt Endlich zu Releasen mit der neuen Lineup überarbeitet werden muss sie aber auf jedenfall vorher, vielleicht sehen wir die neue Version ja auf der Computex ;)

Die Demo ist einfach in die Jahre gekommen "Project Phoenix" und Haiwaii / Thaiti war noch nicht wirklich das was der name der Demo deutete ;)


AMD hat auf der Hawaii-Veranstaltung auch die neue Ruby-Techdemo gezeigt. Unser Mitschnitt zeigt die durchaus ansehnliche Grafik der Cryengine-3-Techdemo. Die Demo soll in den kommenden Wochen erscheinen. Genutzt werden 17 DirectX-11-Technologien, darunter ist auch die aus Tomb Raider bekannte Haar-Rendertechnik Tress FX.

Naja 2 Jahre für ne Demo "Respekt" ;)

robbitop
2015-03-19, 14:09:34
Was bei Fiji auch vorliegen wird. :)

Ich bin da schon gespannt, was damit alles möglich ist.

Womöglich ist mehr bei Fiji geändert, als es den ersten Anschein hat.
Ich werwarte ein 8x Front-End. Aber keine nennenswerte Durchsatzsteigerung pro ALU. (IMO kommt das erst in der R4xx Serie)


Ich erwarte von Fiji eine abartig hohe Füllrate(ach nee^^). Fiji hat mehr TMUs und ROPs als GM200. 256TMUs und 128 ROPs sind stark. Die Bandbreite genauso.
Was soll das bringen? Eine ROP Verdopplung ggü Hawaii? Der Durchsatz der ALUs steigt vermutlich kaum - nur um die Anzahlerhöhung.

Ich erwarte taktnormiert ca. 40 % mehr Leistung als Hawaii. In etwa das was durch die Einheitenerhöhung bringt. Vermutlich kann man schon glücklich sein, wenn man 1:1 der Erhöhung auch auf die Straße bringt. Das war ja bisher nur selten so.

Dann liegt man in etwa bei Titan X. Und das wäre auch wirklich in Ordnung. Alles darüber wäre schön - aber IMO optimistisch. Insbesondere blöd, wenn's mit der Keule erkauft wird und die Karte sich dadurch das Image versaut.

Thunder99
2015-03-19, 14:19:20
Was wäre wenn Fiji endlich mal besser mit den Einheiten skaliert als bisher? Was nvidia mit Maxwell gemacht hat ist ja auch bei AMD möglich

robbitop
2015-03-19, 14:20:31
Genau das meine ich ja mit Durchsatzsteigerung. Aber das kommt nicht mal eben so zugeflogen. Das wird man IMO erst in der nächsten Implementierung der GCN µ-Arch sehen.

john carmack
2015-03-19, 16:03:42
Ich finde es wird mal wieder zeit für eine Karte die Legende schreibt ;) :D

Nakai
2015-03-19, 16:09:08
Was soll das bringen? Eine ROP Verdopplung ggü Hawaii? Der Durchsatz der ALUs steigt vermutlich kaum - nur um die Anzahlerhöhung.

Ich erwarte taktnormiert ca. 40 % mehr Leistung als Hawaii. In etwa das was durch die Einheitenerhöhung bringt. Vermutlich kann man schon glücklich sein, wenn man 1:1 der Erhöhung auch auf die Straße bringt. Das war ja bisher nur selten so.

Dann liegt man in etwa bei Titan X. Und das wäre auch wirklich in Ordnung. Alles darüber wäre schön - aber IMO optimistisch. Insbesondere blöd, wenn's mit der Keule erkauft wird und die Karte sich dadurch das Image versaut.

http://www.hardware.fr/articles/928-3/performances-theoriques-pixels.html

GK110 war von der Texturfüllrate stärker als Hawaii, von der Pixelfüllrate schwächer. NV-Chips sind von reinher von der Pixelfüllrate im Schnitt schlechter als äquivalente AMD-Pendants. Das dies keine eindeutige Aussage bezüglich Performance hat, sollte klar sein.

http://www.hardware.fr/articles/928-4/performances-theoriques-geometrie.html

http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/12/#diagramm-tessmark

Die Frontend-Leistung seitens AMD war schon immer dem von NV unterlegen. Erst Tonga schließt mit dem verbessertem Quadfrontend an Hawaii. Wenn Fiji ein 8fach Frontend bietet und dies gut skaliert, dann erreicht man Leistungen jenseits GK110 und GM204.

Womöglich bastelt AMD an besseren Treibern, eben um das neuere Frontend besser auszunutzen.

robbitop
2015-03-19, 16:23:00
Ich finde es wird mal wieder zeit für eine Karte die Legende schreibt ;) :D
Leider sind die Voraussetzungen auf einem ausgenudelten Jahre altem Prozess dafür denkbar schlecht. 16 nm FF + 600 sqmm Kern + HBM hätte das Potenzial dafür. Aber das spricht gegen die aktuelle Salamitaktik, um die Leute zu melken. Ich fürchte, die Zeiten sind vorbei. :(

@Nakai

Der größte Vorteil bei Maxwell liegt in der Effizienz der Ausführungseinheiten bzw derer Ansteuerung. Und genau da muss AMD IMO nachholen. Ein breiteres Front End ist schön - aber reicht IMO nicht aus. Vermutlich wird Fijii deswegen mehr Watt pro fps brauchen als GM200.

fondness
2015-03-19, 16:35:47
Übrigens ich denke mal wir werden sie jetzt doch Endlich sehen die neue hoffe etwas überarbeitetete Crytek Illfonic Demo die neue die Next Gen Phyisicaly Based Shaded RUBY mit TressFX 3 Glory :)

Das Timing währe Perfekt die Demo jetzt Endlich zu Releasen mit der neuen Lineup überarbeitet werden muss sie aber auf jedenfall vorher, vielleicht sehen wir die neue Version ja auf der Computex ;)

Die Demo ist einfach in die Jahre gekommen "Project Phoenix" und Haiwaii / Thaiti war noch nicht wirklich das was der name der Demo deutete ;)



Naja 2 Jahre für ne Demo "Respekt" ;)

Die Demo ist tot, wohl der Krise bei Crytec zum Opfer gefallen.

M4xw0lf
2015-03-19, 16:42:35
Ich finde es wird mal wieder zeit für eine Karte die Legende schreibt ;) :D

Ich finde Tahiti ist schon ziemlich legendär.

Gipsel
2015-03-19, 16:43:57
Ich werwarte ein 8x Front-End. Aber keine nennenswerte Durchsatzsteigerung pro ALU. (IMO kommt das erst in der R4xx Serie)Was für eine Durchsatzsteigerung willst Du denn? Bei arithmetischen Sachen drückt GCN so viel durch, wie theoretisch möglich ist, da gibt es außer ein paar Spezialfällen praktisch kaum Bottlenecks in der Architektur (anders als bei nV mit Kepler, GCN ist in der Frage ziemlich sauber im Design).
Was soll das bringen? Eine ROP Verdopplung ggü Hawaii?GM200 hat 96 ROPs, GM204 hat wie Hawaii 64 ROPs. Letzteres wäre für Fiji ziemlich an der unteren Grenze.
Der Durchsatz der ALUs steigt vermutlich kaum - nur um die Anzahlerhöhung.Mehr ist aus oben genanntem Grund auch nicht zu erwarten.
Was wäre wenn Fiji endlich mal besser mit den Einheiten skaliert als bisher? Was nvidia mit Maxwell gemacht hat ist ja auch bei AMD möglichDefinitiv nicht. Kepler hatte ganz andere Probleme als GCN hat. Kepler konnte nämlich gar nicht alle ALUs gleichzeitig mit (unterschiedlichen) Operanden aus den Registern versorgen, GCN kann das (und Maxwell jetzt auch, die haben eben die unterversorgten ALUs rausgekickt, die arithmetische Leistung sinkt dadurch trotz weniger ALUs nur wenig). Wo Maxwell gegenüber GCN Vorteile hat (außer beim Setup/Raster Teil), ist bei der Bandbreite zu den TMUs und vermutlich auch der Handhabung ausstehender Speicheroperationen. Das hat aber eigentlich nicht direkt was mit dem arithmetischen Durchsatz der ALUs zu tun.

Die Frontend-Leistung seitens AMD war schon immer dem von NV unterlegen.Nicht schon immer. Erst seit G80 kann nV ein Dreieck pro Takt (und nicht pro Takt der hot clock, der war also niedriger als bei den Radeons), davor war man mit nur einem Dreieck alle zwei Takte AMD unterlegen, die schon recht lange 1 Dreieck pro Takt durchschleusen konnten.

Nakai
2015-03-19, 16:52:33
Wo Maxwell gegenüber GCN Vorteile hat (außer beim Setup/Raster Teil), ist bei der Bandbreite zu den TMUs und vermutlich auch der Handhabung ausstehender Speicheroperationen. Das hat aber eigentlich nicht direkt was mit dem arithmetischen Durchsatz der ALUs zu tun.

Maxwell ist aber schon krass effizienter als GCN. Maxwell ist pro SP etwa 50% schneller.


Nicht schon immer. Erst seit Fermi, G80 war dem R600/R700 unterlegen. Damals konnte nV nur ein Dreieck alle zwei Takte.

Ja, du hast recht. Seit FERMI.^^

Nightspider
2015-03-19, 17:04:19
Ich finde es wird mal wieder zeit für eine Karte die Legende schreibt ;) :D

http://abload.de/img/fijisbu31.png

-/\-CruNcher-/\-
2015-03-19, 17:08:01
Wie schon gesagt Legendär wird sie nicht vor allen nicht die WCE Edition aber auf jedenfall sehr interessant ;)

@Nakai
Wir haben noch keine richtigen Stresser du gehst immer von Headless Compute aus mal abwarten was passiert wenn plötzlich mehr Action im Frame ist zwischen Maxwell und GCN vor allem bei DX 11 ;)
Da werden dann auch die ganzen noch Kepler user Augen machen ;)

john carmack
2015-03-19, 17:09:19
http://abload.de/img/fijizuswe.png

Haha...! Dafür müsste Fiji schon durchgehend min. 15% schneller als TitanX sein.

Ist wohl eher Wunschdenken.

Wer weiss was an der Treiber-Geschichte dran ist. Vielleicht dauert der Release einfach wirklich so lange weil AMD ausnahmsweise mal wirklich ein perfektes Produkt auf den Markt werfen will!

Mich würde es freuen. 2 - 3 Wochen mehr oder weniger ist jetzt auch egal, wobei man NV jetzt schon in die Suppe spucken könnte mit dem TitanX Release ;)

Gipsel
2015-03-19, 17:16:46
Maxwell ist aber schon krass effizienter als GCN. Maxwell ist pro SP etwa 50% schneller.Was in diesem Zusammenhang eine Bullshit-Aussage ist, weil Du damit nicht den Durchsatz der ALUs isolierst (was ja als These im Raum stand), sondern das Gesamtsystem betrachtest. Es sagt Dir eben nicht, wo die Flaschenhälse liegen. Und Maxwell hat eben z.B. beim Lesen von FP16-Texturen einen Faktor 2 Vorteil, beim ALU-Durchsatz gibt es keinen 50% Vorsprung von Maxwell (den sieht man übrigens auch nicht beim Vergleich von Hawaii und GM204 bei den Gesamtzahlen, das ist weniger).

robbitop
2015-03-19, 17:20:42
Was für eine Durchsatzsteigerung willst Du denn? Bei arithmetischen Sachen drückt GCN so viel durch, wie theoretisch möglich ist, da gibt es außer ein paar Spezialfällen praktisch kaum Bottlenecks in der Architektur
....
Mehr ist aus oben genanntem Grund auch nicht zu erwarten.
Definitiv nicht. Kepler hatte ganz andere Probleme als GCN hat. Kepler konnte nämlich gar nicht alle ALUs gleichzeitig mit (unterschiedlichen) Operanden aus den Registern versorgen, GCN kann das (und Maxwell jetzt auch, die haben eben die unterversorgten ALUs rausgekickt, die arithmetische Leistung sinkt dadurch trotz weniger ALUs nur wenig). Wo Maxwell gegenüber GCN Vorteile hat (außer beim Setup/Raster Teil), ist bei der Bandbreite zu den TMUs und vermutlich auch der Handhabung ausstehender Speicheroperationen. Das hat aber eigentlich nicht direkt was mit dem arithmetischen Durchsatz der ALUs zu tun.

Ich meine nicht Rohdurchsatz sondern was effektiv bei Spielen auf die Straße kommt. Also die effektive Auslastung der ALUs bei Spielecode. Habe mich nicht klar ausgedrückt - sorry. Maxwell benötigt deutlich weniger Ausführungseinheiten leistungsnormiert.

GCN hat IIRC ein vergleichbares TEX:ALU Verhältnis. Aber dennoch scheint Maxwell aus irgendeinem Grund seine Einheiten besser auslasten zu können.



GM200 hat 96 ROPs, GM204 hat wie Hawaii 64 ROPs. Letzteres wäre für Fiji ziemlich an der unteren Grenze.
Ich würde von Faktor 1,5 ausgehen. 64 -> 96. Ob mehr als 96 noch einen richtigen Vorteil bei Spielen bringen, ist fragwürdig IMO.



--------------

+50 % stimmt auch btw nicht. In 4K sind es ca. 25...30 % mehr. (Front End limitiert weniger) Aber immerhin. 30 % Effizienz sind schon eine Hausnummer.

Ailuros
2015-03-19, 17:34:25
Hawaii mit 8GB schlägt sich mit GM204 in UHD-Auflösungen.

http://www.tweaktown.com/tweakipedia/71/nvidia-geforce-gtx-980-sli-vs-radeon-r9-290x-8gb-4k-amd-fx-9590/index.html

Jaja, die CPU ist in diesem Test fehl am Platz.

Tonga ist durch das bessere Frontend auch stärker als erwartet. Eventuell braucht AMD dahigehend mehr Treiberentwicklungszeit.

Was genau hat es mit der vorigen Debatte zu tun? Es ging nicht um die Leistung sondern dass Fiji angeblich um N% mehr Einheiten haben soll im Vergleich zu Hawai. Wobei eben der Punkt war dass N keinen besonderen Unterschied hat zwischen GM204 und GM200.

Ailuros
2015-03-19, 17:38:36
Maxwell ist aber schon krass effizienter als GCN. Maxwell ist pro SP etwa 50% schneller.


Bei welchen durchschnittlichen Frequenzen genau auf Maxwells? Denn hier eben ist die uebliche Falle in die alle stampfen naemlich wie schon so oft erwaehnt bleibt der Verbrauch der Referenz SKU im Hinterkopf stecken und man vergleicht am Ende doch die Leistung von custom SKUs mit N hoeheren Frequenzen. Es ist nicht so dass Maxwell nicht effizienter ist als Hawaii, aber so uebertreiben muss man auch nicht.

aufkrawall
2015-03-19, 17:38:53
Man sollte sich nicht davon blenden lassen, dass die 290X in einigen Spielen gut mit der 980 ab 1440p mithalten kann.
Der Stromverbrauch ist einfach viel zu unterschiedlich. Diesen kann man immer noch gut unter Hawaii-Niveau bekommen, und ist trotzdem gerne mal 40% schneller (UT4 oder BF4 ohne MSAA).

Dementsprechend würde es nicht gut für Fiji aussehen, wenn es GM200 Full Chips auf Custom Designs zu kaufen gäbe, was ja nicht so unrealistisch ist.

Gipsel
2015-03-19, 17:40:53
GCN hat IIRC ein vergleichbares TEX:ALU Verhältnis.Das sagt Dir aber längst nicht Alles. Zum Beispiel stehen Maxwells TMUs die doppelte Bandbreite zur Verfügung und sind demzufolge beim Arbeiten mit FP16-Texturen glatt doppelt so schnell wie die gleiche Anzahl GCN-TMUs. Und FP16 ist schon relativ wichtig.
Ich würde von Faktor 1,5 ausgehen. 64 -> 96. Ob mehr als 96 noch einen richtigen Vorteil bei Spielen bringen, ist fragwürdig IMO.Da kann man sich fragen, ob AMD wieder wie bei Tahiti noch eine Crossbar-Stufe zwischen ROPs und Speichercontroller packt (um damals 32 ROPs/8 RBEs an 12 Speicherkanälen zu betreiben, waren offenbar 4 Stück 2x3 Crossbars, also nicht komplett verdrahtet) oder ob das bei 96 ROPs (24 RBEs) und 32 Speicherkanälen auf der anderen Seite als Clients nicht mehr Platz und Strom kostet (wären nach dem Tahiti-Modell mindestens acht parallele 3x4 Crossbars nötig) als schlicht 128 ROPs zu verbauen. Bei der Crossbar-Variante könnte man dann allerdings auch ROPs und Speichercontroller in bestimmten Relationen zueinander separat deaktivieren, z.B. für ein Salvage-Modell mit vollen 96 ROPs aber nur 3 HBM-Stacks (oder auch 64 ROPs mit 3 HBM-Stacks, man gewinnt also Flexibilität).
+50 % stimmt auch btw nicht. In 4K sind es ca. 25...30 % mehr. (Front End limitiert weniger) Aber immerhin. 30 % Effizienz sind schon eine Hausnummer.Und bei Compute-Sachen findet man die eher gar nicht (normalerweise kein Texturing, weniger gleichzeitig laufende Shadertypen, deren Arbeit man geschickt verteilen muß und die Daten bei Abhängigkeiten zwischen denen routen muß), auch wenn man da bei bestimmten Sachen immer auf spezielle Stärken und Schwächen der jeweiligen Architekturen stoßen kann. Es liegt also offenbar nicht an den ALUs.

aufkrawall
2015-03-19, 17:43:31
Und bei Compute-Sachen findet man die eher gar nicht (normalerweise kein Texturing, weniger gleichzeitig laufende Shadertypen, deren Arbeit man geschickt verteilen muß und die Daten bei Abhängigkeiten zwischen denen routen muß), auch wenn man da bei bestimmten Sachen immer auf spezielle Stärken und Schwächen der jeweiligen Architekturen stoßen kann. Es liegt also offenbar nicht an den ALUs.
In f@h sieht GCN ganz schlecht gegen Maxwell aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10547741&postcount=126

Skysnake
2015-03-19, 17:45:49
Wurde der Client für GCN extra optimiert? Wenn nein, brauchen wir darüber gar nicht reden.

aufkrawall
2015-03-19, 17:51:05
Wurde der Client für GCN extra optimiert? Wenn nein, brauchen wir darüber gar nicht reden.
Es gibt optimierte Kernels für AMD & NV. Letztere bieten übrigens auch Support, obwohl es OpenCL ist.
Wobei der unter Windows besser sein könnte. Momentan läufts aber mit Maxwell und dem neuesten Treiber sehr gut.

uweskw
2015-03-19, 18:08:55
Wollte sich heute nicht noch Agent 003dc mit News melden? :whisper:

Skysnake
2015-03-19, 18:12:55
Also ich kann nichts zu Optimierungen für GCN finden. Haste nen Link?

Unicous
2015-03-19, 18:15:51
Wollte sich heute nicht noch Agent 003dc mit News melden? :whisper:

Ich habe ihm die Daumen gedrückt(mit Daumenschrauben), jetzt hat er wohl eine Blutvergiftung bekommen.

uweskw
2015-03-19, 18:25:12
Ich habe ihm die Daumen gedrückt(mit Daumenschrauben), jetzt hat er wohl eine Blutvergiftung bekommen.

nicht eher brainwashed? :freak:
Das haben die Jungs echt drauf, die überzeugen dich doch glatt, dass es besser ist die Schnauze zu halten

greetz
U.S.

aufkrawall
2015-03-19, 18:29:20
Also ich kann nichts zu Optimierungen für GCN finden. Haste nen Link?
Details finde ich auf die Schnelle nicht:
http://fahwiki.net/index.php/Cores
Man könnte im Pande-Forum fragen.

Gipsel
2015-03-19, 18:44:07
In f@h sieht GCN ganz schlecht gegen Maxwell aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10547741&postcount=126F@H hat eine gewisse "Tradition" für etwas undurchsichtiges Performanceverhalten, wenn ich mich recht erinnere. Ich habe ehrlich gesagt auch keine Ahnung, was die da eigentlich genau machen, sprich, ob das überhaupt ALU-limitiert ist. Falls Maxwell gegenüber Kepler stark zulegt, spricht das nicht gerade dafür. ;)

aufkrawall
2015-03-19, 18:49:36
F@H hat eine gewisse "Tradition" für etwas undurchsichtiges Performanceverhalten, wenn ich mich recht erinnere. Ich habe ehrlich gesagt auch keine Ahnung, was die da eigentlich genau machen, sprich, ob das überhaupt ALU-limitiert ist. Falls Maxwell gegenüber Kepler stark zulegt, spricht das nicht gerade dafür. ;)
Eigentlich legt Maxwell insbesondere in eher ALU-limitierten Spielen gegenüber Kepler zu:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559911&highlight=trine

Gipsel
2015-03-19, 19:01:26
Eigentlich legt Maxwell insbesondere in eher ALU-limitierten Spielen gegenüber Kepler zu:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559911&highlight=trineDie Ergebnisse dort sind eigentlich vollkommen zu erwarten bei 16 13 vs. 15 SMs mit höheren Takt und mehr ROPs (edit: war ja eine GTX970 in Deinem Startpost). Ich sehe da ehrlich gesagt kein Zulegen. Das ist schlicht der Effekt daß prinzipbedingt die Kepler ALUs gar nicht voll ausgelastet werden können, GM204 also gegenüber GK110 im ALU-Durchsatz überhaupt keinen Nachteil hat.

aufkrawall
2015-03-19, 19:07:29
Die Ergebnisse dort sind eigentlich vollkommen zu erwarten bei 16 vs. 15 SMs mit zudem höheren Takt. Ich sehe da ehrlich gesagt kein Zulegen. Das ist schlicht der Effekt der prinzipbedingt die Kepler ALUs gar nicht voll ausgelastet werden können, GM204 also gegenüber GK110 im ALU-Durchsatz überhaupt keinen Nachteil hat.
Wenn die ALUs nicht voll ausgelastet wären, wäre aber doch der Energieverbrauch nicht so hoch?
Das Spiel bringt in 5k eigentlich jede GPU am stärksten ins Power-Limit. Zumindest, wenn eine Szene gerendert wird, die noch zusätzlich über starkes Postprocessing verfügt (etwa unter Wasser).
Ich hatte es dort noch nicht gepostet, aber eine 980@1450Mhz ist 20% schneller als eine 780 Ti@1250Mhz.
Stromverbrauch-Unterschied mindestens 100W unter Luft, mit WK natürlich eher kleinerer Abstand zu Gunsten von GK110/Hawaii. Werden trotzdem nie weniger als 100W sein.

Wie du sehen kannst, sind die TMUs aufgrund des sehr geringen Performance-Unterschieds zwischen Q- und HQ-Filterung offenbar nicht der Flaschenhals.

Gipsel
2015-03-19, 19:15:50
Wenn die ALUs nicht voll ausgelastet wären, wäre aber doch der Energieverbrauch nicht so hoch?In einer GPU verbraucht alles Mögliche Strom, nicht nur die ALUs. Nur mit dem Quälen der ALUs kommt man längst nicht auf Peak-Verbrauch. Datentransfers kosten oft genau so viel Strom. Furmarks "Geheimnis" ist ja z.B. nicht, die ALUs stur mit FMAs vollzuhauen, sondern gleichzeitig auch TMUs, ROPs und Speichercontroller zu quälen (wobei man das genau genommen auf jede GPU noch leicht anpassen müßte, um wirklich immer am Maximum zu sein).
Wie du sehen kannst, sind die TMUs aufgrund des sehr geringen Performance-Unterschieds zwischen Q- und HQ-Filterung offenbar nicht der Flaschenhals.Das kannst Du daraus gar nicht ableiten. HQ und Q unterscheiden sich nur im Bandbreitenbedarf der TMUs, die Anzahl der an die ALUs gelieferten gefilterten Texel (eins pro TMU und Takt bei den normalen Farbformaten) ist identisch. Das bedeutet also eher, daß die Bandbreite kein Flaschenhals ist, also z.B. weil die Hitrates der Caches dort sehr hoch ist, was das Bottleneck tendenziell zu den TMUs schieben würde ;). Weil aber GM204 weniger TMUs pro ALU als Kepler hat, ist das offenbar ebenfalls nicht wesentlich).
Dazu muß man aber sagen, daß Maxwell stärkere TMUs hat als Kepler. So kann z.B. eine Maxwell-TMU Texturen mit einzelnen 32bit-Komponenten (könnte z.B. eine Parameter-Map für irgendwas sein, k.A. ob Trine sowas nutzt, allgemein sollte das nicht übermäßig häufig vorkommen) deutlich schneller lesen als eine Kepler-TMU (eine GTX980 ist trotz weniger TMUs hier genauso schnell wie GK110). Auch insgesamt arbeiten die Maxwell-TMUs deutlich effizienter. In entsprechenden Tests erreichen sie praktisch ihre theoretischen Werte, Kepler schafft das nicht. Der Abstand ist also kleiner, als die reine Anzahl der TMUs und der Taktunterschied es aussehen lassen.

aufkrawall
2015-03-19, 19:27:30
Es fällt aber schon auf, dass mit exzessivem PP der Energiebedarf meist stark ansteigt, und dafür werden doch sicherlich in allererster Linie die ALUs belastet.
Ist bei Furmark/Kombustor übrigens auch so.

Gipsel
2015-03-19, 19:43:19
Es fällt aber schon auf, dass mit exzessivem PP der Energiebedarf meist stark ansteigt, und dafür werden doch sicherlich in allererster Linie die ALUs belastet.
Ist bei Furmark/Kombustor übrigens auch so.
Da streamst Du aber auch immer schön Daten rein (man liest meist eine Menge der umgebenden Pixel mit ein, was die Caches und die TMUs [falls Pixelshader-PP] streßt) und schreibt die (am besten noch mit Blending) wieder raus (ROPs/ROP- bzw. L2-Caches + Speicherbandbreite). Bei Postprocessing hat man ganz allgemein den Effekt, daß man keinen Verschnitt hat, weder in den Quads noch in den SIMD-Einheiten. Die Auslastung ist also insgesamt höher (das skaliert die Last für ALUs, TMUs, Caches, ROPs und Speicherinterface zusammen, nicht getrennt nur die ALU-Last [solange man keinen absolut ALU-limitierten PP-Filter nimmt, was für Furmark eine schlechte Wahl wäre]).

aufkrawall
2015-03-19, 19:45:52
:idea:
Also verortest du die Effektivitätsverbesserungen auf breiter Front?

Gipsel
2015-03-19, 20:11:37
:idea:
Also verortest du die Effektivitätsverbesserungen auf breiter Front?Bei Maxwell hat man die oft praktisch unnützen überzähligen ALUs aus den SMs rausgekickt und viel Optimierunsgarbeit geleistet (die TMUs habe ich erwähnt, damit trifft man trotz verringerter Zahl offenbar trotzdem meist kein Bottleneck, die L1-Caches wurde deutlich überarbeitet, shared Memory ist jetzt extra [wie bei GCN]). Auch das Scheduling dürfte einfacher (und stromsparender) ausfallen (einfachere Zuordnung von Registerfiles zu ALUs und daran gepinnten Warps, da wurde bei Kepler noch Verschwendung betrieben) und die verringerten ALU-Latenzen (vermutlich stammen die hauptsächlich aus dem vereinfachten Datenfluß in einem SM) ab und zu mal Stalls dort vermeiden und so helfen, die Fälle zu kompensieren, wo die 64 zusätzlichen ALUs pro SM von Kepler mal was bringen konnten. Man erreicht jetzt eher volle ALU-Auslastung mit weniger Warps (mehr Register können genutzt werden). Die ROP-Anzahl ging hoch, die Framebufferkompression hilft, die 64 ROPs auch nutzen zu können, der L2-Cache wurde vergrößert.
Also ja, man hat an allen möglichen Ecken und Enden was verbessert.

Aber um mal wieder etwas auf das Thema zurückzukommen, bei GCN liegen die Bottlenecks woanders. Die GCN-CUs sind von Anfang an viel stärker darauf ausgelegt gewesen, bei arithmetischen Geschichten kaum irgendwann mal Stalls zu produzieren (da ist nV mit Maxwell jetzt auch ungefähr hingekommen). Aber die ALUs sind halt im Vergleich zu Maxwell nur mit der Hälfte der Bandbreite (pro ALU, GCN hat nur die Hälfte an L1-Bandbreite pro TMU) an die L1-Caches angebunden. Datenzugriffe sind auf GCN also "teurer" (und nein, Speicherbandbreite hilft da nicht wirklich, hier geht es um die Bandbreite aus den L1-Caches). Die Frontend-Geschichten kommen dann noch hinzu. Mal sehen, ob bzw. wieviel Fiji da gegenüber Hawaii und Tonga drauflegt.

aufkrawall
2015-03-19, 20:16:07
:love3:

|MatMan|
2015-03-19, 20:42:24
Bei deinen Überlegungen scheinst du irgendwie zu vergessen (es liest sich jedenfalls so), dass Windows 10 gerade vor der Tür steht und im Sommer veröffentlicht wird.
Nein ich habe Windows 10 nicht vergessen. Windows 10 ist nicht erst seit gestern am Horizont und bestärkt nur die Annahme der "Fehlplanung" an sich nur. Die Umstrukturierungen sind natürlich ein Punkt, ändert am Ergebnis aber nichts.

Auch bringt Fiji und andere Produkte nicht nur GCN im Kern mit, da kommen noch eine ganze Menge weiterer Dinge, die ordentlich implementiert werden müssen und mit denen AMD werben wird. Und wenn das nicht funktioniert gibt es zurecht eine entsprechende Rückmeldung von den potentiellen Kunden. Gerade wir Deutschen sind da rigoros, das siehst du u.a. hier im Forum. AMD wittert auch die quasi "Partnerschaft" mit Apple. Apple will OpenCL, AMD hat aktuell (außer beim Macbook Pro) überall wieder die Produkte mit drin und wenn AMD da auch keinen Mist baut, haben sie da eine ganze Menge Möglichkeiten, ihre Produkte abzusetzen.
Es müssen nicht alle Spezial-Features zum Launch funktionieren, Video oder AA-Features werden oft erst nachgeliefert. Nicht toll, aber üblich und kein Grund die Karte nicht zu kaufen.
Der Mac-Ableger von Fiji muss wohl kaum zeitgleich mit der PC Gaming Karte veröffentlicht werden.

Deine Idee, hier ein bzw. mehrere Produkte zu veröffentlichen, die "gerade so" funktionieren, kann ich beim besten Willen nicht nachvollziehen und möchte ich auch nicht untertützen. Sowas ist ja quasi fast schon ein Aufruf für Bananensoft- und Hardware. Was willst du bitte mit fortschrittlicher HW, wenn die Software gerade so passt bzw. nicht anständig optimiert ist? Also das kann es ja nicht sein, auch wenn das leider oft Gang und Gäbe ist. AMD muss zeigen, dass sie die nächsten Jahre wieder ein ernstzunehmender Player sind. Das betrifft ja nicht nur unsere (Gaming)-Produkte, sondern auch die professionellen Ableger. Gerade bei Treibern solltest du doch mitbekommen haben, was 3-6 Monate ausmachen können. Das ist teilweise der Unterschied von einer halben Grafikkarten-Generation, teilweise auch mehr, wenn die Optimierungen passen. Und da ist es für mich nachvollziehbar (wenn es stimmt), dass man hier keine Kompromisse eingeht, weil man bereits bei der HW schon Schritte gegangen ist, die zeigen, dass das nicht so ganz ohne Risiko war.
Ich hatte nirgends von mehreren Produkten gesprochen, erst recht nicht von den professionellen Ablegern. Die kommen ohnehin oft später und können/sollen das ruhig auch.
Meine Annahme war (das hätte ich deutlicher schreiben sollen), dass sich die GCN-Architektur nicht grundlegend ändert. Die Einheitenanzahl wird größer und das Speicherinterface schneller. Die Software-Basis sollte so flexibel sein, mit unterschiedlichen Anzahlen an SPs/CUs zurecht zu kommen (bei eher geringen Anpassungen). Das doppelt so schnelle Speicherinterface sehe ich auf höherer Software-Ebene nur als einen Optimierungsparameter, den man für einen späteren "Performance-Treiber" ausnutzen kann (vielleicht um bestimmte AA-Modi zu beschleunigen). Meine Annahme war also, dass bei nur kleinen Veränderungen der zugrunde liegenden Architektur, der aktuelle Treiber nur verhältnismäßig wenig Anpassungen braucht um ersteinmal stabil zu laufen. Die letzten 10-15% (Zahlen frei erfunden) Performance liefert man dann PR-wirksam mit einem neuen Omega-Treiber nach.
Trifft die Annahme nicht zu und braucht der Treiber tatsächlich grundlegend viel Arbeit wegen Fiji, sind die Änderungen an GCN wohl tiefgreifender.
Und nein es war kein Aufruf für Bananen-Produkte! Viel mehr ging es mir darum, dass man scheinbar nach einer jahrelangen Entwicklung auf der Zielgerade stecken bleibt. Das darf nicht passieren.

AMD kann es sich in der aktuellen Situation nicht (mehr) leisten, hier unfertige Produkte auf den Markt zu werfen.
Software ist nie fertig :tongue: Ich entwickle ab und zu selbst welche :D
Fakt ist, die Leute sind an Performance-Steigerungen durch neue Treiber gewöhnt. Man wird doch nicht 3 Monate am Treiber feilen um die Titan X dann gerade so zu schlagen?!

AMD hätte sich vielleicht die Mantle-Spielerei sparen sollen und sich stattdessen auf das Kerngeschäft konzentrieren, gerade bei knappem Personal.

samm
2015-03-19, 20:47:17
AMD hätte sich vielleicht die Mantle-Spielerei sparen sollen und sich stattdessen auf das Kerngeschäft konzentrieren, gerade bei knappem Personal.Oh nein, das hätten alle Gamer auf lange Sicht bereut - das würde bedeuten: kein Push für low-level APIs, kein Druck für DX12 oder Vulkan.
Man wird doch nicht 3 Monate am Treiber feilen um die Titan X dann gerade so zu schlagen?!Das High End des derzeitigen High Ends - da lohnt es sich, Zeit zu investieren. Dennoch wird es zwei, drei reproduzierbare Bugs oder Einschränkungen beim Release geben, und daran werden sich alle hochziehen, ich seh's kommen...