PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Duplex
2015-01-24, 12:16:12
Ein 4096 Shader Chip ohne HBM würde in 28nm TSMC auf ca. 550/580mm² kommen.

Unicous
2015-01-24, 12:26:16
Nanu? Eben waren es noch 500/520 und "wird"?

Entscheide dich mal.:rolleyes:

Wie sähe es denn bei GloFo aus?:whistle:

Duplex
2015-01-24, 12:31:39
Ich hab nochmal nachgerechnet, Hawaii + 20 CUs = Max. 580mm².
Wenn der Rest weiter optimiert wird kann man mit ca. 550mm² rechnen.

Der Chip wäre aber im vergleich zu GM200 nicht effizient, aber man kann direkt mit 8GB/512 Bit kommen.
Vielleicht sind die Spekus mit Wasserkühlung doch nicht so verkehrt.
Möglicherweise werden die Chips in HPM statt HP produziert, dann fällt die Effizienz etwas besser aus.

Nakai
2015-01-24, 12:57:03
20 CUs kosten etwa ~100mm². Eher etwas weniger, je nachdem wie die DP-Funktionalität aussieht.

Global Foundries sollte mit ihrem Gate First Prozess nochmals einen Platzvorteil bringen. Mehr als 10% erwarte ich nicht. Bei AMDs Fiji gibt es derzeit deutlich mehr Fragezeichen als bei NVs GM200.

Fiji hat "Tiled Architecture"? GCN 2.0?
https://translate.google.com/translate?sl=it&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.bitsandchips.it%2Fhardware%2F9-hardware%2F5159-gpu-fiji-un-grande-chip-monolitico-anche-per-amd&edit-text=

Der Vorteil hiervon ist der Local Scratchpad Memory, welcher eher als L0-Cache dient. Der kann schon ordentlich was bringen, in vielerlei Hinsicht.

Locuza
2015-01-24, 13:09:06
Und die Neu-Organisation der ALUs.
Aber das Bildchen haben wir schon seit den Tonga Spekulationen gesehen.
Kennt jemand den Ursprung davon?

Unicous
2015-01-24, 13:16:43
Afaik aus einem Patent(-antrag?) geklaut. Edit: Bzw. aus einem Paper/Präsentation? Ich weiß nicht mehr woher. Ist aber schon ein paar Monate her.

Für Fiji ist es jedenfalls eher nicht gedacht, wenn dann frühestens für 14nmFF Chips, denke ich.

Pick
2015-01-24, 13:34:20
Edit: Bzw. aus einem Paper/Präsentation?
http://www.microarch.org/micro46/files/paper72_slides.pdf
page 13

Unicous
2015-01-24, 14:11:18
Thanks. So a little bit more than one year ago at Micro-46.



Ich habe mal die (AMD) Präsentationen/Papers der Micro-47 herausgesucht. Vllt. findet man ja ein paar interessante Sachen.

NoC Architectures for Silicon Interposer Systems
http://www.eecg.toronto.edu/~enright/micro14-interposer.pdf

Unison Cache: A Scalable and Effective Die-Stacked DRAM Cache
http://parsa.epfl.ch/~jevdjic/papers/MICRO14_unison.pdf

Citadel: Efficiently Protecting Stacked Memory From Large Granularity Failures
http://www.cs.utah.edu/thememoryforum/nair.pdf

Managing GPU Concurrency in Heterogeneous Architectures
http://www.cse.psu.edu/~oik5019/docs/pdf/CPUGPU-MICRO2014.pdf

Calculating Architectural Vulnerability Factors for Spatial Multi-Bit Transient Faults (Ist glaube ich nicht soo interessant)
http://www.cs.virginia.edu/~gurumurthi/papers/micro14.pdf

PPEP: Online Performance, Power and Energy Prediction Framework and DVFS Space Exploration
http://hps.ece.utexas.edu/pub/rustam_micro12.pdf

Hier findet man eine Übersicht für AMD Papers:

http://www.amd.com/en-us/who-we-are/corporate-information/research/publications#journal-conference-and-workshop-publications

Leider scheint dieses Paper nicht "frei" verfügbar zu sein:
Design and Implementation of Novel Source Synchronous interconnection in modern GPU Chips, SOCC 2014

Nakai
2015-01-24, 18:14:00
http://www.microarch.org/micro46/files/paper72_slides.pdf
page 13

Many thanks! I was looking for this a while ago.:D

So ein lokaler Scratch Pad Memory ist sehr interessant und agiert ja als L0-Cache. Zur Neuorgnaisation der ALUs kann man schwer etwas sagen. Manchmal ist nicht mehr Platz auf nehr Folie, als eben Platz da ist. Grundsätzlich wären hier noch deutlich andere Unterschiede anzumerken. Die Folie sagt leider nichts aus, da es keine GCN-Architektur abbildet. Ich denke es ist einfache eine kleinere schematischere Ansicht, wie GPU-Cluster "ungefähr" aussehen.

Dennoch ein lokaler Scratch Pad Memory, sowie effizientere SIMD-Struktur könnte schon was bringen, vor allem bei Jumps und stärkeren Speicherzugriffe. Ansonsten hat jede CU schon viel Scratch Pad Memory.

Locuza
2015-01-24, 18:57:46
Wird hier nicht einfach eine klassische GCN-CU abgebildet?
Local Scratchpad Memory = Local Data Share?

Nakai
2015-01-24, 19:13:39
Wird hier nicht einfach eine klassische GCN-CU abgebildet?
Local Scratchpad Memory = Local Data Share?

Da fehlt vieles für eine CU. Es wird einfach ein schematischer Aufbau sein. Was man als Local Scratchpad Memory sieht, ist auch immer so eine Sache. In einigen Papers, wird der L1-Cache, Registerfile, der LDS als Local Scratchpad Memory betrachtet.

http://www.behardware.com/medias/photos_news/00/34/IMG0034546.png

Locuza
2015-01-24, 19:21:22
Jep, dass ist schon logisch.
Insofern versucht das Internet aus einem nichtssagenden Bild schon wieder mehr zu extrahieren, als da ist.

Nakai
2015-01-24, 19:33:03
Jep, dass ist schon logisch.
Insofern versucht das Internet aus einem nichtssagenden Bild schon wieder mehr zu extrahieren, als da ist.

Naja nicht unbedingt. Ich denke man hat den Begriff CU(Compute Unit) schonmal mit AMDs CU-Begriff verwechselt. Im Grunde nennen selbst die OpenCL Spezificationen einzelne Rechenblocke als CUs.

Ich denke das ist ein einfaches Schema gewesen, um aufzuzeigen, woran der Unterschied zwischen heterogene Systeme bzw. die grundlegenden Unterschiede zwischen GPU und CPU liegen. Im Grunde schauen alle moderneren SIMD-GPU-Architekturen irgendwie so aus.

Zero-11
2015-01-24, 22:44:17
Ein 4096 Shader Chip ohne HBM würde in 28nm TSMC auf ca. 550/580mm² kommen.

Was hat HBM mit der Shaderanzahl zu tun?

y33H@
2015-01-25, 00:46:39
Letzter Stand: 380X im Mai/Juni mit HBM, Samples werden derzeit außerhalb von AMD verteilt.

Schnoesel
2015-01-25, 00:50:11
Wird die 380X der Top Dog sein der Reihe oder kommt da paar Monate später noch was?

HarryHirsch
2015-01-25, 00:56:51
Wird die 380X der Top Dog sein der Reihe oder kommt da paar Monate später noch was?

DAS interessiert mich auch. Ich brauch mal wieder neue Grakas! :naughty:

Hübie
2015-01-25, 01:18:58
Also mit etwas Logik kann man sich die Antwort auch selbst herleiten. ;)

iuno
2015-01-25, 02:06:38
Was hat HBM mit der Shaderanzahl zu tun?
Das Speicherinterface braucht mit HBM wesentlich weniger Platz. Bei gleich viel Fläche ist also Platz für mehr Shader ;)

Wird die 380X der Top Dog sein der Reihe oder kommt da paar Monate später noch was?
Bermuda sollte noch irgendwann kommen, aber eher ein paar mehr Monate später ;) Da kommt bestimmt keine Karte mit nur 4GB, also HBM2. Möglicherweise heißt Fiji dann auch 'nur' 380X (anstatt 390), weil sie nur 4GB Speicher hat. Bermuda kommt vielleicht dann auch gleich in 14 nm, und das dauert noch bei GF

Nightspider
2015-01-25, 02:08:57
Zwischen der R9 380X und der 390X dürften 6-10 Monate liegen, falls bisherige Infos halbwegs stimmen.

Schnoesel
2015-01-25, 08:57:30
Also mit etwas Logik kann man sich die Antwort auch selbst herleiten. ;)

Mir geht es eher um den Zeitpunkt nicht dass irgendwann was schnelleres kommt. 2016 wäre schon übel.

horn 12
2015-01-25, 10:13:09
Nun , dies mit den 300 Watt glaub ich nicht so Recht.
Kann auch ein gezieltes Vorgehen von AMD sein, vielmehr denke ich es könnten um die 225 Watt Minus 5 bis 10% bei moderaten Taktraten werden,(Efficient + Quiet) ansonsten sollten die 225+ Watt ausgeschöpft werden.
Hoffe AMD bringt gleich ein Referenz Design mit sehr laufruhigen und effektiven Lüftern.
Da sollte Ihnen Sapphire doch zu Seite stehen und das AMD Logo aufdrucken lassen.

300 Watt sollten vielleicht die Boardpartner anviesieren, aber nie und niemals das Referenz Design wiederum verhunzen.
Die Presse ist diesmal aussschlaggebend für den Erfolg der R9 3x0-er Serie, mehraus denn je!

y33H@
2015-01-25, 11:53:30
Ein Stromsparkönig sei die Karte nicht, sagten mir die, die schon eine haben. Soll sich um ein 300W-Design handeln (PCIe + 6P + 8P), was aber nicht ausgereizt wird, dennoch deutlich mehr zieht als eine GTX 980 - bei mehr Bumms.
Die Presse ist diesmal aussschlaggebend für den Erfolg der R9 3x0-er Serie, mehraus denn je!In erster Linie ist es Sache des IHV ein gescheites Produkt zu bringen und nicht die Aufgabe der Presse ein wie auch immer geartetes Produkt an den Mann zu bringen.

M4xw0lf
2015-01-25, 12:05:01
Ein Stromsparkönig sei die Karte nicht, sagten mir die, die schon eine haben. Soll sich um ein 300W-Design handeln (PCIe + 6P + 8P), was aber nicht ausgereizt wird, dennoch deutlich mehr zieht als eine GTX 980 - bei mehr Bumms.
Also nach diesen Aussagen könnte das Ding auch genauso effizient sein wie die GTX980 und wäre demnach doch ein Stromsparkönig :freak:

Ailuros
2015-01-25, 12:16:12
Ein Stromsparkönig sei die Karte nicht, sagten mir die, die schon eine haben. Soll sich um ein 300W-Design handeln (PCIe + 6P + 8P), was aber nicht ausgereizt wird, dennoch deutlich mehr zieht als eine GTX 980 - bei mehr Bumms.


Dass es sich bei den 300W um board desing factor handelte war mir von Anfang an klar. Sonst wie oben schon notiert bei hoeherem Verbrauch und gleichzeitig hoeherer Leistung klingt es nicht gerade nach etwas mit einem unbedingt schlechteren perf/W Verhaeltnis. Kommt natuerlich dann auch noch darauf an wo und wie man misst. Fiji ueberschreitet afaik real nicht die 200W Verbrauch.

Raspo
2015-01-25, 12:18:48
In erster Linie ist es Sache des IHV ein gescheites Produkt zu bringen und nicht die Aufgabe der Presse ein wie auch immer geartetes Produkt an den Mann zu bringen.

Naja, das hinkt aber schon etwas.
Die Presse kann ein Produkt wohlwollender darstellen oder nicht.
Und das schwankt bei Seiten je nach Artikel.

Mein subjektiver Eindruck natürlich.

-/\-CruNcher-/\-
2015-01-25, 12:31:33
Dass es sich bei den 300W um board desing factor handelte war mir von Anfang an klar. Sonst wie oben schon notiert bei hoeherem Verbrauch und gleichzeitig hoeherer Leistung klingt es nicht gerade nach etwas mit einem unbedingt schlechteren perf/W Verhaeltnis. Kommt natuerlich dann auch noch darauf an wo und wie man misst. Fiji ueberschreitet afaik real nicht die 200W Verbrauch.

Jo die Frage ist ja wieviel zieht es bei vergleichbarem Bumms ;)

Nakai
2015-01-25, 12:40:46
Womöglich ist der Unterschied zwischen Fiji und Bermuda nur die Größe des HBM-RAMs? Immerhin ist der Speicher nun auf dem Package.

Fiji - 4096SPs, 800 Mhz, 4GB HBM
Bermuda -4096SPs, 1GHz, 8GB HBM

fondness
2015-01-25, 12:49:57
Das hört sich ja schon mal sehr interessant an. :)

horn 12
2015-01-25, 12:51:11
Das PT soll ja auch überarbeitet worden sein bei der Fiji-Karte.
Somit könnte man wohl echt die 225 Watt annehmen bei guter Lautstärke, und für die extem Performance wird es die Custom Modelle geben
R9 290X @ÜberModus +50% für das AMD Referenz Design für 449 Dollar und dann hätte NV ein gewaltiges Problem!
Könnte dem nix entgegensetzen ausser dem GM200 für 1000 Euro :-)
Nur mit "Billigeren" Preisen kann AMD wieder punkten und trotzdem den Martkanteil gewaltig ausbauen!
Rechen der Preis ist heiss und dies weiss AMD zu schätzen!

AnarchX
2015-01-25, 12:54:33
Womöglich ist der Unterschied zwischen Fiji und Bermuda nur die Größe des HBM-RAMs? Immerhin ist der Speicher nun auf dem Package.

Fiji - 4096SPs, 800 Mhz, 4GB HBM
Bermuda -4096SPs, 1GHz, 8GB HBM

Könnte möglich sein, der Unterschied war bei Chiphell durchaus in diesem Rahmen. Bermuda XT bringt dann vielleich auch die Hybrid-Kühlung mit.

Kriton
2015-01-25, 12:56:58
Mir geht es eher um den Zeitpunkt nicht dass irgendwann was schnelleres kommt. 2016 wäre schon übel.

Nach AMDs Namenslogik wären 2016er Karten aber aus der 4xx-Reihe und damit keine 390(X) mehr.

horn 12
2015-01-25, 12:58:56
Bermuda sollte wohl ca. 25% drauflegen können, mit der womöglichen Hybrid Lösung aber viele abschrecken dürfen.
Da könnte Sapphire im Weiteren hilfreich sein, da was "Gutes" auf die Beine zu stellen für die Absolute HighEnd Karte.

Mal sehen, denke es werden gar bei Fiji die 8GB HBM Speicher.
Deshalb kommt man auch erst im Mai/ Juni mit der Karte auf den Markt. Hynics sollte bis dahin wohl knapp liefern können, da rechne ich auf eine AMD Absprache mit Hynics.
Da GM200 gar mit 6GB KOMMT GEHT AMD SICHERLICH NICHT EINEN SCHRITT ZURÜCK, SONDER ÜBERTRUMPFT DIES SICHERLICH!

Höherer Takt zudem Extreme Performance wird wohl Bermuda auszeichnen, als Single Karte 4K Tauglich :-)
Diese Generation MUSS einschlagen wie eine Bombe, ansonsten wirds wohl nichts mehr für AMD

Kriton
2015-01-25, 13:02:51
Ein Stromsparkönig sei die Karte nicht, sagten mir die, die schon eine haben. Soll sich um ein 300W-Design handeln (PCIe + 6P + 8P), was aber nicht ausgereizt wird, dennoch deutlich mehr zieht als eine GTX 980 - bei mehr Bumms.


Beziehst Du Dich bei der 980 auf die Referenzkarte oder custom designs? Die haben ja teilweise doch ganz heftige zusätzliche Verbrauchswerte.

Locuza
2015-01-25, 13:26:43
Fiji ueberschreitet afaik real nicht die 200W Verbrauch.
Das wäre ein hoher Effizienzgewinn, falls es sich wirklich so herausstellen sollte.
http://ht4u.net/reviews/2014/evga_geforce_gtx_980_superclocked_im_test/index15.php

Bei PCGH gab es gestern die Meldung, über ~60% mehr Performance, bei 20% mehr Stromverbrauch gegenüber einer 290X (quiet) oder ~50% mehr Leistung bei 5% mehr Verbrauch vs. 290X (ueber).
Das wäre weniger attraktiv.

M4xw0lf
2015-01-25, 13:32:01
Dass es sich bei den 300W um board desing factor handelte war mir von Anfang an klar. Sonst wie oben schon notiert bei hoeherem Verbrauch und gleichzeitig hoeherer Leistung klingt es nicht gerade nach etwas mit einem unbedingt schlechteren perf/W Verhaeltnis. Kommt natuerlich dann auch noch darauf an wo und wie man misst. Fiji ueberschreitet afaik real nicht die 200W Verbrauch.
Whuat :eek:
Das wäre schon stark... ich hoffe du oder deine Quelle ist nicht nur hart am Trollen :unono:

AnarchX
2015-01-25, 13:34:41
Fiji ueberschreitet afaik real nicht die 200W Verbrauch.
~200W bei 15-20% mehr Leistung gegenüber der GTX 980(Ref.) ist doch auch die Aussage der geleakten Benchmarks bei Chiphell.

Nakai
2015-01-25, 13:35:21
Womöglich haben die Leute bei Chiphell ihren Bermuda einfach nur "simuliert"?
Eventuell haben die gewusst, dass Bermuda ein Fiji auf Steroide ist und haben anhand ihrem Fiji-Sample die Bermuda-Performance hochgerechnet.

AnarchX
2015-01-25, 13:37:07
Womöglich haben die Leute bei Chiphell ihren Bermuda einfach nur "simuliert"?

Man kann wohl annehmen, sofern die Werte authentisch sind, dass die Quellen bei den Kartenherstellern sitzen und eben Zugriff auf alle Karten haben sollten. Der Hybrid-Kühler wurde doch auch schon geleakt.

john carmack
2015-01-25, 13:39:26
Und wie gut ist dieses Ergebnis schlussendlich?
R9 290X plus xx % an Mehrleistung ?

AnarchX
2015-01-25, 13:41:51
Und wie gut ist dieses Ergebnis schlussendlich?
R9 290X plus xx % an Mehrleistung ?
http://www.3dcenter.org/news/angebliche-benchmarks-zu-amds-fiji-bermuda-sowie-nvidias-gm200-aufgetaucht

M4xw0lf
2015-01-25, 13:49:32
Over 9000.

Hübie
2015-01-25, 14:47:25
Es macht imo keinen Sinn Fiji mit mehr VRAM gleich einen anderen Namen zu geben. Das bedarf ja nicht mal große Änderungen am IMC & scratchpad. Bermuda würde ich eher in die Kategorie refresh oder shrink schieben. Wenn shrink machts wieder nur Sinn wenn 14FF was ich eher 2016 kommen sehe.
just my 2 cents on this topic.

AnarchX
2015-01-25, 14:50:46
Es macht imo keinen Sinn Fiji mit mehr VRAM gleich einen anderen Namen zu geben. Das bedarf ja nicht mal große Änderungen am IMC & scratchpad. Bermuda würde ich eher in die Kategorie refresh oder shrink schieben. Wenn shrink machts wieder nur Sinn wenn 14FF was ich eher 2016 kommen sehe.
just my 2 cents on this topic.
Bei AMD haben Package-Varianten auch schon mal andere Namen.
Und wenn Bermuda 8 statt 4GiB auf seinem Package hat, ist das schon ein größerer Unterschied. Eventuell ist auch das Pin-Out für den >300W Modus etwas anders.

tm0975
2015-01-25, 16:05:18
In erster Linie ist es Sache des IHV ein gescheites Produkt zu bringen und nicht die Aufgabe der Presse ein wie auch immer geartetes Produkt an den Mann zu bringen.

so die theorie. die praxis ist anders. ich lese auf CB tagein tagaus, was intel für überflieger-prozessoren baut, gerade fürs gaming. vorhin habe ich mir ein paar cpu-benchs von spielen mit realen grafikeinstellungen angesehen. nirgends war der schnellste auch nur 10 % vor dem langsamsten. und es waren alle dabei, i3, i7, a10, fx 6x, fx 8x. mir brauch von "presse" niemand was erzählen....
und so wird es auch wieder laufen, wenn die 300er draußen ist. amd betreibt "zu wenig lobbyarbeit", was ich persönlich gut finde. aber das resultiert dann auch darin, dass man keine faire berichterstattung bekommt. als falls das ding 225 watt oder mehr verbrät, was ja absolut egal wäre, werden wir wiedr das gejammer vom stromverbrauch hören, egal wieviel das ding schneller ist. aber mmn wird es nur ein vorgeschmack werden. amd wird 14nm schneller draußen haben als nvidia. und dann geht das geheule wieder los, dass amd ja nur effizienter ist, weil sie schon 14 nm nutzen...

Ailuros
2015-01-25, 16:32:52
~200W bei 15-20% mehr Leistung gegenüber der GTX 980(Ref.) ist doch auch die Aussage der geleakten Benchmarks bei Chiphell.

Ιch hab damals gesagt dass es zwar ein fake ist aber es trotzdem wares daran liegen soll. Ob's stimmt bleibt abzusehen. <200W ist nur der Echtzeitverbrauch und nicht in einem power virus oder TDP um es klar zu stellen.

aufkrawall
2015-01-25, 16:52:46
Ιch hab damals gesagt dass es zwar ein fake ist aber es trotzdem wares daran liegen soll. Ob's stimmt bleibt abzusehen. <200W ist nur der Echtzeitverbrauch und nicht in einem power virus oder TDP um es klar zu stellen.
"power virus", lol
Werden demnächst Anno 2070, Trine 2 und BF: BC2 von Virenscannern erkannt?

Ailuros
2015-01-25, 16:57:00
"power virus", lol
Werden demnächst Anno 2070, Trine 2 und BF: BC2 von Virenscannern erkannt?

Ich mach's Dir einfacher: Du suchst vergleichbare Werte im zweiten und NICHT im dritten graph http://www.tomshardware.de/nvidia-geforce-gtx-960-maxwell-test,testberichte-241727-17.html (Seite 17 im review falls der link woanders ankommt)
IMHO:

* Waere ein 300W TDP fuer Fiji ein ziemliches Oxymoron; man verwendet HBM um Bandbreite mit niedrigerem Stromverbrauch zu erreichen und verbraucht dann am Ende doch mehr Strom als konkurrierende Loesungen?

* Bermuda klingt mir nach wie vor als irgend ein daemliches mGPU Gespann.

* Ich bezweifle ernsthaft dass der Speicher auf Fiji die GHz Schwelle erreicht aber es bleibt abzusehen.

AnarchX
2015-01-25, 17:41:22
Den Chiphell-Ergebnissen nach würde Bermuda wohl mit GM200 konkurrieren, der in OC-Versionen wohl auch die 300W Marke überspringen könnte.

Ravenhearth
2015-01-25, 17:42:20
Speku:

Fiji:
64 CUs, 4096 SPs, 256 TMUs, 64 ROPs
>8 Mrd. Transistoren, ~550-600mm², 28nm
~800 MHz, ~200W durchschn. Stromverbrauch, 300W TDP,
Luftkühlung, 4GB HBM, 15-20% über 290X

Bermuda:
Gleicher Chip, 1000 MHz,
>300W durchschn. Stromverbrauch, 375W TDP,
Wasserkühlung, 8GB HBM, ~45% über 290X

Bei Fiji versucht AMD eine hohe Effizienz zu erreichen, indem man den sehr breiten Chip niedrig taktet, bei Bermuda fährt man ihn durch den hohen Takt und Wasserkühlung dagegen voll aus.

Coda
2015-01-25, 17:46:36
"power virus", lol
Werden demnächst Anno 2070, Trine 2 und BF: BC2 von Virenscannern erkannt?
Power Virus ist der gängige Begriff für Software die Chips sehr gut auslasten, das hat er nicht erfunden.

aufkrawall
2015-01-25, 17:54:14
Power Virus ist der gängige Begriff für Software die Chips sehr gut auslasten, das hat er nicht erfunden.
Dann sind manche Spiele das (weil TDP-Limit erreicht).
Dieser "Spiele-Verbrauch" ist einfach Blödsinn, sofern er nicht über alle gebenchten Spiele gemittelt ist (was er nicht sein wird, da Aufwand astronomisch).

Wobei das TDP-Limit natürlich niedriger liegen kann als bei Hawaii.
Was in Anbetracht von GM200 allerdings auch ein Muss sein wird.

horn 12
2015-01-25, 17:58:02
@Ravenhearth

Das mit Fiji stimmt vorne und hinten nicht
Selbst Fiji soll mind. knapp 50% schneller sein als R9 290X und dies sogar wenn der Chip mit nur 800 Mhz takten sollte. Die Zügel werden wohl mit Bermuda freigelassen!

y33H@
2015-01-25, 18:11:30
Die Presse kann ein Produkt wohlwollender darstellen oder nicht.Fakten und Messwerte lassen sich kaum stark unterschiedlich interpretieren, ein wenig Leseverständnis vorausgesetzt.

Dass es sich bei den 300W um board desing factor handelte war mir von Anfang an klar. Sonst wie oben schon notiert bei hoeherem Verbrauch und gleichzeitig hoeherer Leistung klingt es nicht gerade nach etwas mit einem unbedingt schlechteren perf/W Verhaeltnis. Kommt natuerlich dann auch noch darauf an wo und wie man misst. Fiji ueberschreitet afaik real nicht die 200W Verbrauch.
Beziehst Du Dich bei der 980 auf die Referenzkarte oder custom designs? Die haben ja teilweise doch ganz heftige zusätzliche Verbrauchswerte.NV-Custom gegen AMD-Referenz soweit ich das verstanden habe.

Ailuros
2015-01-25, 18:17:32
NV-Custom gegen AMD-Referenz soweit ich das verstanden habe.

Zumindest von dem was ich hoere ist es schon ein apples to apples Vergleich. Je nach Perspektive hast Du auf einer reference GTX980 zwischen 175-185W maximalen Verbrauch. Ist aber auch ziemlich wurscht; den grossen Unterschied wird das Fiji salvage part machen.

y33H@
2015-01-25, 18:38:47
Es gibt ja auch 980er-Custom die deutlich unter 200W brauchen.

Black-Scorpion
2015-01-25, 19:16:57
Fakten und Messwerte lassen sich kaum stark unterschiedlich interpretieren, ein wenig Leseverständnis vorausgesetzt.
Das hat PCGH nicht davon abgehalten eine Asus Mars als Kaufempfehlung auf Platz eins zu setzen. Obwohl das Ding nie stabil gelaufen ist. Also kann man sehr wohl spekulieren das wohlwollend dargestellt wird. Ganz egal was Fakten und Messwerte sagen.

Nakai
2015-01-25, 22:14:46
Erreicht AMD mit Fiji, also um die 550mm², einen geringeren Verbrauch als Hawaii(Quiet: 230W), dann ist die Wattage/mm² schonmal gesunken. Die Wärme kann deutlich besser abgeführt werden. Ist schonmal ein wirklich gutes Zeichen und das macht eine deutliche höhere Taktung möglich. Wenn der Hybrid-Kühler nur für Bermuda verwendet wird(250~300W). Sollte schon noch etwas Taktpotential drin sein.
Fiji sollte eher 800MHz Base bis 1GHz boosten. Damit erreicht man auf jedenfall eher GM204+20%.

Für Bermuda eventuell noch etwas höherer Takt und mehr Speicher, um nochmal etwa 20% draufzulegen(eher Boost auf 1,2GHz). Mit 300W bei 550mm² ist man etwa auf Hawaii-Niveau, was W/mm² angeht.

horn 12
2015-01-25, 22:55:11
Dann sollte es aber wohl nur die R9 380X Karte geben, (GTX 980 +20%) also keine kleine Schwester (Ohne X)
Dann wäre man wieder von NV ausgestochen, wenn die non X wieder nur mit GTX 980 mithalten kann, AUSSER man bringt jene Karte für 299 Dollar.
Ich gehe von der Großen AMD Karte von GTX 980 plus 30 bis 40% aus,
die R9 380 legt auf GTX 980 +20% drauf.

y33H@
2015-01-25, 23:26:48
Das hat PCGH nicht davon abgehalten eine Asus Mars als Kaufempfehlung auf Platz eins zu setzen.Weil bei deren Noten-System die Leistung alleine schon 60 % ausmacht.

horn 12
2015-01-26, 07:46:11
Eine weitere Zusammenfassung aller Details, Bilder des PCB und Preisangaben:

http://videocardz.com/54727/amd-radeon-r9-300-series-rumors

Nightspider
2015-01-26, 09:08:36
horn du nervst ein wenig mit deinem Fake-Spam

tm0975
2015-01-26, 10:07:51
Weil bei deren Noten-System die Leistung alleine schon 60 % ausmacht.

tests ohne relevante ko-kriterien sollte man daher besser ignorieren. gleiches bei der 970, bei der nur 3,5 gb wie erwartet funktionieren. aber gut, dass das problem hier im forum so schnell identifiziert werden konnte. :up:

Bzgl. der Videocardz-Zusammenfassung sieht es wohl so aus, dass der Start für die R3xx Serie vorbereitet ist. Da im letzten Conference Call so wert auf die Reduktion des Inventars wert gelegt wurde, vermute ich, dass der Start erst beginnt, wenn die Beständer der R290(X) entsprechend reduziert sind. gut möglich, dass tonga im vollausbau samt 4 gb den hawaii-chip ersetzen wird.

Ailuros
2015-01-26, 10:47:59
Ach videocardz die Ueber- "Quelle" direkt hinter der wccftech Bude :D Bei dem Preis wo AMD fuer Fiji verlangen kann verzoegert keiner ein fertiges Produkt.

fondness
2015-01-26, 11:06:56
videocardz leaket wenigstens zuverlässig NDA-Material, das ist auch was wert. :D

y33H@
2015-01-26, 11:16:10
Nicht für die, die das Material haben und ergo schon kennen :ulol:

Botcruscher
2015-01-26, 11:17:41
Mein Beileid.:rolleyes:

mironicus
2015-01-26, 11:40:24
Denkt ihr, dass AMD bei der nächsten Generation gleich 8 GB Speicher standardmäßig bringen wird? Ist so viel Speicher als HBM jetzt schon möglich?

Dural
2015-01-26, 11:40:30
Für was braucht eine Effiziente Architektur 2x 8-Pin und Wakü :confused:

Nightspider
2015-01-26, 11:43:42
Wofür braucht eine effiziente Karte überhaupt PCIe Stromstecker?

Kauf dir doch gleich eine GTX750 :rolleyes:

mironicus
2015-01-26, 11:50:47
Angenommen: 4 GB HBM, 4096 Shader etc... 15-20% (ohne OC) schneller als GTX 980.
AMD punktet mit dem Preis und verlangt 549 Dollar für die Karte, die GM200 ist kaum schneller und NVidia verlangt 1000 Dollar und einziger Vorteil ist mehr GPU-Speicher. :)

Nightspider
2015-01-26, 11:53:31
Für 15% müsste man nicht mal einen neuen Chip aufsetzen. :rolleyes:

Dural
2015-01-26, 11:54:35
Wofür braucht eine effiziente Karte überhaupt PCIe Stromstecker?

Kauf dir doch gleich eine GTX750 :rolleyes:

Gutes Beispiel, wäre Maxwell nicht so Effizient hätte die 750 sicher einen Stecker :wink:

Keine Firma der Welt würde, sofern die Leistung stimmt freiwillig so Aufrüsten. Den das alles kostet in der Herstellung richtig viel Geld.

Nightspider
2015-01-26, 11:56:13
Dann hol dir eine und blubber den Thread nicht zu.

Ailuros
2015-01-26, 11:57:48
videocardz leaket wenigstens zuverlässig NDA-Material, das ist auch was wert. :D

Wie lange denkst Du wird es Idioten geben die WhyCry solches Material freiwillig zustecken?

Dann hol dir eine und blubber den Thread nicht zu.

+1 :P

M4xw0lf
2015-01-26, 12:00:49
Für 15% müsste man nicht mal einen neuen Chip aufsetzen. :rolleyes:
Für 15% über der GTX980? Bei Hawaiis Takt(nicht)reserven wäre sogar 15% schneller als die 290X out of the box eine Herausforderung.

Dural
2015-01-26, 12:01:28
Deine Argumentation ist super, und dann wird schon von 549.- gesprochen.

Kostet ja alles nix und AMD verdient ja so wie so nie Geld mit ihrer Hardware. Da Packen wir doch gleich eine Dicke Spannungsversorgung drauf, WaKü ist ja so wie so gesetzt und wir Testen gleich den neuen Speicher der am Anfang sicher viel günstiger ist als der alte.

Schaffe89
2015-01-26, 12:16:04
Naja für 560 Euro bei aktuellem Kurs in einem betagten Prozess kann man schon einiges verdienen imho.

Unicous
2015-01-26, 12:22:16
Wie lange denkst Du wird es Idioten geben die WhyCry solches Material freiwillig zustecken?


Bis der Maya-Kalender endlich mal recht hat. Und dann gehts von vorne los.:biggrin:

Nightspider
2015-01-26, 12:26:26
Für 15% über der GTX980? Bei Hawaiis Takt(nicht)reserven wäre sogar 15% schneller als die 290X out of the box eine Herausforderung.

Dafür reicht ja schon die prognostizierte Wasserkühlung unter 4K. Zur Not noch ein neues Stepping.

15-20%....so viel könnte vllt schon der HBM Speicher in 4K bringen - who knows aber es werden bestimmt nicht nur 15-20% mehr bei 4096 Einheiten und HBM zusammen mit einer neuen Architektur. :rolleyes:

Vor allem wenn HBM Strom spart und alle von 300W ausgehen. :rolleyes:

Selbst bei 250W wäre durch das HBM PHY deutlich mehr Leistung für die Recheneinheiten übrig. Ganz zu schweigen von der sparsameren Architektur wie bei Tonga. Unter 2K würde ich von mind(!) GTX980+25% ausgehen und unter 4K von GTX980+(40%) mind!

Falls AMD eine gute Architektur gelingt und HBM unter 4K ordentlich reinknallt könnte die Karte sogar schneller sein als GM200. Es ist alles offen und wir werden es in 4 Monaten sehen.

Sunrise
2015-01-26, 12:27:29
Naja für 560 Euro bei aktuellem Kurs in einem betagten Prozess kann man schon einiges verdienen imho.
Mehr als die GTX 980 sollte sie dennoch kosten. Der Rest hängt von der relativen Leistung zu GM200 ab, der geschätzt etwa 35% über der 980 liegt.

Unter 2K würde ich von mind(!) GTX980+25% ausgehen und unter 4K von GTX980+(40%) mind!

Falls AMD eine gute Architektur gelingt und HBM unter 4K ordentlich reinknallt könnte die Karte sogar schneller sein als GM200. Es ist alles offen und wir werden es in 4 Monaten sehen.
Ja, das mit den +25% bis +40% ist IMHO eine gute Einschätzung. Allerdings hat NV dann leider immer einen Punkt, den sie wohl bis zum geht nicht mehr ausschlachten werden -> mehr VRAM. Wenn AMD die Karte aber preislich nur leicht über der 980 positioniert, dann passt das wieder.

tm0975
2015-01-26, 12:37:06
Naja für 560 Euro bei aktuellem Kurs in einem betagten Prozess kann man schon einiges verdienen imho.

mir ist der preis der grafikkarte im prinzip erstmal egal. mich interessiert der gesamtpreis bestehent aus 27" 120+ hz und > fullhd display in kombination mit der grafikkarte. das gespann sollte zusammen nicht mehr als 1000 € kosten. allerdings wird es wieder ewig dauern, bis die grafikkarten-tests diesen sachverhalt berücksichtigen. 200 € aufpreis für gsync sind da definitiv eine hausnummer. allerdings, solange bei freesync nichts an monitoren lieferbar ist, kann ich auch getrost auf eine neue grafikkarte warten. es wird wohl so oder so q2 werden. ich glaube dennoch nicht, dass amd bei einem preis von 560 € nennenswert gewinn macht. dafür sind bei der neuen gpu mit hbm viel zu viele dinge, die das leben erschweren. den gewinn wird man erst mit der nachfolgegeneration und dem lernen aus der ersten hbm-generation machen können.

Nightspider
2015-01-26, 12:41:46
So gut wie keiner braucht 12GB VRAM,vor allem nicht zwingend.
Klar ist mehr besser aber 8GB sind sind selbst für 4K genug und keiner wird den dicken Aufpreis für 12 GB zahlen. Und selbst wenn Star Citizen 2016 12GB nutzen wird könnte AMD eine 16 GB Variante nachschieben.

Sunrise
2015-01-26, 12:56:07
So gut wie keiner braucht 12GB VRAM,vor allem nicht zwingend.
Klar ist mehr besser aber 8GB sind sind selbst für 4K genug und keiner wird den dicken Aufpreis für 12 GB zahlen. Und selbst wenn Star Citizen 2016 12GB nutzen wird könnte AMD eine 16 GB Variante nachschieben.
Wer redet denn von 12GB VRAM?

Es reicht doch bereits, wenn Fiji 4GB hat und NV GM200 mit "nur" 6GB vorstellt (mehr VRAM bei NV, eben wie bei der TITAN).

12GB VRAM sollten für die Quadro reserviert bleiben.

Duplex
2015-01-26, 13:04:30
Was sollen immer diese arroganten Smileys im Text?

Schaffe89
2015-01-26, 13:05:28
Pommes und Schnitzel gibts am Stadtplatz.

Unicous
2015-01-26, 13:19:35
Was sollen immer diese arroganten Smileys im Text?

Welchen Text meinst du genau?

:rolleyes::ass::facepalm::upicard::ufinger::ulol2::uwoot::uclap:



Edit:

Schaffe, schaffe, Häusle baue?

HOT
2015-01-26, 17:31:34
Wenn man schon einen 500mm² + Chip baut, wird man es auch richtig machen und das Ding auch bis zu Ende denken. Man bedenke, dass AMD bisher sowas immer vermieden hat. Man will diesmal die Spitze und geht da sicherlich kein Risiko mehr ein. Die 380(X) ist sicherlich Vollausbau mit ca. 270W Powertarget, also ähnlich wie die FirePro W9100. Man wird der Karte sicherlich ebenfalls einen Uber-Modus spendieren, der das Powertarget wie bei Hawaii auf Maxpower (bei Hawaii war das AFAIK 460W) hochsetzt, also unbeschränkt läuft. In diesem Modus wird die Teilwasserkühlung natürlich genauso nötig wie bei der X2. Die Customkarten der 380X werden aber sicher nicht mit Wasserkühler kommen, sondern wie gehabt mit Luft. Es bleibt halt nicht viel Spielraum für die typischen Custom-Karten-Spielereien mit Übertaktung und Erhöhung des Powertargets, allerdings hat man das bei Hawaii auch recht wenig ausgereizt. Da die Granularität sicherlich nochmals verringert wurde, wird man sich gut überlegen müssen, welches Netzteil wirklich zu der Karte passt, man bedenke die Netzteilproblematik bei der X2. Aber der GM200 wird das Problem sicherlich ebenfalls haben.
MMn hat das Teil entweder 8 GB HBM (was ich nicht glaube) oder 4GB HBM + recht langsamen 4-16GB GDDR5 @ 128 oder 256Bit-Anbindung. Nur 4GB wird man auf gar keinen Fall machen.

Nakai
2015-01-26, 17:34:49
MMn hat das Teil entweder 8 GB HBM (was ich nicht glaube) oder 4GB HBM + recht langsamen 4-16GB GDDR5 @ 128 oder 256Bit-Anbindung. Nur 4GB wird man auf gar keinen Fall machen.

Das hatten wir schon. Verschiedene Speichertypen bzw. mehrere unterschiedliche Speicher-Architekturen zu unterstützen, wäre sehr seltsam.
AMD hat dies auf ihren PIM-Folien schonmal erwähnt. Dahin wird die Reise gehen, aber ob Fiji das schon bringt ist etwas anderes...

€:
http://www.computerbase.de/2014-07/amd-mit-stacked-memory-und-pim-bei-zukunfts-apus/

HOT
2015-01-26, 18:24:08
Geteilten Speicher hatten wir schon ein paar Mal in der Geschichte.

Nakai
2015-01-26, 18:30:49
Geteilten Speicher hatten wir schon ein paar Mal in der Geschichte.

Selbstverständlich. Da muss aber der Treiber oder die Architektur schon stark erweitert worden sein. Aber im PC-Bereich hatten wir eigentlich noch nie solche heterogene Speichersysteme(naja bis jetzt :freak:). Könnte das nicht mit AMDs HSA Ansatz zu Probleme führen?

fondness
2015-01-26, 18:31:38
IMO kostet das zu viel Transistoren/Fläche/Strom wenn man neben dem HBM noch ein vollwertiges GDDR5 Interface verbaut. Damit wären die Vorteile von HBM ad absurdum geführt und man könnte sich das ganze gleich sparen.

iuno
2015-01-26, 18:36:52
Dass zusätzlich noch GDDR5 dabei ist, kann ich mir gar nicht vorstellen. Dann würde man auch wieder Spielraum in Form von ein paar Watt und mm² verschenken, von der Komplexität mal abgesehen. Dass man eher schnell eine 4 GB Karte bringt, die die 980 alt aussehen lässt, aber dennoch sparsam ist und 380X heißt, macht für mich einfach mehr Sinn. Ggü. der Karte mit GM200 hat sie dann zwar weniger Speicher, aber auch den deutlich niedrigeren Preis.
Was war denn die letzte Info bzgl. HBM Gen.2? Gab es da mal was?
Vielleicht kann Hynix für eine baldige 8GB Variante auch noch HBM Gen.1 mit 2GB/Stack einschieben?

Nakai
2015-01-26, 19:32:45
Das Einzige was mir Spanisch vorkommt ist, dass auf Sisoft sehr viele verschiedene Fijis zu sehen sind, mit komischen Taktraten für die HBMs.

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6deedd4e7d3f587ba8aacc9ac91a187f4c9f9&l=de

Einmal mit 1,25GHz, dann 470MHz und 350Mhz.
Skalierungstest bei HBM? Wieso dann solche komischen Taktraten? Oder Sisoft erkennt nur Bockmist?

HBM@4096Bit @470MHz: 235GB/s
HBM@4096Bit @350MHz: 175GB/s

GDDR5@256Bit @7,34GHz: 235GB/s
GDDR5@256Bit @5,46GHz: 175GB/s

Naja Träumerei...

M4xw0lf
2015-01-26, 20:09:36
Geteilten Speicher hatten wir schon ein paar Mal in der Geschichte.
Ja, Nvidia macht das ja gerade auch mit einigem Erfolg! :ulol:

Nakai
2015-01-26, 20:13:19
Ja, Nvidia macht das ja gerade auch mit einigem Erfolg! :ulol:

:freak:;D

Bwahaha...

...ich ziehe meine Aussage zurück.
Selbstverständlich. Da muss aber der Treiber oder die Architektur schon stark erweitert worden sein. Aber im PC-Bereich hatten wir eigentlich noch nie solche heterogene Speichersysteme(naja bis jetzt :freak:). Könnte das nicht mit AMDs HSA Ansatz zu Probleme führen?

Knuddelbearli
2015-01-27, 20:51:24
Für was braucht eine Effiziente Architektur 2x 8-Pin und Wakü :confused:

Weill ich als "Highendler" lieber eine Karte mit 150% Leistung habe bei 300W statt 130% bei 200W einer 290X.

Für Stromsparen gibt es die kleineren Modelle.
Verbrauch ist ( für mich und ihmo auch viele anderen Enthusiasten / "Highendler" ) nur solange wichtig wie es um die Lautstärke geht ( dank "Wakü" ja egal ) oder unnötigem verbrauch im idle / Blu-Ray usw

MorPheuZ
2015-01-28, 00:11:34
Für den "Ultrahighendler" vielleicht. Für den "normalen" Highendler ist es eben nicht egal...

maximus_hertus
2015-01-28, 01:14:51
Normal und High-End ist ein kleiner Widerspruch ;) Für den "normalen" Zocker gibt es ja die Performance bzw. Mainstreamklasse.

Bevor man hier AMD für 300W zerreißt: Stellt euch mal vor, die 300W sind der "Uber"-Modus und Stock sind es z.B. 250W. Dabei sagen wir mal 50% mehr-fps als eine GTX 980 (keine Ahnung ob das so kommen wird, ist nur ein Beispiel).
Dann haben wir grob 50% mehr Strom bei 50% mehr fps - unter dem Strich eine gleich gute Effizienz. Dennoch sind 250W schwieriger leise zu kühlen als 170W.

Und wenn AMD wirklich den Schritt zur Serienwakü geht, kann ich das nur begrüßen! High-End Kühlung für eine High-End Karte ;)

Hübie
2015-01-28, 06:44:07
Also bei doppelter Anzahl an ALUs nur 25-30% mehr Leistung wäre mehr als schwach. Ich denke die wird schon in die richtige Kerbe schlagen ;)

mboeller
2015-01-28, 08:26:01
Also bei doppelter Anzahl an ALUs nur 25-30% mehr Leistung wäre mehr als schwach. Ich denke die wird schon in die richtige Kerbe schlagen ;)

steh ich jetzt auf dem Schlauch?

4096/2816 x 800 / 1000 = +16% [ Fiji / Hawaii ]

M4xw0lf
2015-01-28, 08:35:14
steh ich jetzt auf dem Schlauch?

4096/2816 x 800 / 1000 = +16% [ Fiji / Hawaii ]

Die 800 MHz für Fiji hast du erwürfelt?

MR2
2015-01-28, 09:05:11
Die 800mhz stehen genauso fest wie die 4096 Alus.

Botcruscher
2015-01-28, 10:06:26
Da kommt dann also die Energieeffizienz her.

moonraker
2015-01-28, 10:06:29
Könntest du bitte posten, woher du weißt dass 800MHz und 4096 Shader fix sind?

Ich hätte das noch nirgends als konkrete Bestätigung verstanden.

M4xw0lf
2015-01-28, 10:07:12
Die 800mhz stehen genauso fest wie die 4096 Alus.
Weil irgendein Sample irgendwann angeblich mit 800 MHz gelaufen ist? :uconf:

Florida Man
2015-01-28, 10:08:23
ich habe keine Ahnung und der Thread ist zu lang - tl;dr. Sorry, falls dei Frage schon geklärt wurde:

Wann wird die R9 390X erscheinen, kann man das schon halbwegs absehen?

derF
2015-01-28, 10:31:50
Ist nicht abzusehen, aber wohl frühestens Ende des Jahres. Ende Q2 vielleicht die 380X (aber auch im High-End Segment).

HOT
2015-01-28, 10:51:15
Ähm, nein. Es gab zeitliche Angaben von Q2, das heißt aber nicht Ende Q2 und das heißt auch nicht, dass damit zwingend die 380X gemeint ist, das könnte sich auch auf die 300-Serie beziehen (360(X) und 370(X)). Soweit ich gelesen hab ist der Chip auch schon in Massenproduktion, dann wäre Ende Q2 doch etwas sehr spät für den Launch.
Und bei der 390(X) wird es mMn darauf ankommen, wann der entsprechende Prozess verfügbar ist. Wenn alles super läuft, wäre schon September denkbar, ansonsten halt entsprechend später (an diese X2-Theorie glaub ich genausowenig wie an einen übertakteten Fiji).

Nightspider
2015-01-28, 11:23:50
Die 800mhz stehen genauso fest wie die 4096 Alus.

Die Angaben sind genauso fest wie deine Glaubwürdigkeit. :rolleyes:

MR2
2015-01-28, 12:28:03
Die Angaben sind genauso fest wie deine Glaubwürdigkeit. :rolleyes:

Eben. Weil noch nichts fest ist:-)
Sorry. Ich meinte damit, das noch gar nix fest ist, auch nicht die Anzahl der Alus. Die 800Mhz hab ich in irgendeiner Tabelle gelesen. Mboeller wohl auch. Bei wirklich so vielen Einheiten könnte das schon hinkommen.

Felixxz2
2015-01-28, 13:01:10
Aber wieso sollte man so niedrig takten? Man spart doch durch HBM einiges ein und durch die große Chipfläche hat man gutes Kühlungspotenzial. Macht doch keinen Sinn die Karte bei 800Mhz zu bringen, nur damit die Kunden sie dann easy auf 1200OCen bei 300W RealVerbrauch.

Ich wäre ja für 1250MHz Standardtakt. Erste Karte mit 10TFLOPs und damit wirklich King of the Hill :D

Pirx
2015-01-28, 13:36:34
Eine große Chipfläche mit hoher Energiedichte ist auch nicht unbedingt besser, als eine kleine mit der gleichen Energiedichte.;)

Käsetoast
2015-01-28, 13:46:55
Macht doch keinen Sinn die Karte bei 800Mhz zu bringen, nur damit die Kunden sie dann easy auf 1200OCen bei 300W RealVerbrauch.
Sinn macht es halt schon, wenn man sich auch in Puntko Effizienz von seiner besseren Seite zeigen will, was im Hinblick auf Maxwell sicherlich eine gute Idee ist. Man kann die WaKü, über die man munkelt, immer noch auf das Modell klatschen und so ein hochtaktendes Flagschiff erzeugen, wo der Stromverbrauch dann nur drittrangig ist...

Wenn man so zurückdenkt wäre das irgendwo auch eine schöne Steigerung - eine 7950 startete damals auch in 28nm mit 800 MHz und hatte nicht mal halb so viele Shadereinheiten (falls es wirklich 4096 Shader Einheiten werden). Generell hoffe ich, dass die kommenden GPUs mal wieder einen Ruck durch AMDs Portfolio gehen lassen, das ja doch sehr stark von Rebranding und alter Wein in neuen Schläuchen geprägt ist. So eine HD7850 / 7870 feiert bald halt den dreijährigen Geburtstag und hat (vom Preisverfallmal abgesehen) immer noch keinen Nachfolger gefunden. So gesehen wünsche ich mir neben dem High-End Bereich auch was mehr für den Mid-Range Sektor wo im Prinzip nur die ehemaligen 7950/7970 unter anderem Namen preslich reingerückt sind...

Nightspider
2015-01-28, 15:06:51
del

M4xw0lf
2015-01-28, 15:12:17
Aaaaaaalt. Und Schmarrn außerdem. ;)

Unicous
2015-01-28, 15:13:47
Leute, warum postet ihr immer Links ohne Einordnung?

Das geistert schon seit Tagen umher und wurde auch schon von zig Seiten wiedergekaut und ist nicht wirklich aussagekräftig.

Nur ein paar Zahlen und ein X.

Nightspider
2015-01-28, 15:59:11
KA, habe ich vllt deswegen übersehen weil ich die Links zu den anderen Spamseiten bisher ignoriert habe. :D

Nakai
2015-01-28, 15:59:52
Da 4096 SPs ja gesichert sind, können wir auch über die anderen Specs diskutieren. 4 oder 8 ShaderEngines(Frontend-Blöcke)? In Hinblick auf Tonga, eher 8. RBEs? Hawaii hatte bereits vier RBEs pro ShaderEngine, Tonga nur zwei. Jeder Rasterizer kann ein Dreeick einlesen und 16 Pixel rastern. Bei Hawaii war die Balance zwischen Rasterrizer und RBEs identisch. Ich hoffe das auch bei Fiji.

Fiji:
8 Shader Engines
8 CUs pro Shader Engine
4 RBEs pro Shader Engine
4096SPs
256 TMUs
128 ROPs

Backend:
Jeder HBM-Stack hat 8 128 Bit Channels für 1024Bit Gesamtbreite. Jeder 128Bit Channel kann mit einem eigenem MC bedient werden. Pro MC kann 128KB oder 64KB L2-Cache verbaut sein. Tonga hat 8 MCs mit je 128KB L2-Cache(wurde jedenfalls irgendwo mal getestet), ergo 1MB-L2-Cache. Bei Fiji würde ich mindestens 2MB L2-Cache abschätzen. Mit 4MB L2-Cache wäre man sehr Compute-lastig.

4 Stacks a 1024 Bit(8*128Bit Channels) -> 4096Bit
32 MCs für 4*8*128Bit Channels
Pro MC 64KB L2-Cache
32*64KB L2-Cache -> 2MB L2-Cache
Pro MC 128KB L2-Cache(wie Tonga)
32*128KB L2-Cache -> 4MB L2-Cache

Hübie
2015-01-28, 17:33:38
@mboelle: Das die GTX 980 gemeint war ging aus vorherigen Beiträgen und meiner Aussage zu doppelter ALU-Anzahl doch deutlich genug hervor :| Am Smartphone is das alles Fummelei mit zitieren etc... :redface:
@Nakai: Bin voll bei dir. Das is auch my guess...

Pick
2015-01-28, 17:36:35
Fiji hat 256 Tiles, wenn GPU auf Tiled Architektur basieren
1 Tile = 16SP, 1 CU = 4 Tiles/64SP
256 Tiles = 4096SP

Fiji CU = 4 Tiles, 28nm
Arctic Islands CU = 16 Tiles, 14nm
http://www.overclockers.ua/news/video/115103-tiled-gcn.jpg

Hübie
2015-01-28, 17:38:29
Die Info gab's doch schon. Worauf beziehst du dich?

horn 12
2015-01-28, 22:30:34
Freitag soll etwas kommen von AMD
ist so ein Teaser, finde den Link aber nimmer

"Folge 3" steht am Anfang, und es werden Stapel von Grafikkarte gezeigt!

Hoffe nicht soetwas wie bei Sapphire und dem NFC :-(

Unicous
2015-01-28, 22:34:28
Hosenschlitz wieder zu, es ist nur "der Fixer".

JbHY09Xf0J0

horn 12
2015-01-28, 22:40:43
Sorry, aber da steht ich auf dem Schlauch ....
Was bedeuted dies bitte ?

y33H@
2015-01-28, 22:44:48
Ein lustiges Werbe-Filmchen.

aufkrawall
2015-01-28, 22:45:09
Der Fixer zertrümmert AMD-Karten, nachdem er die Stromrechnung bekommen hat?

Unicous
2015-01-28, 22:50:47
Nein er lötet in akribischer Handarbeit die unnützen RAM-Riegel von JEDER! GTX 970.

http://img.netzwelt.de/thumb/27/2008/409/2798-besten-youtube-videos-bam-lee.jpg

Hübie
2015-01-29, 03:12:55
Hahahaa X-D Ihr seid phöse!!!111elf

MR2
2015-01-29, 07:02:59
Hrhr, könnte ja sein:-)
Der Fixer fixt nvidias gtx970.

horn 12
2015-01-29, 07:31:58
Oder es kommt ganz was Anderes daher ...
bin gespannt auf Freitag, also morgen!

Ideal wäre nun die Käufer auf der langen Leine ziehen zu lassen und erste richtige Leaks zu Fiji zu bringen
Zumindest was Speicher HBM und Co anbelangt, Speichergröße 8GB Referenz!? - Weitere VSR Modi, OMEGA Phase 2 News, ecc ecc.
---> Vielleicht gar ungefähre Performanceangabe und dann würde man die Potentiellen Kunden welche von NV nun absprinegn ins AMD Boot holen!

Aber dafür ist wohl AMD wiedermal zu blöd!
AMD vergeigt wiederum Ihre Chance, sehe dies schon kommen!

Marodeur3D
2015-01-29, 16:45:47
Leaks zu einer Karte, die erst in 3-4 Monaten erscheinen wird? Das Internet mag nichts vergessen, aber die User haben zum Teil ein verdammt kurzes Gedächtnis. Bis die Karten dann erscheinen, sind schon ganz andere Meldungen wichtig und die 970 und ihr Problem längst vergessen.

AMD macht es im Moment vollkommen richtig, einfach zurücklehnen und die Show genießen :biggrin:.

MMn wurde AMD genauso von der Situation überrascht, wie NV und wenn sie jetzt außer irgendwelchen Sprüchen nichts zu bieten haben, würde man sie (zu Recht!) als Trittbrettfahrer brandmarken.

iuno
2015-01-29, 16:57:29
Ist doch völliger Unsinn. Sollte AMD gezielt leaken, würde das keinen einzigen Kunden überzeugen JETZT eine AMD zu kaufen. Die Leute finden sich mit der 970 ab, nehmen ein paar Euro Rückerstattung oder geben sie zurück und kaufen für das Geld eine 290X oder legen drauf und holen die 980. Keiner wird jetzt seine 970 zurückgeben und dann bis Fiji warten, um eine AMD zu holen.
Außerdem würde so eine Veröffentlichung auch hemmend auf 290er Käufe wirken. AMD wird die sicher erstmal größtenteils abverkaufen wollen, bevor Fiji kommt (außer die 290X wird zur 380, 370X o.ä, was ich mir aber nicht vorstellen kann)
Jetzt Informationen zu bringen, hätte nur Sinn, wenn Fiji vielleicht innerhalb von einem Monat kommt.

R.I.P.
2015-01-29, 17:54:12
Ich bin grundsätzlich kein Nvidia Fan und dass die Kunden von Nvidia allesamt zum xten mal verarscht wurden, ist mir auch recht, wenn jemand so blöd ist sich ein leicht besseres oder schlechteres Produkt um vielmehr Geld zu kaufen, dann ist es auch nicht mein Problem, aber was AMD momentan abliefert, ist doch Kacke vom feinsten.
Scheinbar soll ein gut informierter Großhändler keine AMD Grafikkarten vor Juli 2015 bestätigen. Das sind weitere fünf Monate ohne neuer Grafikkarte. Großhändler allgemein kaufen weniger AMD Karten, weil sie glauben, dass die Kunden durch diese lange Wartezeit zur 960, 970 oder 980 greifen werden (ganz egal ob Nvidia seine Kunden verarscht oder nicht), und ehrlich gesehen sind diese drei Karten absolut gesehn, nicht übel und obwohl leistungstechnisch in Linie mit dem AMD-Konterpart einfach neuer und ein wenig sparsamer.
Sollten die neuen CPUs von AMD wirklich Ende Q3 2016 auf den Markt kommen, dann wird 80% des Umsatzes von AMD 2015 und 2016 NUR von den Spielekonsolen (Xbox, PS4 und der neue Designwinn aka. Nintendo?) kommen. Carizzo scheint ein geiles Produkt zu werden, aber mit AMDs Imageproblemen und Intels Geldmitteln (mit denen sie bestechen,oder ganz einfach Produkte schenken können) scheint das Produkt jetzt schon beschissen schlecht laufen zu werden (sorry für OT).
:mad:

Das ist doch ein Hund der sich selbst in den Schwanz beißt...weniger R&D,weniger Produkte (längere Zeiträume zwischendrin), weniger Verkauf, weniger Geld und alles geht von vorne los

Ailuros
2015-01-29, 18:06:28
Ich bin grundsätzlich kein Nvidia Fan und dass die Kunden von Nvidia allesamt zum xten mal verarscht wurden, ist mir auch recht, wenn jemand so blöd ist sich ein leicht besseres oder schlechteres Produkt um vielmehr Geld zu kaufen, dann ist es auch nicht mein Problem, aber was AMD momentan abliefert, ist doch Kacke vom feinsten.

Gehoert Schadenfreude zum fanboyismus oder muss man extra dafuer bezahlen?

Scheinbar soll ein gut informierter Großhändler keine AMD Grafikkarten vor Juli 2015 bestätigen. Das sind weitere fünf Monate ohne neuer Grafikkarte. Großhändler allgemein kaufen weniger AMD Karten, weil sie glauben, dass die Kunden durch diese lange Wartezeit zur 960, 970 oder 980 greifen werden (ganz egal ob Nvidia seine Kunden verarscht oder nicht), und ehrlich gesehen sind diese drei Karten absolut gesehn, nicht übel und obwohl leistungstechnisch in Linie mit dem AMD-Konterpart einfach neuer und ein wenig sparsamer.

Das fettgedruckte ist koestlich.



Das ist doch ein Hund der sich selbst in den Schwanz beißt...weniger R&D,weniger Produkte (längere Zeiträume zwischendrin), weniger Verkauf, weniger Geld und alles geht von vorne los

Ausser dass Juli nicht zum zweiten Quartal gehoert und die obrige Info genauso nutzlos ist wie ein wccftech drivel, hat das Ganze jetzt genau was mit dem Thema zu tun? Ach ja Du freust Dich dass andere verarscht wurden und wir muessen womoeglich auch noch dazu applaudieren oder was?

Hat sich vielleicht einer von Euch je vorgestellt dass AMD vielleicht nicht die Moeglichkeit hatte bzw. hat Fiji frueher vorzustellen? :rolleyes:

horn 12
2015-01-29, 18:11:37
Zwecks auch! der 8GB HBM Speichermenge ?

Unicous
2015-01-29, 18:25:59
@ R.I.P.

AMD möchte offenbar die Lager leeren, das ist mE einer der wichtigsten Gründe für die Verzögerung. Sie hatten jetzt wieder Abschreibungen für Trinity? oder Richland oder beide, da ist es ihnen lieber noch weniger Gewinn zu machen statt weitere Lagerbestände abzuschreiben. Es wird auch behauptet, dass die AIBs weniger Chips ordern, weil sie Angst haben, die alten Bestände nicht loszuwerden.

Die zweite Maxwell-Generation scheint gut eingeschlagen zu haben und der halbherzige Tonga (Pro) Launch hat sein Übriges dazu getan. Ich könnte mir auch vorstellen, dass der Tonga XT im iMac zu den Verzögerungen beiträgt und damit roadmap-Veränderungen einhergingen. Fakt ist, es klafft eine Lücke von ca. 3 Quartalen in der roadmap, wenn man Tonga nicht beachtet sind es 6 Quartale, also anderthalb Jahre. Es muss etwas Grundlegendes geschehen sein. Ich schätze es sind schlicht und einfach finanzielle Erwägungen. Man muss ähnlich wie Nvidia mit Kepler die Leute noch ein weiteres Jahr melken. Wobei man sich lieber von Nvidia melken lässt.:tongue:

Ailuros
2015-01-29, 18:28:12
HBM ist nicht der Grund und es gibt afaik auch keine wirkliche Verzoegerung.

iuno
2015-01-29, 22:50:12
Jetzt etwas OT, aber scheinbar wollen sie tatsächlich die Lager räumen :tongue:
https://twitter.com/amd_roy/status/560462075193880576

aufkrawall
2015-01-29, 22:52:04
Hatten wir schon mehrmals, ist nur ein Deal mit XFX.

iuno
2015-01-29, 22:57:42
Sorry, noch nicht mitbekommen :weg:

Unicous
2015-01-29, 23:16:10
Hatten wir schon mehrmals, ist nur ein Deal mit XFX.

Wie ist der gestaltet?

Roy Taylor, Robert Hallock und Co. scheinen jedenfalls mit Umtausch-Anfragen überschwemmt zu werden.

Getting to the front page of Reddit = RIP inbox. Thanks to all the PC gamers throwin' love and shade alike. You keep gaming fun. :)


https://twitter.com/Thracks/status/560909285337473024

Und die netten Tweets vom Nvidia Geforce Account hat Hallock auch geretweetet.:freak:

Naja, das wird sich in ein paar Tagen wieder gelegt haben.

aufkrawall
2015-01-29, 23:19:23
NV gießt momentan selber fleißig Öl ins Feuer, wer weiß.

Unicous
2015-01-29, 23:47:55
Es gilt hier wie auch bei anderen Skandälchen:" Was interessiert mich mein saudämmliches Geschwätz von gestern."

Alle 970 Besitzer die heute noch #Aufschrei rufen, haben sich morgen schon wieder beruhigt und daddeln fleißig weiter. Und der große Rest hat den Shitstorm gar nicht erst mitbekommen.

Der Effekt für AMD wird "messbar aber nicht spürbar" sein. Ich gehe auch davon aus, dass sich der Marktanteil nicht signifikant bewegen wird, außer AMD geht noch weiter mit den Preisen runter (es gab ja Andeutungen, ob die stimmen:confused:). Aber so viel weiter nach unten bewegen können sie sich mE auch nicht mehr.

horn 12
2015-01-29, 23:58:31
Man muss ein passendes Paket "schnüren" und dies heute als erst Morgen
Ansonsten bleiben die Karte echt im Laden liegen
Je näher der Termin rückt der Vorstellung von Fiji, desto problematischer wird der R9 290(X) Abverkauf vonstatten gehen.

maximus_hertus
2015-01-30, 00:35:34
Man muss ein passendes Paket "schnüren" und dies heute als erst Morgen
Ansonsten bleiben die Karte echt im Laden liegen
Je näher der Termin rückt der Vorstellung von Fiji, desto problematischer wird der R9 290(X) Abverkauf vonstatten gehen.

Hmmmm schreiben sie nVidia GeForce auf die Kartons? Oder wie soll so ein "attraktives" Paket aussehen?

w0mbat
2015-01-30, 02:01:19
Hmmmm schreiben sie nVidia GeForce auf die Kartons? Oder wie soll so ein "attraktives" Paket aussehen?

4GB.

Isen
2015-01-30, 02:48:38
4GB.

:uup:
YMMD

MR2
2015-01-30, 07:03:17
8GB:-)
Hoffentlich taugt Fiji was, ich will meine His6950 ablösen. Der x6 1100T muß leider noch bis zen durchhalten...

Dural
2015-01-30, 09:25:07
Eine Fiji Karte mit einem 1100T, Geld Verschwendung :wink:

M4xw0lf
2015-01-30, 09:31:17
Im Zusammenhang mit AMDs tausche-GTX970-gegen-R9 290-Aktion hat jemand im PCGH-Forum eine interessante Nachricht von AMD erhalten: http://extreme.pcgameshardware.de/grafikkarten/374584-amds-angebot-fuer-ruecksender-der-gtx-970-a.html
Was ich daran interessant finde ist die folgende Passage (Marketingblabla ignorieren ;) ):As well as having a 512bit memory BUS, the R9 290X also has ACE, an asynchronous compute engine which is going to be very important for VR later this year. When you factor in our support for TressFX, and Mantle and DX12 readyness Radeon really is a great bet.
ACEs, VR, later this year? Say whoat?

fondness
2015-01-30, 09:40:51
AMD wirbt schon länger mehr oder weniger deutlich damit, dass die auf low-latency optimierte GCN-Architektur Vorteile mit VR haben wird.

“It has been something of a well-kept secret that the GCN Architecture is a low-latency powerhouse, which is ideal for VR,” said Robert Hallock, global technical marketing lead at AMD, in an interview with Wccftech. “Contemporary AMD Radeon hardware already supports low-latency VR rendering through ‘asynchronous timewarp.’ Asynchronous timewarp is a technique that can be exposed in AMD Radeon hardware via the Asynchronous Compute Engines (ACE), which can schedule and execute compute and display operations independently of the graphics queue.”


http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-our-gcn-architecture-is-ideal-for-virtual-reality-gaming/

M4xw0lf
2015-01-30, 09:43:26
Zusammenhang mit Foveated Rendering vülleicht?

HOT
2015-01-30, 10:31:52
Eine Fiji Karte mit einem 1100T, Geld Verschwendung :wink:
Sowas jetzt für Spiele upzugraden, das wäre Geldverschwendung ;). Dann lieber Fiji, macht irgendwie mehr Sinn.
Kennst du ein Spiel, das auf einem 1090T zu langsam läuft? Ich bin gespannt (Außer WoT vllt, das ist die goldene Ausnahme, weil es kacke designt ist...).

Ich frag mich seit dem Launch, warum man sich eine 980 (nicht 970) kaufen sollte. Für den Preis, mit dem die an den Start gingen sind 8GB Pflicht. Aber die ganzen Geforce-Bunnys rennen NV ja einfach hinterher und was ist? Scheisse ist :D. Bisschen Schadenfreude kann ich mir da nicht verkneifen. Die 980er sind in 1-2 Jahren Müll (jedenfalls für den Anschaffungspreis), weil zu wenig VRAM und die 970er haben nicht mal 4GB... aber es hilft nicht, die werden nächstes Jahr die nächste Geforce kaufen.

Ähnliches gilt übrigens für Fiji. Hat das Teil tatsächlich nur 4GB dann bleibt der wie Blei in den Regalen liegen, vollkommen zurecht.

Gipsel
2015-01-30, 10:42:56
AMD wirbt schon länger mehr oder weniger deutlich damit, dass die auf low-latency optimierte GCN-Architektur Vorteile mit VR haben wird.
http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-our-gcn-architecture-is-ideal-for-virtual-reality-gaming/
Zusammenhang mit Foveated Rendering vülleicht?
Das ist kein Hardwarefeature oder sowas, (asynchroner) Timewarp ist eine Möglichkeit, in Ermangelung eines neuen fertig gerenderten Frames (vereinfacht gesagt) nicht das alte schlicht zu wiederholen sondern das alte ein bißchen zu verschieben und versetzt wiederzugeben, um z.B Kopfbewegungen (Headtracking bei VR) halbwegs korrekt widerzuspiegeln. Dazu benötigt man nicht wirklich GCN, aber vielleicht können bei einer AMD-spezifischen Implementation die ACEs etwas helfen, keine Ahnung. Für foveated Rendering bringt Time Warp eher nix, wenn man nicht das ganze Außenrum mit niedrigerer Framerate rendern und nur per TimeWarp updaten will (was IMO suboptimal wäre, aber IMO ist der foveated Kram sowieso leicht unrealistisch für die nähere Zukunft, weil Augenbewegungen doch verdammt schnell sind, viel schneller als Kopfbewegungen, von denen einem bei VR wegen zu hoher Latenz heute schlecht wird, für foveated Rendering benötigt man nochmal Faktor 10 mehr Geschwindigkeit oder so).

Skysnake
2015-01-30, 11:04:58
Was würde eigentlich dagegen sprechen, das Bild um x% größer zu Berechnen, als man es eigentlich braucht, und dann je nachdem wie die Kopfbewegung war/ist aufgrundlage von Geschwindigkeit und Beschleunigung den Bildausschnitt zu wählen?

Das könnte man durch die ACEs ja quasi asynchron machen, so dass die restliche Karte schon am neuen Frame rendert.

Mancko
2015-01-30, 11:11:19
Sowas jetzt für Spiele upzugraden, das wäre Geldverschwendung ;). Dann lieber Fiji, macht irgendwie mehr Sinn.
Kennst du ein Spiel, das auf einem 1090T zu langsam läuft? Ich bin gespannt (Außer WoT vllt, das ist die goldene Ausnahme, weil es kacke designt ist...).

Ich frag mich seit dem Launch, warum man sich eine 980 (nicht 970) kaufen sollte. Für den Preis, mit dem die an den Start gingen sind 8GB Pflicht. Aber die ganzen Geforce-Bunnys rennen NV ja einfach hinterher und was ist? Scheisse ist :D. Bisschen Schadenfreude kann ich mir da nicht verkneifen. Die 980er sind in 1-2 Jahren Müll (jedenfalls für den Anschaffungspreis), weil zu wenig VRAM und die 970er haben nicht mal 4GB... aber es hilft nicht, die werden nächstes Jahr die nächste Geforce kaufen.

Ähnliches gilt übrigens für Fiji. Hat das Teil tatsächlich nur 4GB dann bleibt der wie Blei in den Regalen liegen, vollkommen zurecht.

Die wenigsten die sich eine 980 kaufen planen mit so einer Karte länger als 2 Jahre. Glaube kaum dass sie sich darüber aufregen werden. Bis dahin haben die wahrscheinlich schon 2 weitere High End Modelle gekauft. Ich jedenfalls plane mit keiner High End Karte wirklich lange. Wenns geht kauf ich mir auch alle 6 Monate eine neue Karte. Mir Schnuppe. Geld spielt keine Rolle.

Gipsel
2015-01-30, 13:47:46
Was würde eigentlich dagegen sprechen, das Bild um x% größer zu Berechnen, als man es eigentlich braucht, und dann je nachdem wie die Kopfbewegung war/ist aufgrundlage von Geschwindigkeit und Beschleunigung den Bildausschnitt zu wählen?Daß man für z.B. 2048*1152 (was vertikal 36 Pixel und horizontal 64 Pixel Puffer ergibt, sind typischerweise so um 2°, die sich der Blickwinkel horizontal ändern darf, vertikal entsprechend weniger) bereits eine 14% höhere Pixelleistung notwendig ist (es im Zweifelsfall also ein 14% niedrigere Framerate ergibt). Nimmt man 75fps Zielfrequenz an, könnte man damit Kopfbewegungen bis zu einer Geschwindigkeit von 150° pro Sekunde kompensieren, wenn die real gerenderte Framerate nicht unter 37,5fps sinkt. Ist halt wie so oft eine Frage des Kompromisses. Lohnt sich die geopferte Leistung für die höhere Auflösung des Rendertargets um diese Reserve zu haben oder nimmt man lieber die höhere Performance mit und sichert so, daß man nie unter (z.B.) 75Hz sinkt.

mironicus
2015-01-30, 15:18:34
Der Fixer 3! :D
https://www.youtube.com/watch?v=tQAtwFFa2QY

Nakai
2015-01-30, 15:27:22
AMD Radeon R9 290X. With 4GB. No, really.

Ansonsten nur ein Werbefilmchen und keine Spur von Fiji.

Ailuros
2015-01-30, 16:30:04
AMD Radeon R9 290X. With 4GB. No, really.

Ansonsten nur ein Werbefilmchen und keine Spur von Fiji.

Jetzt sag bloss nicht dass Du mehr erwartet haettest :eek:

Nakai
2015-01-30, 16:35:00
Jetzt sag bloss nicht dass Du mehr erwartet haettest :eek:

Selbstverständlich nicht. :)

IMO hätte man das Filmchen auch sparen können...gegen das hier (https://www.youtube.com/watch?x-yt-ts=1422579428&x-yt-cl=85114404&v=spZJrsssPA0) ist es echt ein feuchter AMD-Traum.:freak:

StefanV
2015-01-30, 16:39:07
Der Typ mit dem grünen Schlips sollt wohl jemanden von nV darstellen :D :D

Sieht man auch an der Zertrümmerten GK im Bett, die eine Geforce sein müsste...

Nakai
2015-01-30, 16:47:16
Der Typ mit dem grünen Schlips sollt wohl jemanden von nV darstellen :D :D

Sieht man auch an der Zertrümmerten GK im Bett, die eine Geforce sein müsste...

Naja es wird praktisch der erste Fixer nachgestellt, nur Nvidia statt AMD als "Fixer"(einfach Fixer 1 angucken). Da fand ich ganz andere AMD-Werbefilmchen besser und einprägsamer, die Fixer-Filmchen sind einfach nur stumpf.

M4xw0lf
2015-01-30, 16:49:50
With 4GB.
No, really.

Fand ich witzig ^^

Trap
2015-01-30, 17:21:17
Was würde eigentlich dagegen sprechen, das Bild um x% größer zu Berechnen, als man es eigentlich braucht, und dann je nachdem wie die Kopfbewegung war/ist aufgrundlage von Geschwindigkeit und Beschleunigung den Bildausschnitt zu wählen?
Dann ist die Perspektive falsch.

Nakai
2015-01-30, 17:24:09
Dann ist die Perspektive falsch.

Dann eben dementsprechend perspektivisch korrekt arbeiten.

Labberlippe
2015-01-31, 02:13:49
So gut wie keiner braucht 12GB VRAM,vor allem nicht zwingend.
Klar ist mehr besser aber 8GB sind sind selbst für 4K genug und keiner wird den dicken Aufpreis für 12 GB zahlen. Und selbst wenn Star Citizen 2016 12GB nutzen wird könnte AMD eine 16 GB Variante nachschieben.


Hi

Wieso nicht? Speicher kann man nie genug haben.
Beispielsweise könnte man ja neue Varianten bauen.

4GB Full Speed 8GB langsamer, das ist dann die Basic Version
8GB Full Speed 4GB langsamer, das ist dann die Prof. Version
12GB Full Speed ist dann die Ultimade Edition.

Tschuldigung ich konnte gerade nicht anders, war zwar OT musste es aber loswerden.

Gruss Labberlippe

Nightspider
2015-01-31, 03:35:46
Weil die 12GB die ersten Jahre brach liegen würden.

Die 6GB der Titan wurden erst 2 Jahre nach Release von einem Spiel ohne Mod genutzt.
Und die 6GB hat man meistens auch nur durch höhere Auflösung/DS vollbekommen.

Aktuell ist der Puffer sogar noch größer weil nicht die Rechenleistung da ist für 8K Auflösung o.ä. und Games gerade mal an der Hälfte, an 6GB kratzen. Selbst 8GB werden für neue Games reichen. Mehr braucht man frühestens Anfang 2016 denke ich, vllt dann für Star Citizen.

Und da wird aktuell kaum jemand den Aufpreis für zahlen wollen, wenn es jetzt schon bald 8GB für wenig Geld gibt (Fiji?) und 2016 dann eh wieder die neue Gen mit 12-16GB kommt vllt.

Labberlippe
2015-01-31, 04:09:03
Weil die 12GB die ersten Jahre brach liegen würden.

Die 6GB der Titan wurden erst 2 Jahre nach Release von einem Spiel ohne Mod genutzt.
Und die 6GB hat man meistens auch nur durch höhere Auflösung/DS vollbekommen.

Aktuell ist der Puffer sogar noch größer weil nicht die Rechenleistung da ist für 8K Auflösung o.ä. und Games gerade mal an der Hälfte, an 6GB kratzen. Selbst 8GB werden für neue Games reichen. Mehr braucht man frühestens Anfang 2016 denke ich, vllt dann für Star Citizen.

Und da wird aktuell kaum jemand den Aufpreis für zahlen wollen, wenn es jetzt schon bald 8GB für wenig Geld gibt (Fiji?) und 2016 dann eh wieder die neue Gen mit 12-16GB kommt vllt.

Hi

Das ist natürlich keine Frage ich persönlich würde zur so einer Karte gar nicht greifen weil ich die nichtmal im Ansatz ausnützen würde.
Ich kann mir nicht vorstellen das wir so schnell Kartem mit 16 GB sehen werden und wenn ist es wie Du gesagt hast aktuell nicht wirklich sinnvoll.
Allerdings es gäbe sicher genug "Speziallisten" die des Speicherswillen solche Karten haben wollen.

Gruss Labberlippe

iuno
2015-01-31, 14:59:10
Weil die 12GB die ersten Jahre brach liegen würden.

Die 6GB der Titan wurden erst 2 Jahre nach Release von einem Spiel ohne Mod genutzt.
Und die 6GB hat man meistens auch nur durch höhere Auflösung/DS vollbekommen.
Da hatten wir aber auch nur Konsolen mit 512 MB Speicher (RAM+VRAM)

Und da wird aktuell kaum jemand den Aufpreis für zahlen wollen, wenn es jetzt schon bald 8GB für wenig Geld gibt (Fiji?) und 2016 dann eh wieder die neue Gen mit 12-16GB kommt vllt.
Und wieso gehst du sicher von 8 GB bei Fiji aus? Und von einem niedrigen Preis?
Übrigens gibt es ja die 290X schon zum niedrigen Preis mit 8 GB

Nightspider
2015-01-31, 15:14:32
Und wieso gehst du sicher von 8 GB bei Fiji aus? Und von einem niedrigen Preis?

Ich gehe einfach davon aus und wenn es nicht so ist spielt es eh keine Rolle was ich dazu gesagt habe.

Nakai
2015-01-31, 18:32:19
Ich gehe einfach davon aus und wenn es nicht so ist spielt es eh keine Rolle was ich dazu gesagt habe.

Ne, Fiji wird nur mit 4GB kommen. Eventuell sehen wir Ende des Jahres Fiji mit 8GB. Fiji wird eher Gm204-Konkurrent, als gegen Gm200 gestellt zu werden. Vll sehen wir einen Hawaii-Port auf GF-Prozess, welcher mit Gm204 konkurrieren kann. Das Problem ist, dass Fiji nicht genug RAM bietet, um im professionellen Bereich etwas zu reißen.

Knuddelbearli
2015-01-31, 18:33:53
8gb wäre zwar schöner aber echte 4gb reichen auch ^^

Hoffe nur es gibt bald leaks

Nightspider
2015-01-31, 18:34:07
Ne, Fiji wird nur mit 4GB kommen.

Solltest du mit deiner Glaskugel nicht lieber in irgendeinem Casino abhängen?

iuno
2015-01-31, 18:42:25
Du machst es dir ja einfach.
4 GiB machen für mich auch mehr Sinn. von HBM Gen.2 hört man noch nichts und 8 Stacks a 1 GiB halte ich für fast so unwahrscheinlich, wie ein zusätzliches GDDR5 SI.
Schön wären allerdings 8 GiB, dann würde ich mir auch überlegen, mal wieder upzugraden ;-) sonst warte ich bis 14 nm / HBM Gen.2

horn 12
2015-01-31, 19:02:59
@Nakia

Meinst es wird auch eine R9 380 geben, oder nur das Große Model R9 380
Zudem wie schätzt Du bitte die Preise ein:
R9 380 etwa 400 Euro
R9 380X um die 550+ Euro

Performance Unterschied etwa 15%
Könnte dies hinhauen?

Sunrise
2015-01-31, 20:21:25
Solltest du mit deiner Glaskugel nicht lieber in irgendeinem Casino abhängen?
Da bist du aber ziemlich alleine auf weiter Flur. Der Großteil geht von 4GB aus. Dein Gerate ist also nicht besser, als die Überlegungen, die Nakai und andere hier hinsichtlich der HBM Gen. 1 hatten. Nur so kamen wir ja erst auf die 4GB, weil man es technisch und kostentechnisch begründen konnte.

Deine Rechnung hinsichtlich 8GB HBM Gen. 1 würde ich gerne mal sehen.

Wir werden es früh genug wissen und sollte AMD tatsächlich 8GB verbauen, wäre das jedenfalls extrem überraschend. Das wäre zwar wünschenswert, aber wir sind hier ja nicht bei "Wünsch dir was". AMD muss die Dinger ja auch verkaufen können und keine Machbarkeitsstudie vorlegen, die keiner bezahlen kann.

dargo
2015-01-31, 20:25:41
Kurze Frage zu HBM... durch HBM sollte der Stromverbrauch geringer ausfallen. Gilt das auch für Idle? Ich fände es toll wenn auch die High-End Grafikkarten in Idle alle den "Zero-Fan-Modus" hätten falls der Stromverbrauch sich unter 10W drücken lässt.

fondness
2015-01-31, 20:29:16
Ne, Fiji wird nur mit 4GB kommen. Eventuell sehen wir Ende des Jahres Fiji mit 8GB. Fiji wird eher Gm204-Konkurrent, als gegen Gm200 gestellt zu werden. Vll sehen wir einen Hawaii-Port auf GF-Prozess, welcher mit Gm204 konkurrieren kann. Das Problem ist, dass Fiji nicht genug RAM bietet, um im professionellen Bereich etwas zu reißen.

IMO sollte man mal abwarten, aber selbst wenn zu Beginn nur 4GB möglich wären sollte Fiji auf jeden Fall erheblich schneller als ein GM204 sein. Und das mit dem professionellen Bereich ist das kleinste Problem, Hawaii steht gegen GK110 sehr gut da und GM200 verzichtet offensichtlich auf DP.

Und wenn tatsächlich technologisch nicht mehr als 4GB VRAM machbar sind, dann überwogen aus Sicht von AMD offenbar trotzdem die Vorteile von HBM gegenüber den Nachteil des kleinen VRAMs.

Kriton
2015-01-31, 20:49:52
Warum sollte AMD nicht ggfs. eine "frühe" Version eines besseren HBMs nutzen? Dass sie eher bereits sind early adopter zu spielen zeigt sich ja in der Historie. Und vielleicht gibt es das nur nicht verfügbar, weil AMD sämtliche Ressourcen braucht?

fondness
2015-01-31, 20:51:05
Das wäre nur eine der vielen Möglichkeiten.

Nakai
2015-01-31, 21:02:00
IMO sollte man mal abwarten, aber selbst wenn zu Beginn nur 4GB möglich wären sollte Fiji auf jeden Fall erheblich schneller als ein GM204 sein. Und das mit dem professionellen Bereich ist das kleinste Problem, Hawaii steht gegen GK110 sehr gut da und GM200 verzichtet offensichtlich auf DP.

Und wenn tatsächlich technologisch nicht mehr als 4GB VRAM machbar sind, dann überwogen aus Sicht von AMD offenbar trotzdem die Vorteile von HBM gegenüber den Nachteil des kleinen VRAMs.
Wenn skhynix nächstes Quartal größere Hbm Stacks liefert, also 2GB+, dann gibt es auch Fiji mit mehr als 4GB RAM. Derzeit hört man nix, also bei 4 Stacks sind es 4 GB. Da braucht man keine Glaskugel.

fondness
2015-01-31, 21:04:29
Das bestreitet ja auch niemand. Allerdings müssen die öffentlich verfügbaren Infos noch lange nach das Ende des machbaren darstellen.

Nakai
2015-01-31, 21:17:29
Das bestreitet ja auch niemand. Allerdings müssen die öffentlich verfügbaren Infos noch lange nach das Ende des machbaren darstellen.
SAG ich ja nicht. Nur sieht es derzeit danach aus. Alle Fiji leaks haben 4GB, falls mehr möglich wäre, hätten wir das schon gesehen. Eventuell in der näheren Zukunft, zum Release eher nicht.

HOT
2015-02-01, 10:57:50
Wenn skhynix nächstes Quartal größere Hbm Stacks liefert, also 2GB+, dann gibt es auch Fiji mit mehr als 4GB RAM. Derzeit hört man nix, also bei 4 Stacks sind es 4 GB. Da braucht man keine Glaskugel.
Die bringen das Teil nicht mit nur 4GB, wenn Hawaii schon mit 8 verfügbar ist. Das macht keinen Sinn, das kann man weder jemandem erklären noch kann man es verkaufen, jedenfalls nicht AMD. NV hält die GTX980 auch auf 4GB, weil die 990(Ti) nur 6 hat.

fondness
2015-02-01, 11:09:30
4GB ist nach wie vor state-of-the-art, so tragisch sehen ich das nicht wenn vielleicht das erste halbe Jahr nicht mehr Verfügbar ist. Es ist noch nicht lange aus, da hatte NVs High-End-GPU maximal 3GB VRAM und die verkaufte sich wohl auch nicht schlecht.

Kriton
2015-02-01, 11:19:29
Die bringen das Teil nicht mit nur 4GB, wenn Hawaii schon mit 8 verfügbar ist. Das macht keinen Sinn, das kann man weder jemandem erklären noch kann man es verkaufen, jedenfalls nicht AMD. NV hält die GTX980 auch auf 4GB, weil die 990(Ti) nur 6 hat.

Na ja, das könnte der Grund sein, warum man sie "nur" als 380 tituliert.

HOT
2015-02-01, 11:32:47
Nein, das ist eher der Grund, warum das Tiel so verhältnismäßig spät kommen soll. Der Name ist so gewählt damit man später upgraden kann. Vergiss es, den gibts nicht mit 4GB, ist nicht verkaufbar in der Leistungsklasse.

4GB ist nach wie vor state-of-the-art, so tragisch sehen ich das nicht wenn vielleicht das erste halbe Jahr nicht mehr Verfügbar ist. Es ist noch nicht lange aus, da hatte NVs High-End-GPU maximal 3GB VRAM und die verkaufte sich wohl auch nicht schlecht.

WAR state of the Art. GM200 kommt mit 6GB, da kann Fiji nicht mit 4 kommen, das funktioniert nicht.

AnarchX
2015-02-01, 11:51:18
Na ja, das könnte der Grund sein, warum man sie "nur" als 380 tituliert.
Dann hoffentlich auch einer "8er-Serien" Preis - $299-349. ;D
390 und 395 (8GiB) wäre imo günstiger.


WAR state of the Art. GM200 kommt mit 6GB, da kann Fiji nicht mit 4 kommen, das funktioniert nicht.
Zumal NV wohl für die "Titan" eher 12GiB forcieren wird. Der Cutdown könnte sogar die 8GiB Version mit 10GiB@320-Bit überbieten.

fondness
2015-02-01, 12:02:29
Mehr als 8GB braucht mittelfristig niemand, also das ist IMO das kleinste Problem.

HOT
2015-02-01, 12:22:19
Glaub nicht, NV wird das gleiche machen wie beim GM204. Die werden eine 990 (Salvage) und 990Ti (Full) jeweils mit 6GB anbieten (natürlich ist die 990 ohne Ti wieder im Speicher eingeschränkt wie die 970). Zusätzlich gibts dann noch die TitanII mit 12GB und noch mehr Takt.

aufkrawall
2015-02-01, 12:45:44
Wer sagt, dass GM200 Salvage auch bei ROPs und L2 beschnitten sein muss, wenn es einige Salvage-Varianten von GM204 nicht waren?

AffenJack
2015-02-01, 12:54:37
Weil Nvidia eine möglichst große Anzahl an Chips verwerten will und nicht welche mit defekten in ROPs/L2 wegschmeißen will. Du sagst ja selber, einige Gm204 waren nicht beschnitten, aber bei anderen musste es so sein um ne gute Ausbeute zu erreichen. Vielleicht beschneidet man nur diesmal gleichmäßig und bringt die 5gb Karte.

Bei Fiji glaube ich aber auch erstmal nur an 4Gb, es deutet im Moment einfach alles darauf hin und ich sehe 4Gb da nun noch nicht als so großes Problem an.

Nakai
2015-02-01, 13:02:48
Sobald SMMs deaktiviert sind, gehen indirekt ROPs verloren. Nur full GM200 wäre eine kompromisslose Lösung.

Fiji wird erstmal zwischen GM204 und GM204 platziert sein. Bermudas ist nochmal eine andere Geschichte. Der Unterschied zwischen Fiji und Bermudas wird definitiv interessant, ist doch die geleakte Performance keine wirklich neue SKU, imo.

aufkrawall
2015-02-01, 13:11:26
Was weiß man eigentlich über Bermuda?
Ernsthaft jetzt. ;)

horn 12
2015-02-01, 13:16:56
@Nakai

Wo werden wir Preislich die R9 280 bzw. R9 380X einordnen koennen?
Sind Preise von knapp 400 Euro, bzw. 550+ realistisch fuer 4GB HBM Modelle?

Ravenhearth
2015-02-01, 13:30:28
AMD kann in der aktuellen Position (sinkende Marktanteile) keine hohen Preise verlangen. Wenn die 380X rund 25% über der 290X oder GTX970 liegt und ebenfalls "nur" mit 4GB kommt, ist $449 für die 380X eigentlich das äußerste. Für die 380 bietet sich ein Preis bei etwa $349 an, evtl auch $329. Um gegen Nvidia zu bestehen, brauchen sie ein sehr gutes P/L-Verhältnis.

R.I.P.
2015-02-01, 13:36:52
AMD kann in der aktuellen Position (sinkende Marktanteile) keine hohen Preise verlangen. Wenn die 380X rund 25% über der 290X oder GTX970 liegt und ebenfalls "nur" mit 4GB kommt, ist $449 für die 380X eigentlich das äußerste. Für die 380 bietet sich ein Preis bei etwa $349 an, evtl auch $329. Um gegen Nvidia zu bestehen, brauchen sie ein sehr gutes P/L-Verhältnis.

Finde genau das Gegenteil richtig: Um die ganzen Idioten zu melken (Nvidia und Apple User sind das schon gewohnt), für die teurer=automatisch besser ist, sollten sie ruhig MEHR als die performancetechnisch ähnliche Konkurrenz verlangen.
Man ist ja wieder mal technischer Vorreiter mit HBM..:freak:

fondness
2015-02-01, 13:43:15
Finde genau das Gegenteil richtig: Um die ganzen Idioten zu melken (Nvidia und Apple User sind das schon gewohnt), für die teurer=automatisch besser ist, sollten sie ruhig MEHR als die performancetechnisch ähnliche Konkurrenz verlangen.
Man ist ja wieder mal technischer Vorreiter mit HBM..:freak:

Leider funktioniert diese Psychologie bei Endkunden tatsächlich. Bei OEMs oder im professionellen Bereich sieht es da schon anders aus, da kann man mit niedrigen Preisen einiges erreichen, bei Endkunden nur begrenzt.

Ravenhearth
2015-02-01, 15:06:57
Das funktioniert imho aber nur, wenn das Image der Firma auch entsprechend gut ist. Das mag bei Apple und Nvidia der Fall sein, bei AMD eher nicht.

Unicous
2015-02-01, 15:14:52
Was weiß man eigentlich über Bermuda?
Ernsthaft jetzt. ;)

Außer dass er existiert: nichts. http://www.smiliesuche.de/smileys/schulterzuckende/schulterzuckende-smilies-0008.gif

HOT
2015-02-01, 15:15:13
Das funktioniert imho aber nur, wenn das Image der Firma auch entsprechend gut ist. Das mag bei Apple und Nvidia der Fall sein, bei AMD eher nicht.
Ersetze "gut ist" durch "gute PR gemacht hat". AMD hat dann auch noch das Problem des Markennamens...

Trap
2015-02-01, 15:15:27
Um gegen Nvidia zu bestehen, brauchen sie ein sehr gutes P/L-Verhältnis.
Hat man doch automatisch, dadurch dass man beim Monitor über 100€ gegenüber G-Sync spart :biggrin:

fondness
2015-02-01, 15:15:40
Das funktioniert imho aber nur, wenn das Image der Firma auch entsprechend gut ist. Das mag bei Apple und Nvidia der Fall sein, bei AMD eher nicht.

Man hat sich mit dieser dauerhaften Niedrigpreispolitik wohl erst langfristig dieses Image verpasst, von daher funktioniert das eben auch in die andere Richtung.

Nakai
2015-02-01, 15:20:43
Der Preis von Fiji wird definitiv höher sein, als von Hawaii bzw. kann nicht niedriger werden. GTX 980 gibt es für 500€. Ergo 500€+ kann man schätzen.
Ich würde sogar über 650€ schätzen. 650€ für 380X und 550€ für 380. HBM ist teuer.

AMD hat mit Hawaii einen mittelgroßen Fehler gemacht, imo. Die Karte war gut, aber man hätte mehr als nur 44 CUs verbauen müssen. Sogar mehr als 48CUs. Dann wäre Hawaii zwar größer als 460mm² geworden, aber wäre das so schlimm gewesen?

fondness
2015-02-01, 15:30:50
AMD hat mit Hawaii einen mittelgroßen Fehler gemacht, imo. Die Karte war gut, aber man hätte mehr als nur 44 CUs verbauen müssen. Sogar mehr als 48CUs. Dann wäre Hawaii zwar größer als 460mm² geworden, aber wäre das so schlimm gewesen?

Diesen Kritikpunkt hätte man bei jeder AMD-Karten nach R600 anbringen können. Man hat sich damals eben bewusst dagegen entschieden und erst mit dem neuen Management wurde diese Ausrichtung wieder geändert, es dauert ja auch seine Zeit bis sich solche Entscheidungen auf fertige Produkte auswirken.

Das einzig traurige an der Geschichte ist vielleicht, dass AMD in der Vergangenheit eigentlich immer die Möglichkeit hatte mit einen big-Chip NV zu schlagen, jetzt wo man wieder einen big-Chip bringt kommt von NV das erste mal seit Jahren wieder eine Flächeneffiziente Architektur.

Loeschzwerg
2015-02-01, 15:44:51
Diesen Kritikpunkt hätte man bei jeder AMD-Karten nach R600 anbringen können. Man hat sich damals eben bewusst dagegen entschieden und erst mit dem neuen Management wurde diese Ausrichtung wieder geändert, es dauert ja auch seine Zeit bis sich solche Entscheidungen auf fertige Produkte auswirken.

Jo, bei diesen großen DIEs geht man halt einfach immer ein entsprechend höheres Risiko ein.

Ab Tahiti fährt man hier wieder aggressiver, auch wenn der nicht sonderlich groß war.

Schlimmer finde ich aber eher die schlechten bis mittelmäßigen Referenz Designs von AMD. Da darf man sich ruhig mehr Mühe geben. Das wirft in den Launch Reviews einfach immer ein schlechtes Licht auf alle sämtlichen Karten.

john carmack
2015-02-01, 16:37:00
Jo, bei diesen großen DIEs geht man halt einfach immer ein entsprechend höheres Risiko ein.

Ab Tahiti fährt man hier wieder aggressiver, auch wenn der nicht sonderlich groß war.

Schlimmer finde ich aber eher die schlechten bis mittelmäßigen Referenz Designs von AMD. Da darf man sich ruhig mehr Mühe geben. Das wirft in den Launch Reviews einfach immer ein schlechtes Licht auf alle sämtlichen Karten.

wurde das nicht vor dem Hawaii launch sogar vom AMD versprochendas die Kühler besser werden sollen?
Rausgekommen ist dabei aber nix... - noch nix!

aufkrawall
2015-02-01, 16:38:45
Ein etwaiger Bermuda mit WK sollte im Idle jedenfalls nicht wieder lauter sein als mein luftgekühltes System unter Last.

-/\-CruNcher-/\-
2015-02-01, 16:52:19
AMD kann in der aktuellen Position (sinkende Marktanteile) keine hohen Preise verlangen. Wenn die 380X rund 25% über der 290X oder GTX970 liegt und ebenfalls "nur" mit 4GB kommt, ist $449 für die 380X eigentlich das äußerste. Für die 380 bietet sich ein Preis bei etwa $349 an, evtl auch $329. Um gegen Nvidia zu bestehen, brauchen sie ein sehr gutes P/L-Verhältnis.

Finde genau das Gegenteil richtig: Um die ganzen Idioten zu melken (Nvidia und Apple User sind das schon gewohnt), für die teurer=automatisch besser ist, sollten sie ruhig MEHR als die performancetechnisch ähnliche Konkurrenz verlangen.
Man ist ja wieder mal technischer Vorreiter mit HBM..:freak:

Sehe ich genauso und AMD ist sicherlich auch bewusst wie entscheidend diese Generation sein wird und das sie jetzt Masse erreichen müssen ;)

Mit einer zu teuren Enthusiasten Karte werden sie gegen Nvidia wieder das nachsehen haben es muss ein gut Balancierter Successor mit den Stärken von Tonga und Hawai her vorher keine Chance da wird auch eine teure HBM karte nichts ändern.

Hoffe diese Verschmelzung wird demnächst effizient gelingen in der 380 voraussichtlich :)


Diesen Kritikpunkt hätte man bei jeder AMD-Karten nach R600 anbringen können. Man hat sich damals eben bewusst dagegen entschieden und erst mit dem neuen Management wurde diese Ausrichtung wieder geändert, es dauert ja auch seine Zeit bis sich solche Entscheidungen auf fertige Produkte auswirken.

Das einzig traurige an der Geschichte ist vielleicht, dass AMD in der Vergangenheit eigentlich immer die Möglichkeit hatte mit einen big-Chip NV zu schlagen, jetzt wo man wieder einen big-Chip bringt kommt von NV das erste mal seit Jahren wieder eine Flächeneffiziente Architektur.

Trend falsch erkannt zu spät aufgesprungen mehr gibt es dazu nicht zu sagen genau das hab ich in Hawai gesehen die 1 Jahr zu späte R 285 konnte das auch nicht mehr kompensieren.
Nvidia hat mit Tegra zwar viel verlust hinnehmen müssen aber das alles auf den Desktop übertragen zu können ist ein Vorteil den sie jetzt voll ausspielen.

AnarchX
2015-02-01, 17:13:12
Neue Benchmarks der "Hybrid-Kühlung" Karte: http://www.chiphell.com/thread-1231917-1-1.html

Nightspider
2015-02-01, 17:18:35
Laut Benchmarks 50-63% schneller als R9 290X bei einem fast gleich hohen Verbrauch.

Der nicht näher spezifizierte Gametest mit geringerem Vorsprung deutet vllt noch auf die DX11 Schwäche der Treiber hin und die fps lassen eher auf 1080p schließen.

Interessanter wären da 4K Benchmarks. Vielleicht ist der Vorsprung im 3Dmark deshalb größer.

Im 3Dmark liegt man 41% vor der GTX980.

Ailuros
2015-02-01, 17:20:51
Außer dass er existiert: nichts. http://www.smiliesuche.de/smileys/schulterzuckende/schulterzuckende-smilies-0008.gif

Mein Bauchgefuehl bleibt, dass es sich lediglich um 2*Fiji@mGPU handelt.

Unicous
2015-02-01, 17:23:47
R9 M385 auf 7750M Niveau? Iceland, Strato, Litho? Who knows.

https://gfxbench.com/device.jsp?benchmark=gfx30&os=Windows&api=gl&D=AMD+Radeon+%28TM%29+R9+M385&testgroup=info

Interessant ist aber zumindest das hier: 4.4.13369 Compatibility Profile Context 15.200.0.0

Dürfte neuer Treiberbranch sein.


@Ailuros

Denke ich auch. Aber Greifbares dazu gibt es leider nicht. :(


Edit: Das Teil ist all over the place. Oft auf z.B. HD 7750 Niveau, mal deutlich drunter, mal fast 50% schneller. Da gibt es wohl noch ein bißchen zu tun. ;)

https://gfxbench.com/compare.jsp?benchmark=gfx30&D1=AMD+Radeon+%28TM%29+R9+M385&os1=Windows&api1=gl&D2=AMD+Radeon+HD+7750&cols=2

Nakai
2015-02-01, 17:27:51
Tja, dann ist das was geleakt wurde Fiji Pro und Fiji Xt gewesen. Fiji XT als Bermuda.

Neue Benchmarks der "Hybrid-Kühlung" Karte: http://www.chiphell.com/thread-1231917-1-1.html

Nicht unbeeindruckend.

Ich war vorhin auf Chiphell und hab nach nem "Leak" gesucht...zu früh. ;D

Kann man auf dem Foto erkennen, welche Insel das ist?

AnarchX
2015-02-01, 17:28:49
Mein Bauchgefuehl bleibt, dass es sich lediglich um 2*Fiji@mGPU handelt.

Da wäre der Materialeinsatz aber etwas hoch für die Leistung. Mit HBM könnte man aber vielleicht auch beide Interposer auf ein großes Package-Substrat bringen und dann nochmal mit einem breiten Interconnect verbinden...

Nakai
2015-02-01, 17:44:20
Da wäre der Materialeinsatz aber etwas hoch für die Leistung. Mit HBM könnte man aber vielleicht auch beide Interposer auf ein großes Package-Substrat bringen und dann nochmal mit einem breiten Interconnect verbinden...

Ich denke, dass was geleakt wurde, war nicht Bermuda.

Was ich denke ist eher, dass das alles eine Karte war. Was dort als Bermuda, Fiji oder Captain Jack Simple geleakt wurde, war wohl alles Fiji.

€:
Fiji Simple aka Captain Jack sieht eher so nach ~925MHz Coreclock aus, mit leichtem Boost bis so 1Ghz.
Bermuda XT könnte den Boost auf 1,2GHz hochjagen. Bermuda XT ist jedenfalls 25~30% vor Fiji XT.

€2: Ahja, wenn das alles stimmt, dann hat AMD es wirklich geschafft, die Performance/Watt stark zu verbessern. Um die 50% bessere Perf/Watt als Fiji ist nicht unbeeindruckend. Damit kann man mit NV gleichziehen.

€3: Jetzt muss AMD das nur noch TopToBottom durchziehen.

Unicous
2015-02-01, 17:47:51
Ok, ich glaube langsam, dass ich Blödsinn gelabert habe und dass die M385 Tonga (XT?) darstellen könnte aber komische Performance-Probleme hat.

https://gfxbench.com/compare.jsp?benchmark=gfx30&D1=AMD+Radeon+%28TM%29+R9+M385&os1=Windows&api1=gl&D2=AMD+Radeon+R9+M295X&cols=2


Ach ney. Kommando zurück. Noch mehr Blödsinn. Dieses dumme GfxBench unterscheidet ja zwischen "on-screen" und off-screen. Die M295X Werte stammen sicherlich von einem 5K Retina Display, deswegen ist onscreen der Wert so schlecht. Und dann auch noch Windows vs. OSX. Genauso nutzlos wie der Großteil der Benchmarks.

horn 12
2015-02-01, 17:56:58
73 Grad GPU Temperatur
Knapp 300 Watt Verbrauch
Dies kann AMD doch gar nicht bringen, dann noch für vielleicht gar hohe 650+ Euro ?!

Da bleibe ich doch lieber bei Luftkühlung und etwas Geringerer Performance.
Die mit der Hybrid Kühlung ist doch nicht AMD´s Ernst oder etwa doch,- so wie es derzeit aussieht ... ?

@Nakai
Fiji Simple aka Captain Jack sollte somit wohl auf GTX 980 +10% Kommen
Somit wäre diese Karte wohl Fiji Pro und relativ Günstig (4GB HBM)
Fiji XT sollte nochmal 15-20 % drauflegen und GTX 980 + knappe 30% ausmachen können und gleichzeitig zum Start 4GB und 8GB HBM

Bermuda XT ist die Hybrid Lösung und kommt mit GTX 980 + mind. 50% daher --- Wohl der Gegenpart zum GM200, welcher da wohl das Nachsehen haben sollte!
maximale Performance mit maximalem und doch noch Moderatem Stromverbrauch
Fiji Pro/ XT sollte mit knappen 200 bis maximalen 225 Watt locker auskommen
Da kommt eine ganze Flut an AMD gpu´S und NV wird diesmal wohl überschwommen werden...
Sieht rosig aus für AMD :-)

Nakai
2015-02-01, 18:19:11
73 Grad GPU Temperatur
Knapp 300 Watt Verbrauch
Dies kann AMD doch gar nicht bringen, dann noch für vielleicht gar hohe 650+ Euro ?!

Da bleibe ich doch lieber bei Luftkühlung und etwas Geringerer Performance.
Die mit der Hybrid Kühlung ist doch nicht AMD´s Ernst oder etwa doch,- so wie es derzeit aussieht ... ?

Da kommt noch eine Luftkühlung. 3 Lüfter-Designs wahrscheinlich.

Ansonsten klingt es, dass da noch mehr kommt. H2 2015 wird interessant.

Knuddelbearli
2015-02-01, 18:24:44
kommen sicher customs mit Luft. Mir ist es egal wenn das stimmt und maximal 550€ ist es gekauft ^^
200€ Aufpreis zur 970 ( die dann Retoure geht ) für fast doppelte Performance ^^

M4xw0lf
2015-02-01, 18:32:45
Ein etwaiger Bermuda mit WK sollte im Idle jedenfalls nicht wieder lauter sein als mein luftgekühltes System unter Last.
Ich erwarte von diesen Aio-Gerätschaften nicht allzu viel... besser als die Hawaii-Referenzkühlung wirds wohl schon sein :freak:

tm0975
2015-02-01, 19:01:29
€3: Jetzt muss AMD das nur noch TopToBottom durchziehen.

mmn reicht da in erster linie ein super top modell. nvidia macht es doch vor. die 980 ist eine gute karte. alles darunter ist unattraktiver als die jeweiligen amd-gegner.

Ailuros
2015-02-01, 19:16:22
mmn reicht da in erster linie ein super top modell. nvidia macht es doch vor. die 980 ist eine gute karte. alles darunter ist unattraktiver als die jeweiligen amd-gegner.

Komischerweise treffe ich den letzten Satz zu oft in letzter Zeit in diversen fora und Sprachen an und wird wohl kein Zufall sein dass es so in letzten Tagen kursiert. Da es AMD momentan wohl nicht interessiert Ihr marketing auf perf/W anzuzielen sind solche Maschen durchaus zu erwarten und nein Hand aufs Herz bis auf die 280/280X vs. GTX960 (und selbst das steht zur Debatte frei wegen dem zu hohen Stromverbrauch im ersten Fall) wuerde ich persoenlich ab der GTX750 bis zur 980 keine Radeon unbedingt bevorzugen und komischerweise reagiert auch der Otto-Normalverbraucher auch nicht anders.

Hübie
2015-02-01, 19:37:28
73 Grad GPU Temperatur
Knapp 300 Watt Verbrauch
Dies kann AMD doch gar nicht bringen, dann noch für vielleicht gar hohe 650+ Euro ?!

Da bleibe ich doch lieber bei Luftkühlung und etwas Geringerer Performance.
Die mit der Hybrid Kühlung ist doch nicht AMD´s Ernst oder etwa doch,- so wie es derzeit aussieht ... ?

@Nakai
Fiji Simple aka Captain Jack sollte somit wohl auf GTX 980 +10% Kommen
Somit wäre diese Karte wohl Fiji Pro und relativ Günstig (4GB HBM)
Fiji XT sollte nochmal 15-20 % drauflegen und GTX 980 + knappe 30% ausmachen können und gleichzeitig zum Start 4GB und 8GB HBM

Bermuda XT ist die Hybrid Lösung und kommt mit GTX 980 + mind. 50% daher --- Wohl der Gegenpart zum GM200, welcher da wohl das Nachsehen haben sollte!
maximale Performance mit maximalem und doch noch Moderatem Stromverbrauch
Fiji Pro/ XT sollte mit knappen 200 bis maximalen 225 Watt locker auskommen
Da kommt eine ganze Flut an AMD gpu´S und NV wird diesmal wohl überschwommen werden...
Sieht rosig aus für AMD :-)

Ja bei dir sieht es immer rosig für AMD aus. Nur zeigst du oft genug das du weder objektiv bist, noch Ahnung von Marktwirtschaft hast. Also lass' gut sein. :rolleyes:

Zum Thema: Bei mir ist das Ding auch sowas von gekauft wenn sGPU die Performance welche dort zu sehen ist bringt. Da juckt mich der Verbrauch auch nicht solang die Lautstärke passt.

mboeller
2015-02-01, 20:02:34
könnte die Insel sein:

http://yachtpartnersfiji.com/wp-content/uploads/2013/02/Fiji_Islands.jpg

R.I.P.
2015-02-01, 20:13:39
Komischerweise treffe ich den letzten Satz zu oft in letzter Zeit in diversen fora und Sprachen an und wird wohl kein Zufall sein dass es so in letzten Tagen kursiert. Da es AMD momentan wohl nicht interessiert Ihr marketing auf perf/W anzuzielen sind solche Maschen durchaus zu erwarten und nein Hand aufs Herz bis auf die 280/280X vs. GTX960 (und selbst das steht zur Debatte frei wegen dem zu hohen Stromverbrauch im ersten Fall) wuerde ich persoenlich ab der GTX750 bis zur 980 keine Radeon unbedingt bevorzugen und komischerweise reagiert auch der Otto-Normalverbraucher auch nicht anders.

Otto-Normalverbraucher kauft sich einen FertigPC, wo in 95% der Fälle ein Intel und eine Nvidia GPU drin stecken. Bei der CPU ist es leider im Moment noch gerechtfertigt. Bei der Grafikkarte nur in den seltensten Fällen (leider). Die 970 und 980 sind gute karten, welche jedoch ca. 1 Jahr (wenn ich mich nicht irre) nach der 290X released wurden und bis auf einen verbesserten Verbrauch nicht viel zu bieten haben (mMn).
Nvidia lebt größtenteils vom eigenen Image, nicht von der Technik die dahintersteckt (und AMD ebenbürtig ist, sicherlich nicht besser).

Menace
2015-02-01, 20:25:57
bis auf einen verbesserten Verbrauch nicht viel zu bieten haben (mMn).


Ja, aber genau da muss AMD nachlegen. Vorher gibt es auch keine neue AMD-Karte bei mir.

MilesEdgeworth
2015-02-01, 22:14:29
Hatte denn schon jemand recherchiert, ob unser Leaker denn eine Vorgeschichte hat? Bisher konnte ich jedenfalls Benchmarks (3D Mark) zur R9 290X finden, die vor Release von ihm veröffentlicht wurden.. Auch das Ergebnis sieht für mich nicht nach einem Fake aus.. http://www.chiphell.com/thread-872171-1-1.html

Jedenfalls unterstützt das etwas die Glaubwürdigkeit seiner Leaks!

M4xw0lf
2015-02-01, 22:22:43
Hatte denn schon jemand recherchiert, ob unser Leaker denn eine Vorgeschichte hat? Bisher konnte ich jedenfalls Benchmarks (3D Mark) zur R9 290X finden, die vor Release von ihm veröffentlicht wurden.. Auch das Ergebnis sieht für mich nicht nach einem Fake aus.. http://www.chiphell.com/thread-872171-1-1.html

Jedenfalls unterstützt das etwas die Glaubwürdigkeit seiner Leaks!
Ah, gute Idee sowas mal zu recherchieren :)
Mich macht bei den neuen Fiji-Leaks nur etwas stutzig, dass die Ergebnisse zu gut erscheinen. Wenn man die 290X als Baseline hernimmt, dann sind die Zuwächse alle deutlich über 45%, welche wiederum das zu erwartende Maximum an Mehrperformance darstellen würden, wenn man 4096 SPs statt 2816 hat. Also mehrere Möglichkeiten:
-Architekturelle Verbesserungen (möglicherweise auch HBM?) bringen mehr als der prozentuale Zuwachs von SPs nahelegt;
-Die Karte kommt mit höherem Takt als Hawaii (oder aber wurde für die geleakten Benchmarks stark übertaktet);
-Alles ist fake.

Unicous
2015-02-01, 22:29:37
@MilesEdgeworth

Nja, die Vorgeschichte hatten wir mE schon damals besprochen als die ersten Benchmarks von ihm veröffentlicht wurden. (Ich glaube die 290X Benchmarks sind seinerzeit auch im Netz umhergeschwirrt)

Dennoch kann man schwer nachvollziehen, ob es ein halbwegs zuverlässiger Leaker ist, oder derjenige nur Wunschvorstellungen in Diagrammform postet, oder aber wie es sehr oft bei chiphell geschieht, echte Benchmarkeinträge einfach photoshopped (wie unlängst wieder geschehen)

Und es ist natürlich verdächtig wenn er behauptet mehrere ES zu haben, oder vllt. Zugang zu den Ergebnissen zu haben.

Und da wir alle kein Chinesisch können (oder?) und Googlish keine besondere Hilfe ist, kann man das alles nicht wirklich in Zusammenhang bringen und schon gar nicht die Reputation desjenigen ablesen.

Möglich ist es aber auf jeden Fall, denn Samples schwirren schon seit Monaten umher.

Kriton
2015-02-01, 22:31:07
Nach 1 1/2 Jahren würde ich Verbesserungen der Architektur aber auch erwarten.

fondness
2015-02-01, 22:33:25
Das AMD mit Fiji nicht irgendwas abliefert sollte inzwischen klar sein. Man will die Leistungskrone, nicht mehr und nicht weniger.

MilesEdgeworth
2015-02-01, 22:43:47
@M4xw0lf:
Die Ergebnisse sind tatsächlich auffallend gut. Ich erwarte aber, dass der neuste Leak ein Bermuda und kein Fiji ist. Wenn Fiji wie den bisherigen Gerüchten zu entnehmen als GM204 Konkurrent geplant ist, dann wäre das mehr Leistung als "nötig" wäre. Erwartet werden hier ja derzeit für Fiji 4096 Shader bei 800-900 MHz wenn ich das richtig in Erinnerung habe?
Was wäre denn in etwa das Maximum an Shadereinheiten, bei ~560 mm^2 und einer leicht gesteigerten Packdichte (15%) gegenüber Hawaii? Wenn Bermuda nicht mehr Shader als Fiji hat, wäre doch neben den bisherigen Dual GPU Tendenzen (wobei dafür die Resultate sehr schwach wären) auch HBM 2.0 sowie deutlich mehr Takt eine Option.

@Unicous:
So wie ich seine Posts deute, gibt er an Zugang zu Fiji und Bermuda zu haben. In irgendeiner Form angeblich auch zu einem abgespeckten GM200? Da bin ich mir jetzt jedoch nicht so ganz sicher. Möglich wäre jedoch auch, dass er Beziehungen zu einem Boardpartner hat oder unter Umständen selbst dort tätig ist.. Auch diese sollten ja Engineering Samples frühzeitig erhalten. Erst recht, wenn es um neue Speicherarchitekturen wie HBM geht.
Welche Boardpartner sind denn inzwischen noch für AMD und Nvidia tätig? Auf die Schnelle fallen mir da nur MSI und ASUS ein...

M4xw0lf
2015-02-01, 22:49:52
Hm, für einen Bermuda, der ja gerüchteweise schon in 14nm kommen soll, wärs dann wiederum gar nicht so geil... :freak:

MilesEdgeworth
2015-02-01, 22:56:20
14nm glaube ich aber weniger bei dem Resultat, sollte die Leistungsaufnahme in etwa so hoch sein wie bei Hawaii trotz Hybridkühlung.. Dafür müsste sich ja die Effizienz der Architektur schon ins Negative entwickeln! :ugly:

M4xw0lf
2015-02-01, 23:00:20
Fiji übertaktet wäre die sinnigste Erklärung, immer vorausgesetzt kein Fake.

Unicous
2015-02-01, 23:04:46
@MilesEdgeworth

Gigabyte noch.


Auch das hatten wir überlegt. Dass der Typ bei einem der Partner arbeitet, oder eben durch Dritte Zugang bekommt oder die Daten geliefert.

Ich glaube übrigens nicht, dass wir so früh 14nm sehen, wenn überhaupt. Es ist weiterhin möglich, dass sie noch ein Weilchen bei TSMC bleiben.

@M4xw0lf

Gerüchteweise? Das wird doch eher hier im Forum kolportiert, als das es darauf Hinweise gäbe.

Von den zeitlichen Abläufen kommt es nicht hin. GF ist gerade mal dabei die Produktion anzufahren, Samsung ist wohl schon seit ein halben Jahr oder so dabei, aber man hört eigentlich nur Negatives oder Widersprüchliches.

MilesEdgeworth
2015-02-01, 23:14:52
@Unicous:
Danke, das kann gut sein, ich lese hier kontinuierlich mit, vergesse das meiste leider aber schnell wieder :ugly:

Mit 14nm würde ich auch nicht vor 2016 rechnen, bin zwar noch nicht so viele Jahre dabei, aber eine Marktreife vor dem erwarteten Zeitraum, das meine ich noch nie erlebt zu haben. :D

Ailuros
2015-02-02, 08:01:03
Otto-Normalverbraucher kauft sich einen FertigPC, wo in 95% der Fälle ein Intel und eine Nvidia GPU drin stecken.

Was aber wiederrum NICHT heisst dass in allen anderen Faellen AMD deutlich besser verkauft oder kein image Problem hat.

Bei der CPU ist es leider im Moment noch gerechtfertigt. Bei der Grafikkarte nur in den seltensten Fällen (leider). Die 970 und 980 sind gute karten, welche jedoch ca. 1 Jahr (wenn ich mich nicht irre) nach der 290X released wurden und bis auf einen verbesserten Verbrauch nicht viel zu bieten haben (mMn).

Was was heissen soll? Dass Fiji und co. irgend etwas revolutionaeres liefern werden ausser verbesserten Verbrauch? Und wenn es dann so weit kommt wird fuer die rote Fraktion die perf/W eines jeglichen Fiji das 8. Wunder sein, waehrend es auf einer GeForce nur so eine nebenwichtige Einzelheit ist. Es aendert sich auch nichts wenn es anders rum ist, aber der ewige Sandkasten zwischen AMD und NVIDIA fans wird ja auch nie besser.

Der Punkt hier ist dass mir AMD und ihre Anhaenger erzaehlen wollen dass momentan nur die 980 aus dem NV Produkt-Portofolio einen Vorteil hat und sonst von da ab und bis zu budget GPUs AMD den absoluten Vorteil. Tragische Ironie dass die 980 zu ueberteuert ist und ihr Geld gegenueber der 970 nicht wert ist. Sonst liegen alle Maxwell GPUs im Vorteil was perf/W betrifft und nein GM107 und die davon entsprechenden GPUs und bei diesem war es wohl kein jaerlicher Abstand.

Davon abgesehen steht Fiji irgendwo Ende Fruehjahr an und alles andere das auf der gleichen Schiene laufen wird, wird noch etwas auf sich warten lassen.

Nvidia lebt größtenteils vom eigenen Image, nicht von der Technik die dahintersteckt (und AMD ebenbürtig ist, sicherlich nicht besser).

Nur ist AMD's image nicht unbedingt besser fuer den Otto-Normalverbraucher sonst muesste AMD mit so niedrigen Preisen schon seit einer Ewigkeit um einiges mehr verkaufen. Als die GTX680 erschien war das Ding eine gute Zeit lang ueber 100 Euro teurer, die 7970 war rundum die bessere Loesung jedoch konnte den Verbraucher nicht ueberreden.

Heute im gegebenen Fall ist es auch wirklich nicht NV's Schuld dass AMD dank fehlenden Resources nur im Schneckentempo vorgeht wenn es zur Entwicklung kommt. Was zum Teufel nuetzt mir wenn ich lese dass ab Fiji blahblahblah....ja was? Wenn bis dahin GM204 ein gutes Prozentual ueber einer Million SKUs verkauft hat, soll es welche Wunder auf die Beine stellen? Fiji scheint nach allen Indizien einen Fetzen mehr als eine GTX980 zu verbrauchen mit einem etwas groesseren Fetzen an Mehrleistung; big f***ing deal wenn Du mich fragst wenn man auch noch um so viele Monate spaeter ankommt. Da kann man lange HBM Graffitti auf seine Unterhosen spruehen und damit herumwedeln. Begeistert bin ich immer noch nicht, weil ganz einfach zu wenig zu spaet.

tm0975
2015-02-02, 08:54:18
14nm glaube ich aber weniger bei dem Resultat, sollte die Leistungsaufnahme in etwa so hoch sein wie bei Hawaii trotz Hybridkühlung.. Dafür müsste sich ja die Effizienz der Architektur schon ins Negative entwickeln! :ugly:

schön, dann eine 290x für den winter zum wärmen und eine 390x für den sommer zum kühlen ;D

Der Punkt hier ist dass mir AMD und ihre Anhaenger erzaehlen wollen dass momentan nur die 980 aus dem NV Produkt-Portofolio einen Vorteil hat und sonst von da ab und bis zu budget GPUs AMD den absoluten Vorteil.

vorteile haben sicherlich auch die anderen karten, wobei mir derzeit nur die effizienz der 960/970 einfällt. das ist aber weder aus lautstärke-sicht noch aus stromsparkosten (rentiert sich einfach nicht) relevant für mich. mein hauptproblem bei nvidia ist, dass sie den kunden für blöd verkaufen und keine verantwortung für ihre fehler übernehmen. und das seit sehr vielen jahren. darum bin ich von nvidia zu ati gewechselt mit der 3870er serie.

Ailuros
2015-02-02, 09:19:27
vorteile haben sicherlich auch die anderen karten, wobei mir derzeit nur die effizienz der 960/970 einfällt. das ist aber weder aus lautstärke-sicht noch aus stromsparkosten (rentiert sich einfach nicht) relevant für mich. mein hauptproblem bei nvidia ist, dass sie den kunden für blöd verkaufen und keine verantwortung für ihre fehler übernehmen. und das seit sehr vielen jahren. darum bin ich von nvidia zu ati gewechselt mit der 3870er serie.

Siehst Du...."nur die Effizienz". Es reicht vollkommen aus wenn hw A effizienter ist als hw B um ihr einen insgesamten Vorteil zuzusprechen.

Sonst ist das neueste memorygate verdammt peinlich von NVIDIA's technischem marketing, ob und wieviel es wirklich den Endverbraucher beinflussen wird bleibt abzusehen. Im gegebenen Fall selbst wenn ein User eine 970 hat und einen refund bekommt, wird er sich was genau damit kaufen? Eine so effiziente Alternative gibt es momentan bei AMD eben nicht, was im Endeffekt zwar heisst dass es sicher Faelle geben wird die ihre 970 einzahlen lassen und eine 290/290X kaufen aber die Mehrzahl wird es nicht sein. Wuerde es heute Fiji auf Regalen geben waere die Geschichte um einiges anders.

mboeller
2015-02-02, 09:22:18
@MilesEdgeworth

Gigabyte noch.

Ich glaube übrigens nicht, dass wir so früh 14nm sehen, wenn überhaupt. Es ist weiterhin möglich, dass sie noch ein Weilchen bei TSMC bleiben.


Wenn man diesem PDF glauben will: http://www.bnppresearch.com/ResearchFiles/31175/Semiconductors-230414.pdf

Siehe Seite 10, dann hat nur Samsung bereits einen fertigen 14nm Finfet-Prozess am Laufen. Sowohl TSMC als auch GF sind noch ein paar Quartale davon entfernt. GF braucht noch am längsten. Allenfalls die Trials laufen bei beiden schon wenn ich das Diagramm richtig lese.

Intel natürlich außen vor.

Dural
2015-02-02, 09:30:30
Bei einer Mainstream Karte wird ein Drama veranstalten wenn sie nur 3,5GB nutzen kann aber bei einem High-End Chip mit unendlich viel Bandbreite sind 4GB "OK"

Ich habe schon lange aufgehört die Welt zu verstehen :wink:

M4xw0lf
2015-02-02, 09:40:42
Wenn man diesem PDF glauben will: http://www.bnppresearch.com/ResearchFiles/31175/Semiconductors-230414.pdf

Siehe Seite 10, dann hat nur Samsung bereits einen fertigen 14nm Finfet-Prozess am Laufen. Sowohl TSMC als auch GF sind noch ein paar Quartale davon entfernt. GF braucht noch am längsten. Allenfalls die Trials laufen bei beiden schon wenn ich das Diagramm richtig lese.

Intel natürlich außen vor.
Sinn? Da GF und Samsung den gleichen 14nm-Prozess verwenden, bzw. ihn sogar zusammen entwickeln, kann man den Fortschritt bei Samsung und GF als identisch annehmen.

HOT
2015-02-02, 10:10:31
Samsung -> Serienproduktion
GloFo -> Beginn Serienproduktion, aber mitten im Umbau, noch sehr wenig Kapazität
TSMC -> nicht mal Risc-Production (FF+, also die HP-Variante)

y33H@
2015-02-02, 10:23:19
TSMC hat die risk production von 16FF+ schon im Oktober 2014 gestartet laut eigener Aussage.

EDIT: PDF (http://www.tsmc.com/uploadfile/ir/quarterly/2014/3Vs3J/E/TSMC%203Q14%20transcript.pdf) - Seite 5, vorletzter Absatz

Nakai
2015-02-02, 10:38:16
Mhh, wenn man bei CH ein bisschen rumsucht, findet man schon einige kleine Infos. Anscheinend gabs ne Verzögerung, weswegen es Q2 statt Q1 wird. Den chinesischen Kauderwelsch versteht man echt schwer.

Paper-Launch?

Mancko
2015-02-02, 11:43:30
Der Punkt hier ist dass mir AMD und ihre Anhaenger erzaehlen wollen dass momentan nur die 980 aus dem NV Produkt-Portofolio einen Vorteil hat und sonst von da ab und bis zu budget GPUs AMD den absoluten Vorteil. Tragische Ironie dass die 980 zu ueberteuert ist und ihr Geld gegenueber der 970 nicht wert ist. Sonst liegen alle Maxwell GPUs im Vorteil was perf/W betrifft und nein GM107 und die davon entsprechenden GPUs und bei diesem war es wohl kein jaerlicher Abstand.

Davon abgesehen steht Fiji irgendwo Ende Fruehjahr an und alles andere das auf der gleichen Schiene laufen wird, wird noch etwas auf sich warten lassen.


Die Frage ist auch:

1) wie schnell ist AMD in der Lage große Mengen zu liefern
2) in welchen Preissegmenten sind sie in der Lage zu refreshen.

Es war oft in der Vergangenheit schon so, dass AMD nicht in der Lage war vernünftige Mengen zu liefern und die gesamte Palette zu Refreshen. Ich erinnere da mal an die Zeit, als Nvidia die Probleme mit NV30 und Fermi hatte. Die haben dann einfach den Markt mit den "alten" Produkten geflutet und AMD war nicht in der Lage genügend Masse zu liefern. Sprich Nvidia hat das damals für AMD äußerst günstige 6 Monatige Zeitfenster ausgesessen, so dass der Schaden sehr begrenzt war. Danach hat man sich Marktanteile sehr schnell zurückgeholt und meißt dann sogar noch mehr als verloren gegangen ist. Das gleiche übrigens beim Launch der aktuellen Gen. GK204 kam etwas später aber AMD hat eigentlich keinen Vorteil ziehen können. Im Gegenteil Nvidia hat seit Kepler AMD ständig Anteile abgenommen. AMD hat momentan vielleicht noch um die 30% von ehemals 45% bei dedizidierten GPUs.

Aktuell ist es zudem so, dass Nvidia's Produkte nicht nur bei Perf/Watt sondern eben auch bei Perf/Herstellungsaufwand besser sind. DIEs sind kleiner, Kühlung simpler, Boardlayout zum Teil simpler usw. Am Ende des Tages entscheidet eben einfach viel viel mehr als nur die reine Performance. Deswegen würde ich aktuell auch keine Prognose wagen wollen, wie sich das Ganze weiterentwickelt. Einige sind ja schon wieder extrem optimistisch. Das kann dann auch schnell enttäuscht werden und damit meine ich jetzt die nicht die Performance des einen oder anderen erwarteten Produkts, sondern die Auswirkungen im Markt.