PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Ailuros
2015-03-02, 06:36:15
Von der Wikipedia Tabelle kann man echt Krebs bekommen.

Aber AMDs Fiji oder irgendeine andere Karte wird vermutlich auf der GDC verwendet:
https://twitter.com/draginol/status/569999351365423105

Es gibt vermutlich auch eine neue Demo von Oxide/Stardock.

Ich hab mir Fiji etwas "kleiner" vorgestellt als in dem Bild :freak:

Palpatin
2015-03-02, 08:29:42
Ich hab mir Fiji etwas "kleiner" vorgestellt als in dem Bild :freak:
Die Karte ist ja auch kleiner, das ist nur der Radiator für die Wakü. ;)

M4xw0lf
2015-03-02, 08:44:44
Naa, da ist ein Photovoltaik-Panel drin. Für völlig autarken ultragrünen Betrieb :uup:

Botcruscher
2015-03-02, 08:51:32
Im natürlichen Kellerrefugium der Nerds gibt es keine Sonne für PV.

Wohl eher die Helium- Kaskadenkühlung samt Kompressoren und mini AKW. Mal sehen ob wir mehr als 4GB HBM sehen.

marc-05
2015-03-02, 17:29:25
Aber AMDs Fiji oder irgendeine andere Karte wird vermutlich auf der GDC verwendet:
https://twitter.com/draginol/status/569999351365423105


Das sieht aus als hätte man einen AMD Sarkofag geöffnet und zum vorschein kam die mumifiezierte Leiche Dirk Meyers,oder man verpackt grad einen etwas "steifen" Treiberentwickler.

horn 12
2015-03-02, 18:40:24
AMD kündigt schon nicht nur Mantle für die GDC an, auch Grafikmässig soll was "Neues" kommen!

http://community.amd.com/community/amd-blogs/amd-gaming/blog/2015/03/02/on-apis-and-the-future-of-mantle

reaperrr
2015-03-02, 20:12:48
AMD kündigt schon nicht nur Mantle für die GDC an, auch Grafikmässig soll was "Neues" kommen!

http://community.amd.com/community/amd-blogs/amd-gaming/blog/2015/03/02/on-apis-and-the-future-of-mantle

Interessant finde ich das hier:
The Mantle SDK also remains available to partners who register in this co-development and evaluation program. However, if you are a developer interested in Mantle "1.0" functionality, we suggest that you focus your attention on DirectX® 12 or GLnext.
Im Klartext, die breite Masse der Entwickler, denen es im Grunde nur um den reduzierten API-Overhead geht, sollen sich die Mühe mit Mantle lieber sparen, damit sich AMD auf die wichtigen Entwickler konzentrieren kann.

War aber nicht anders zu erwarten, Sinn und Zweck von Mantle war eh nie, zur neuen Mainstream-API zu werden, sondern MS und die Khronos-Group unter Druck zu setzen, endlich mal deren APIs zu modernisieren. Und das hat hervorragend geklappt, dafür müssen wir als Endkunden (auch die Nvidia-Käufer) AMD ausdrücklich dankbar sein, denn ohne Mantle hätten wir da vermutlich viel länger drauf warten müssen. Wenn sich sich da denn überhaupt jemals sowas gravierendes getan hätte...

Nakai
2015-03-02, 20:49:01
War aber nicht anders zu erwarten, Sinn und Zweck von Mantle war eh nie, zur neuen Mainstream-API zu werden, sondern MS und die Khronos-Group unter Druck zu setzen, endlich mal deren APIs zu modernisieren. Und das hat hervorragend geklappt, dafür müssen wir als Endkunden (auch die Nvidia-Käufer) AMD ausdrücklich dankbar sein, denn ohne Mantle hätten wir da vermutlich viel länger drauf warten müssen. Wenn sich sich da denn überhaupt jemals sowas gravierendes getan hätte...

Jap, Mantle ist tod...nach etwas über einem Jahr. Wie schon mehrfach angedeutet, werden DX12 und glNext(Vulcan) sich nahezu alles von Mantle abschauen. Eventuell bringt dies AMD keinen kleinen Vorteil bei der Entwicklung von DX12 und glNext-Treibern.

Aber mal warten...

Unicous
2015-03-02, 20:52:09
Mantle ist tod...schick, wolltest du wohl schreiben?

Mantle must take on new capabilities and evolve beyond mastery of the draw call. It will continue to serve AMD as a graphics innovation platform available to select partners with custom needs.


Wir haben übrigens extra einen Thread für das Thema.

Duplex
2015-03-02, 21:17:23
Kann AMD wegen Mantle möglicherweise Microsoft wegen Patent Verletzungen nicht verklagen?
Ziel > Geldspritze für das Unternehmen sichern

Unicous
2015-03-02, 21:26:42
Was für Patente? Softwarepatente? Du checkst irgendwie nicht, dass AMD an DX12 mitgearbeitet hat und vor einer Stunde oder so zwei AMD'ler und einer von Nvidia eine Präsentation zu DX12 gehalten haben. Als ob AMD außen vor wäre bei der Entwicklung und Microsoft nur von ihnen geklaut hätte.:rolleyes:

Kriton
2015-03-02, 22:39:41
Ihr überseht den (vielleicht zu hintergründigen?) Teil:

However, if you are a developer interested in Mantle "1.0" functionality, we suggest that you focus your attention on DirectX® 12 or GLnext.


DX12 = Mantle 1.0 Funktionalität. Mantle 1.x/2.0 soll also implizit weiter sein als "nur" Mantle 1.0 oder DX12.

Dafür, dass immer AMDs Marketing kritisiert wird, finde ich das schon nett formuliert.

Unicous
2015-03-02, 22:41:09
Nö, tun wir nicht, dafür gibt es den entsprechenden Thread.

HOT
2015-03-02, 22:54:26
Mantle ist offensichtlich keine einfache API, sondern ein Projekt, das vllt. über sagen wir mal ein Jahrzeht geplant ist. Offenbar will man Stillstand wie bei OpenGL und DX9-11 um in Zukunft dauerhaft verhindern.

Mancko
2015-03-02, 23:13:03
Mantle ist offensichtlich keine einfache API, sondern ein Projekt, das vllt. über sagen wir mal ein Jahrzeht geplant ist. Offenbar will man Stillstand wie bei OpenGL und DX9-11 um in Zukunft dauerhaft verhindern.

Na hauptsache AMD lebt auch lange genug dafür.

Kriton
2015-03-02, 23:16:18
Ach, sind sie mal wieder tot?

Effe
2015-03-03, 00:07:05
Ach, sind sie mal wieder tot?
Bei dem derzeitigen Zombiehype ist AMD voll hip! :freak:

mboeller
2015-03-03, 08:49:00
War aber nicht anders zu erwarten, Sinn und Zweck von Mantle war eh nie, zur neuen Mainstream-API zu werden, sondern MS und die Khronos-Group unter Druck zu setzen, endlich mal deren APIs zu modernisieren. Und das hat hervorragend geklappt, dafür müssen wir als Endkunden (auch die Nvidia-Käufer) AMD ausdrücklich dankbar sein, denn ohne Mantle hätten wir da vermutlich viel länger drauf warten müssen. Wenn sich sich da denn überhaupt jemals sowas gravierendes getan hätte...

+10³

Ailuros
2015-03-03, 10:13:35
War aber nicht anders zu erwarten, Sinn und Zweck von Mantle war eh nie, zur neuen Mainstream-API zu werden, sondern MS und die Khronos-Group unter Druck zu setzen, endlich mal deren APIs zu modernisieren. Und das hat hervorragend geklappt, dafür müssen wir als Endkunden (auch die Nvidia-Käufer) AMD ausdrücklich dankbar sein, denn ohne Mantle hätten wir da vermutlich viel länger drauf warten müssen. Wenn sich sich da denn überhaupt jemals sowas gravierendes getan hätte...

Bis zu einem Punkt ja; irgendwo aber war die Notwendigkeit fuer low level APIs generell da. Apple hat auch fast zeitgleich ihr Metal API vorgestellt und so etwas entwickelt man auch nicht gerade ueber Nacht. Natuerlich fuer einen ganz anderen Markt aber langfristig wird wohl glNext bzw. dessen Nachfolger womoeglich eine um einiges groessere Rolle spielen als OpenGL geschichtlich je hatte.

AMD bin ich durchaus dankbar, wobei Microsoft dann fuer den Dornroeschen-Schlaf bis zu DX12 wohl eher einen virtuellen Tritt in den Hintern verdient hat.

john carmack
2015-03-03, 15:49:55
Hi Leute,

wie ist das eigentlich mit HBM auf den kommenden GPU´s?

GM200 wird wohl noch auf DDR Speicher setzen.
Fiji dagegen schon auf HBM (v1 ?!).

Wie wird das bei der 2016 Generation und wie muss ich mir das mit den HBM Versionen/Generationen vorstellen?

NV GM200 - DDR
AMD 380/X - HBM1

NV Pascal - HBM1 ?
AMD 480/X - HBM2 ?

Versteht ihr was ich meine?
Wird Pascal direkt auf HBM2 setzen oder wie muss ich das verstehen?

ndrs
2015-03-03, 15:59:07
Versteht ihr was ich meine?
Ja.

Wird Pascal direkt auf HBM2 setzen oder wie muss ich das verstehen?
Das wird dir keiner beantworten können. Wobei der Unterschied für die GPU-seite gering bis nicht vorhanden sein sollte, ob ich nun den einen oder anderen HBM dranpappe. Sprich ich kann einfach schauen, was zur Veröffentlichung verfügbar ist.

Sunrise
2015-03-03, 16:04:42
Wird Pascal direkt auf HBM2 setzen oder wie muss ich das verstehen?
Ja, wird er.

john carmack
2015-03-03, 16:08:38
Ja.

Das wird dir keiner beantworten können. Wobei der Unterschied für die GPU-seite gering bis nicht vorhanden sein sollte, ob ich nun den einen oder anderen HBM dranpappe. Sprich ich kann einfach schauen, was zur Veröffentlichung verfügbar ist.

Ja... ;)

ich meine damit das NV ja immer einen Schritt hinterherhinken würde - Da AMD jetzt auf HBM setzt und NV erst mit dem erscheinen von Pascal.

Wenn Pascal erscheint wird AMD mit der 480/490 Serie und höchstwahrscheinlich mit HBM2 schon in den Startlöchern stehen.

Um dem entgegenzu wirken müsste Pascal ja dann direkt schon mit HBM2 erscheinen.

Sorry für OT - Ist mir eben erst aufgefallen das ich im falschen Thread bin :D

iuno
2015-03-03, 16:09:57
Ich denke aber doch, dass HBM der Gen.2 für Pascal und Arctic Islands wahrscheinlicher ist (sofern dieser dann verfügbar ist, natürlich). Man braucht für die gleiche Kapazität weniger Stacks bzw. das SI kann bei gleichem Durchsatz nochmal etwas schrumpfen, das wird man sich nicht entgehen lassen wollen.

Dural
2015-03-03, 17:19:59
Pascal wird ziemlich sicher Gen. 2 haben, NV wird die 1 Gen. bewusst auslassen.

Ich wüsste ehrlich gesagt auch nicht wie so Maxwell derzeit HBM Gen. 1 nutzen müsste, der GDDR5 Speicherkontroller in Maxwell funktioniert hervorragend und Maxwell benötigt quasi die halbe Bandbreite wie es AMD mit Hawaii braucht.

Ehrlich gesagt erwarte ich mit Fiji auch mit HBM keine Wunder, die paar Watt Ersparnisse dürfte die restliche GPU ziemlich sicher wieder wettmachen.

aufkrawall
2015-03-03, 18:00:22
Dir Gott ist schon aufgefallen, dass die 960 128 Bit, im Gegensatz zu 256 Bit Tonga, stark im Bandbreitenlimit läuft?
NV kann auch nicht zaubern.

Nightspider
2015-03-03, 18:10:01
Dural musst du nicht zu irgendeiner grünen Fanboypreisverleihung oder so?

Dural
2015-03-03, 19:50:31
tonga? ich habe zwar nichts von tonga vs 960 gesagt, aber na gut:

http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/11/


so und jetzt zurück zum thema.

R.I.P.
2015-03-03, 20:24:13
http://finance.yahoo.com/news/amd-takes-aim-exceptional-content-180000735.html

Nicht Fiji aber im Zusammenhang mit Amd Gpu. VR Technologie

aufkrawall
2015-03-03, 20:28:24
tonga? ich habe zwar nichts von tonga vs 960 gesagt, aber na gut:

http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/11/


so und jetzt zurück zum thema.
Blah. Erstens, bringt schon das Erhöhen des VRAM-Taktes bei niedrigem Default-Takt was, und zweitens, takten fast alle Customs wesentlich höher und somit noch stärker ins Bandbreitenlimit. Bei Tonga muss man den Speichertakt nie erhöhen.
Außerdem sollte einem langjährigen Leser hier klar sein, dass Hawaii wesentlich älter als GM204 ist und somit keine vergleichbar effektive Delta Color Compression haben kann.
Du versuchst aber genau das zu suggerieren, was ein dreckiger Hütchenspieler-Trick ist.

Locuza
2015-03-03, 20:35:57
http://finance.yahoo.com/news/amd-takes-aim-exceptional-content-180000735.html

Nicht Fiji aber im Zusammenhang mit Amd Gpu. VR Technologie
RIP das ist viel zu awesome, um einfach einen Link hin zu schreiben. :eek:

Jetzt weiß ich auch, wieso Timothy Lottes bei AMD arbeitet:

Significant features of version 1.0 of the LiquidVR SDK include:

-Async Shaders for smooth head-tracking enabling Hardware-Accelerated Time Warp, a technology that uses updated information on a user's head position after a frame has been rendered and then warps the image to reflect the new viewpoint just before sending it to a VR headset, effectively minimizing latency between when a user turns their head and what appears on screen.

- Affinity Multi-GPU for scalable rendering, a technology that allows multiple GPUs to work together to improve frame rates in VR applications by allowing them to assign work to run on specific GPUs. Each GPU renders the viewpoint from one eye, and then composites the outputs into a single stereo 3D image. With this technology, multi-GPU configurations become ideal for high performance VR rendering, delivering high frame rates for a smoother experience.

- Latest data latch for smooth head-tracking, a programming mechanism that helps get head tracking data from the head-mounted display to the GPU as quickly as possible by binding data as close to real-time as possible, practically eliminating any API overhead and removing latency.

- Direct-to-display for intuitively attaching VR headsets, to deliver a seamless plug-and-play virtual reality experience from an AMD Radeon™ graphics card to a connected VR headset, while enabling features such as booting directly to the display or using extended display features within Windows.

AMD released the alpha version of LiquidVR SDK 1.0 to registered developers today.
http://finance.yahoo.com/news/amd-takes-aim-exceptional-content-180000735.html (hyperlink ist besser)

Nett zusammengefasst von vrfocus:
http://vrfocus.com/archives/12336/amd-announces-new-vr-hmd/

M4xw0lf
2015-03-03, 20:41:04
http://www.amd.com/en-us/innovations/software-technologies/technologies-gaming/vr

AMD hat sogar schon selbst eine Seite darüber. ;)
Dem Text fehlt natürlich noch die extra Schippe Nvidia-style Awesomenes, um den Ottonormalverbraucher spitz zu machen.

fondness
2015-03-03, 21:02:29
Zwei Folien plus: http://www.engadget.com/2015/03/03/amd-liquid-vr/?a_dgi=aolshare_twitter

When asked about whether or not AMD is also working with HTC and Valve on the HTC Vive headset, AMD reps hilariously clammed up and asked whether or not they could talk about that yet. Sounds like the answer is yes!

/Edit: Alle Folien: http://www.slashgear.com/amd-liquidvr-sdk-1-0-launching-today-03371816/

MadManniMan
2015-03-03, 21:05:48
Liest sich so, als könnte ich mich tatsächlich dazu genötigt fühlen, irgendwann in der nächsten Zeit gleich zwei Grafikkarten in meinen dann zu kaufenden PC zu stopfen. Verdammte Axt! :eek:

M4xw0lf
2015-03-03, 21:10:37
Eine GPU pro Auge klingt tatsächlich nach dem sinnvollsten mGPU-Ansatz überhaupt.

Godmode
2015-03-03, 21:19:15
Eine GPU pro Auge klingt tatsächlich nach dem sinnvollsten mGPU-Ansatz überhaupt.

Am coolsten wäre halt wenn man 4 GPUs verwenden könnte. Also zwei GPUs im SFR-Mode pro Auge. Dann könnte man auch ordentliche FPS erzielen. Blöd nur das SFR schlecht skaliert. Man kann nur auf die neuen APIs hoffen.

Locuza
2015-03-03, 21:19:48
Ja, mit dem ganzen VR-Hype macht Multi-GPU beängstigenden Sinn.
Bin auch gespannt, welche GPUs unterstützt werden.

Der "Insider" der bezüglich DX12 über die "Tiers" gesprochen hat und anderes Zeug, meinte Tonga hat einige VR-Techniken implementiert.
Also könnte der Support für ältere GPUs beschränkt sein.

Blediator16
2015-03-03, 21:22:01
Ja, mit dem ganzen VR-Hype macht Multi-GPU beängstigenden Sinn.
Bin auch gespannt, welche GPUs unterstützt werden.

Der "Insider" der bezüglich DX12 über die "Tiers" gesprochen hat und anderes Zeug, meinte Tonga hat einige VR-Techniken implementiert.
Also könnte der Support für ältere GPUs beschränkt sein.

VR ist im Normalfall eh nicht die Preisklasse, wo Tongakäufer sich aufhalten und bis VR reif ist, ist Tonga alte Kamelle.

Locuza
2015-03-03, 21:29:00
Also für die erste "gute" VR-Erfahrung wird man sicher tief in die Tasche greifen müssen.
Allerdings scheint das ganze Ende 2015 vom Stapel zu laufen, entsprechend wichtig ist es am Start dabei zu sein und eine gute Unterstützung zu liefern.
GCN IP v8 scheint in der Richtung etwas speziell angepasst zu haben.

Fiji Starter Kit with Liquid VR for your Occulus/Vive oder so ähnlich ;)

Kriton
2015-03-03, 21:32:38
VR ist im Normalfall eh nicht die Preisklasse, wo Tongakäufer sich aufhalten und bis VR reif ist, ist Tonga alte Kamelle.

Weiß ich nicht. Ich gebe auch nicht 500,- € für eine Grafikkarte aus, aber VR interessiert mich (ggfs. als Monitorersatz bei Spielen generell).

iuno
2015-03-04, 13:05:13
Weiß ich nicht. Ich gebe auch nicht 500,- € für eine Grafikkarte aus, aber VR interessiert mich (ggfs. als Monitorersatz bei Spielen generell).
Das sehe ich genauso. Als Spieler werden sich imho zukünftig schon einige überlegen, ob man sich einen neuen, großen Monitor holt oder – möglicherweise für denselben Preis – ein HMD... Das hat meiner Meinung nach nicht direkt damit zu tun, ob ich eine Grafikkarte für 250 oder 500€ kaufe.
Klar braucht man für VR eigentlich noch höhere Frameraten, aber es gibt immer noch einen riesen Hype um Oculus und viele werden das Feeling wollen, auch ohne absolute High-end Grafikkarte.

GCN IP v8 scheint in der Richtung etwas speziell angepasst zu haben.
Wenn ich mich recht erinnere, hieß es seitens AMD schon vor geraumer Zeit, dass GCN in Sachen Latenzen Vorteile für VR ggü. der Konkurrenz bietet, richtig ins Detail ging man damals aber natürlich noch nicht

M4xw0lf
2015-03-04, 14:03:58
Hallock oder Huddy (oder ein anderer AMD-Mensch) ließ während der Twitter-Aktion mit "tausche R9 290 (X) gegen GTX970" mal etwas davon verlauten, dass die ACEs "later this year" für VR wichtig würden. Was jetzt mit LiquidVR offiziell ist.

Unicous
2015-03-04, 17:29:45
Hallock war es sicherlich. Huddy, labert seit er wieder bei AMD ist nur Scheiße, weil er noch nicht mal richtig über die Produkte unterrichtet ist.


hardware.fr behauptet übrigens, dass LiquidVR auf einer "neuen" GPU berechnet wurde, und es sie meinen es war Fiji.

https://translate.googleusercontent.com/translate_c?depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.com&sl=auto&tl=en&u=http://www.hardware.fr/news/14109/gdc-amd-mise-vr-annonce-liquidvr.html&usg=ALkJrhgQwRhPViy068HIpLk3THw--QhpyQ

bzw. http://www.hardware.fr/news/14109/gdc-amd-mise-vr-annonce-liquidvr.html

Und es geistert das Gerücht umher, die 380X würde 319 Dollar kosten, die 390X 499 Dollar.

Menace
2015-03-04, 17:57:11
Gibt es eigentlich auf der GDC jenseits des Mantle-Termins noch ein Termin von AMD?

Schnoesel
2015-03-04, 19:31:40
Da sind alle Events:

http://developer.amd.com/community/events/amd-gdc-2015/

Menace
2015-03-04, 20:25:13
Danke Schnoesel. Dann rechne ich mal mit keinen Hinweisen auf die R8XX-Karten.

john carmack
2015-03-04, 20:37:36
Und es geistert das Gerücht umher, die 380X würde 319 Dollar kosten, die 390X 499 Dollar.


Hört sich nach normalen AMD Preisen an. Nur die 319$ kommen mir ein bischen zu wenig vor.
Die 290X hatte glaub auch nicht mehr als 499$ zur Einführung gekostet.

Ist irgendwas zum NDA bekannt?
Ich will jetzt handfeste Infos! ;)

Vor allem nachdem NV mit der TitanX spoilert :freak:

Troyan
2015-03-04, 20:39:25
Die 290X kostete $549 zum Launch.

Und glaubt man den Gerüchten, wäre die 280X eine umbenannte 290X...

Botcruscher
2015-03-04, 20:39:54
319 passen doch zu einem Hawei rebrand.

john carmack
2015-03-04, 20:45:50
Tonga XT (370/370X) wäre auch interessant...
Zu dem Chip gibt es aber anscheinend auch keine Infos, oder?

fondness
2015-03-05, 10:52:29
AMD's Next Radeon Flagship Spotted Powering Oculus Rift: http://www.tomshardware.com/news/amd-radeon-r9-oculus-rift,27298.html

I saw a demonstration of Showdown running on the Oculus Rift Crescent Bay, being powered by an unannounced Radeon R9 flagship ultra-enthusiast product. Those words, in their exactness, were told to me officially, as in on the record, by AMD.

horn 12
2015-03-05, 13:34:49
Bitte wann startet das Event Heute von AMD
Hoffe jene sind so klug und verraten einige, wenige Details.

Unicous
2015-03-05, 13:53:25
Es gibt kein Event. Heute wird Vulkan offiziell auf der GDC vorgestellt, TressFX 3.0 beim neuen Deus Ex Teil und AMD ist der DX 12 Präsentation.

Blediator16
2015-03-05, 14:26:20
http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-to-introduce-its-radeon-r9-300-series-lineup-at-computex/

Könnte natürlich mal wieder ein genialer Schachtzug der AMD Riege werden. Einfach den "alten Schrott" solange verkaufen, bis man es nötig haben könnte mal was gegen die Konkurrenz zu stellen, was technologisch auf einem Level spielt. :freak:

Dural
2015-03-05, 14:29:21
Immer dieses Preis Theater, der Verkaufspreis ist so ziemlich das letzte was bei einem Produkt festgelegt wird, klar gibt es einen "Platzhalter" oder eine Zielvorgabe, diese stimmt aber selten mit dem tatsächlichen Verkaufspreis überein, da man selten die Kursentwicklung, Rohstoffe, Herstellungs und vor allem Marktpreise zum Voraus genau einschätzen kann. Heute sind wir in der Gerüchte Küche ja schon soweit das einige schon ein halbes Jahr zum Voraus den Preis für Produkt XY kenn wollen, bescheuert!

Dimitri Mayakovsky
2015-03-05, 14:33:28
“We are confident that as we get into the second half of 2015 with the launch of that [new graphics] product, we will gain back the market share which is low from my standpoint and historically,” said Devinder Kumar, chief financial officer of AMD. “We need to be significantly higher than where we are right now.”
"Präsentation" auf der Computex und tatsächlicher Produktstart erst im Q3.

NVIDIA freut sich, nochmal drei Monate ohne Konkurrenz.

Nakai
2015-03-05, 14:35:21
http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-to-introduce-its-radeon-r9-300-series-lineup-at-computex/

Könnte natürlich mal wieder ein genialer Schachtzug der AMD Riege werden. Einfach den "alten Schrott" solange verkaufen, bis man es nötig haben könnte mal was gegen die Konkurrenz zu stellen, was technologisch auf einem Level spielt. :freak:

Im Artikel steht was von "all-new", was ich nicht erkennen kann. Nirgends werden neue GPUs oder Karten "geleakt". Ich würde keine weiteren "neuen" GPUs wie Tonga XT oder Fiji erwarten.

Unicous
2015-03-05, 14:41:28
"Präsentation" auf der Computex und tatsächlicher Produktstart erst im Q3.

NVIDIA freut sich, nochmal drei Monate ohne Konkurrenz.

Steht da nicht, erzähl nicht so einen Blödsinn. Kumar ist der CFO. Er sagt lediglich dass man ab der zweiten Jahreshälfte hofft (die verlorenen) Marktanteile zurückerobern, weil sie momentan sehr gering sind.
Juni ist der letzte Monat im Q2, bzw. H1. Man kann also nicht davon ausgehen, dass AMD innerhalb eines Monats Marktanteile im zweistelligen Prozent(punkte)bereich zurückgewinnt.

Dimitri Mayakovsky
2015-03-05, 14:58:49
Steht da nicht, erzähl nicht so einen Blödsinn. Kumar ist der CFO. Er sagt lediglich dass man ab der zweiten Jahreshälfte hofft (die verlorenen) Marktanteile zurückerobern, weil sie momentan sehr gering sind.
Den Satz kann man so und so interpretieren, auch durchaus als Launch der Produkte erst nach Q2. Könnte auch auf einen Mittelweg hin deuten, also beispielsweise eines Paperlaunches im Juni, wirkliche Verfügbarkeit erst im Sommer. Frühes Q2 hat sich zumindest schon mal erledigt.

Unicous
2015-03-05, 15:03:52
Man kann den Satz auch einfach gar nicht interpretieren, weil Kumar in der Vergangenheit öfter aus seinem Popo gesprochen hat. Es könnte sogar sein, dass die 300er Serie erst 2017 gelauncht wird, aber Kumar hat sich daran im Nachhinein "falsch erinnert".

Außerdem ist der Satz offensichtlich aus dem Zusammenhang gezogen und ich schätze er kommt von der Telefonkonferenz die vor zwei Tagen stattfand und von der jetzt isoliert Kommentare gemopst werden und durch die IT-Seiten zirkulieren.

HOT
2015-03-05, 15:22:38
Das Ganze macht aber aus meiner Sicht Sinn. Vllt. gab es wirklich mal die Planung, nur Fiji und Tonga (und Samoa) neu zu machen und den Rest dann zu rebranden. Das zerschlug sich offenbar aber schon früh in 2014 (und wird erst jetzt kommuniziert) und man legte 3 weitere Chips auf (Grenada, Trinidad, Tobago als Caribbean Islands), um GloFo besser auszulasten.
Wenn man Fiji noch weiter verzögert, kommt man vllt. auch noch an größere HBM-Speicher.

Hübie
2015-03-05, 15:24:27
Glaube kaum dass man '14 Chips "auflegt" die man '15 kaufen kann ;) Oder hab ich dich falsch verstanden???

M4xw0lf
2015-03-05, 15:26:33
Und wo ist eigentlich der Be- oder auch nur Hinweis, dass irgendeine GPU bei GloFo in 28nm gefertigt wird?

Unicous
2015-03-05, 15:33:32
Den Be-weis hat AMD vor Monaten in einem ihrer Earnings Calls geliefert.

Ich gehe aber doch davon aus, dass Fiji und Bermuda bei TSMC gefertigt werden und dann bei GF das Package mit GPU und HBM bestückt wird.
Kleinere "rebrand" GPUs könnte man aber sehr wohl bei GF fertigen lassen.

Blediator16
2015-03-05, 15:38:16
So eine Verschiebung macht überhaupt keinen Sinn, da die größere Karte leistungs und preistechnisch normalerweise nicht in Hawaiis Liga spielen sollte von daher hätte man sie Zeitnah auf den Markt werfen können. Da ist was anderes im Busch.

Unicous
2015-03-05, 15:43:50
Es steht doch in deinem von dir verlinkten Artikel drin?

Es macht so viel Sinn wie es nur Sinn machen kann. AMD wird ihre Hawaiis nicht los. Sie haben anfangs zu wenige und später zu viele gehabt, das rächt sich jetzt. Hinzu kam dann Maxwell Ende Q3'14.

Akkarin
2015-03-05, 15:56:37
Evt. waren ja 2 karten geplant, einmal Fiji als 390 und einmal ein 290 Ersatz. Fiji könnte man ja immer noch jetzt vorstellen (weil es den Hawaii verkauf nicht unbedingt behindert), und den 290 Ersatz auf die Computex verschieben bis Hawaii abverkauft ist.

Blediator16
2015-03-05, 15:59:07
Es steht doch in deinem von dir verlinkten Artikel drin?

Es macht so viel Sinn wie es nur Sinn machen kann. AMD wird ihre Hawaiis nicht los. Sie haben anfangs zu wenige und später zu viele gehabt, das rächt sich jetzt. Hinzu kam dann Maxwell Ende Q3'14.

Nochmal 3-4 Monate warten bringts auch nicht. Sie sollen etwas schnelleres als Hawaii bringen und den Preis etwas anpassen. Wenn ein Produkt nicht weggeht, dann hat das immer seine Gründe.

HOT
2015-03-05, 16:09:08
Es steht doch in deinem von dir verlinkten Artikel drin?

Es macht so viel Sinn wie es nur Sinn machen kann. AMD wird ihre Hawaiis nicht los. Sie haben anfangs zu wenige und später zu viele gehabt, das rächt sich jetzt. Hinzu kam dann Maxwell Ende Q3'14.
Das mag ohne 970 Katastrophe zutreffend gewesen sein, aber mit - nein. Man wird Hawaii ja jetzt auch bis Mitte 2015 verkaufen, danach gibts halt Grenada, welcher mit Sicherheit nicht einfach nur Hawaii wird, sonst hätte man jetzt schon die 380er vorgestellt, nur um was Neues im Portfolio zu haben. Es gibt schlicht und ergreifend keine Rebrands.
Und wo ist eigentlich der Be- oder auch nur Hinweis, dass irgendeine GPU bei GloFo in 28nm gefertigt wird?
Sinn = weniger Kosten. Die müssen ihre Produktionsmengen bei GloFo einhalten und wie wäre es einfacher als mit GPUs, die sich bis 2017 verkaufen lassen. Die hätten eh ne neue Serie auflegen müssen, man kann mit Chips wie Pitcairn nicht bis 2017 durchhalten. Nun hat man das halt vorgezogen, 20nm komplett gecancelt und und dafür nach GloFo verlagert. So fliegen halt die alten Chips aus dem Portfolio raus, CapVerde, Tahiti und Hawaii bleiben für den professionellen Bereich in Kleinserie übrig, der Rest (bis auf Fiji und Tonga halt) kommt dann eben neu von GloFo.

Zudem war schon lange die Rede davon, dass AMD bei GloFo in 28nm GPUs fertigen lässt und AMD hat das auch selbst kommuniziert, dass das im Hinblick auf die Abnahmemengengarantien eine sinnvolle Strategie ist.

Unicous
2015-03-05, 16:17:01
Welche Katastrophe?:confused:

Die return rates waren im niedrigen einstelligen Bereich. Das sind bei ich schätze mal 60/40 (oder 70/30?) also 600000 von 1 Million, zwischen 6000 bis 30000 Stück (angenommen 1-5%).

Und die "Katastrophe" begann erst dieses Jahr. AMD hatte aber das ganze Jahr zu kämpfen, erst zu wenig, dann zu viel, dann Maxwell.

Das hat AMD mehrfach! zugegeben, der Maxwell nod von Kumar hingegen ist neu.

Ihr braucht keine Verschwörungstheorien zu bemühen, AMD hat sich verkalkuliert und hat es nicht geschafft, das auszugleichen. Es gab ja auch Gerüchte, dass AMD wichtige Komponenten von ihren Zulieferen nicht bekommen haben und dadurch ein Engpass entstanden ist.

Thunder99
2015-03-05, 17:11:57
Die Verschiebung könnte doch was damit zu tun haben, dass sie unbedingt 8GB Karten releasen wollen, oder? :confused:

Titan X spielt in einer anderen (Preis)Liga, daher wird es AMD erst mal weniger jucken

Ailuros
2015-03-05, 17:19:08
Es gibt keine neue Verschiebung; die heutigen projezierten Vorstellungszeiten liegen schon seit langem fest (wenn jemand die Geruechte ausfuehrlich genug verfolgt hat); den moeglichen Grund will ich auch nicht erwaehnen er klingt mir ehrlich gesagt zu bloed wenn nicht gleich peinlich.

Ausser es hat sich etwas geaendert dem ich nicht bewusst bin lauten meine Infos Fiji fast am Ende von Q2 und Bermuda deutlich spaeter. Muss nicht stimmen, denn wie ich schon im Maxwell thread sagte die Unmenge an Bloedsinn die fuer die GPUs im Hintergrund herumschwirrt ist unglaublich. Wer glaubt dass ich bescheisse mein Geburtstag ist am 31.05. fuer diejenigen die aufpassen ;)

wuzetti
2015-03-05, 17:55:52
Dieser "mögliche Grund" wär aber trotzdem seeehr interessant, so schwachsinnig er auch sein mag :biggrin:

Blediator16
2015-03-05, 18:16:16
Dieser "mögliche Grund" wär aber trotzdem seeehr interessant, so schwachsinnig er auch sein mag :biggrin:

Rotorblätter des Lüfters sitzt nicht richtig. Blatt 8 muss abgegepfeilt werden :cool:

HOT
2015-03-05, 18:17:33
Welche Katastrophe?:confused:

Die return rates waren im niedrigen einstelligen Bereich. Das sind bei ich schätze mal 60/40 (oder 70/30?) also 600000 von 1 Million, zwischen 6000 bis 30000 Stück (angenommen 1-5%).

Und die "Katastrophe" begann erst dieses Jahr. AMD hatte aber das ganze Jahr zu kämpfen, erst zu wenig, dann zu viel, dann Maxwell.

Das hat AMD mehrfach! zugegeben, der Maxwell nod von Kumar hingegen ist neu.

Ihr braucht keine Verschwörungstheorien zu bemühen, AMD hat sich verkalkuliert und hat es nicht geschafft, das auszugleichen. Es gab ja auch Gerüchte, dass AMD wichtige Komponenten von ihren Zulieferen nicht bekommen haben und dadurch ein Engpass entstanden ist.

Jo genau. Allerdings rede ich ja nicht von Rückläufern, sondern von den Leuten, die sich nach dem Bekanntwerden des Speicherspielchens eher für eine Hawaii entschieden haben. Das war eher ne Marketingkatastrophe ;).

Die Verschiebung könnte doch was damit zu tun haben, dass sie unbedingt 8GB Karten releasen wollen, oder? :confused:

Titan X spielt in einer anderen (Preis)Liga, daher wird es AMD erst mal weniger jucken
Genau. Zum Einen das und zum Anderen dürften die bis dahin die GloFo-Chips (Caribbean Islands) fertighaben.

R.I.P.
2015-03-05, 18:31:10
Oh Mann, oh Mann, wenn Inkompetenz mit Pech eine Einigung eingeht dann ist die Kacke am Dampfen :(

Ich verstehe AMD kein Bisschen: Zeigt doch mal eure verdammten neuen GPUs um die Leute bei der Stange zu halten! VR Zeug ist ne geile Geschichte aber nichts handfestes...wir Proleten wollen doch nur unterhalten werden und ne show sehen, ganz egal ob sie wahrheitsgemäß verläuft oder nicht. MMn wird es keine Rebrands geben, sondern GCN Updates auf dem letzten Stand der Technik. Nur hätte man das 970 Debakel besser ausnutzen können, wenn man vorbereitet gewesen wäre...

Unicous
2015-03-05, 18:31:45
@HOT

Nö, die haben sich im Zweifelsfall für eine 980 entschieden. Wo liegt denn schon wieder das Problem. AMD hat in mehreren earnings calls verlautbart, dass sie Probleme mit dem Absatz haben und jetzt willst du uns erzählen, dass sie zig Tausend 290X verkauft haben? Die OEMs haben sich sogar bei AMD beschwert und sie haben daraufhin die Zulieferung von Chips verringert oder gar eingestellt.


8GB Karten kann es nur geben wenn Sk hynix die Kapazität des einzelnen Stacks verdoppelt. denn es ist nicht spec-konform. Ob sie das machen, wissen wir nicht. Und wenn ich Ailuros richtig interpretiere ist es das auch nicht.

Gipsel
2015-03-05, 19:45:15
8GB Karten kann es nur geben wenn Sk hynix die Kapazität des einzelnen Stacks verdoppelt. denn es ist nicht spec-konform.Der erste Satz stimmt, aber natürlich wäre es Spec-konform. Auch die HBM1-Spec gibt mindestens 4 GB pro Stack her, falls es jemand bauen will (müßte mal nachsehen, vermutlich sogar noch mehr [edit: es gehen theoretisch bis 32GB pro Stack innerhalb der Spec]).

Unicous
2015-03-05, 19:51:55
:confused:

Das beißt sich ganz entschieden mit den Aussagen die Sk hynix macht.

http://www.kitguru.net/wp-content/uploads/2014/11/sk_hynix_hbm_dram_2.jpg
Die offizielle JEDEC Spec hat außer dir glaube ich keiner eingesehen.:wink:

Skysnake
2015-03-05, 20:04:26
Nur weil etwas laut Spec möglich ist, muss man es noch lange nicht bauen ;)

Schau dir doch z.B. mal PCI-E an. Da sind auch 32x Interfaces specifiziert. Dennoch baut es niemand. Zumindest wäre mir niemand bekannt.

Unicous
2015-03-05, 20:14:50
Lies dir den Thread durch.:rolleyes: Das habe ich schon zigtausend mal gesagt. Es ist nicht spec-konform (laut Hynix), aber sie könnten es natürlich trotzdem für AMD machen.

Gipsel
2015-03-05, 20:28:05
:confused:

Das beißt sich ganz entschieden mit den Aussagen die Sk hynix macht.

http://www.kitguru.net/wp-content/uploads/2014/11/sk_hynix_hbm_dram_2.jpg
Die offizielle JEDEC Spec hat außer dir glaube ich keiner eingesehen.:wink:Da beißt sich gar nichts. Das sind die öffentlich angekündigten Produktpläne von Hynix. Die Spec kümmert sich nicht darum, welche Kapazität jeder Die hat oder auch wie hoch der Stack ist. Spezifiziert sind dafür z.B. das Layout der Kontakte auf der Unterseite des Stacks und wie die (bis zu) 8 Kanäle pro Stack angesprochen werden. Niemand verbietet aber Irgendwem, einen Stack mit 8 Kanälen nur mit zwei Dies oder gar nur einem zu bauen, oder einen Kanal auch über zwei (oder mehr) Dies zu verteilen (Letzteres wird nur arg unwahrscheinlich gebaut werden, da mehr Dies gestackt werden müßten). Und die Spec sieht halt schlicht insgesamt 27 Adressbits (Summe aus Row-, Column- und Bank-Adressbits) pro Kanal vor, was bei einer Zugriffsgranularität von 2^8Bits eine maximale Kapazität von 2^35 Bits oder 2^32 Bytes pro Kanal, also 2^35 Bytes pro Stack (mit 8 Kanälen) ergibt. Die maximale Kapazität von 32 GBit pro Kanal wird übrigens schon in der Einleitung der HBM-Spec auf Seite 1 genannt ;).
http://abload.de/img/hbm-featurescpuk0.png

Edit:
Lies dir den Thread durch.:rolleyes: Das habe ich schon zigtausend mal gesagt. Es ist nicht spec-konform (laut Hynix), aber sie könnten es natürlich trotzdem für AMD machen.Lies Dir den Thread durch! Hynix sagt doch gar nicht, was Spec-konform wäre und was nicht. :rolleyes:
;)

Unicous
2015-03-05, 20:37:59
Du hast eben Informationen, die uns verborgen bleiben, weil wir Gossenkinder keinen Zugang zur Spec haben.:tongue:

So gesehen scheitert es letzten Endes an dem Willen von hynix bzw. dem momentan Machbaren.

iuno
2015-03-05, 20:39:52
Da beißt sich gar nichts. Das sind die öffentlich angekündigten Produktpläne von Hynix.
[...]
Lies Dir den Thread durch! Hynix sagt doch gar nicht, was Spec-konform wäre und was nicht. :rolleyes:
;)

Naja, die Überschrift der Folie lautet "HBM Overall specification". Ich glaube daher sind davon hier einige ausgegangen. Die meisten hatten ja keine Einsicht in die offzielle Spezifikation ;)
Dann ist eine 8 GiB Variante für Fiji doch gar nicht so weit hergeholt, aber Hynix müsste eben immer noch extra für AMD (abweichend von den eigenen Plänen) 4x4Gb auf einen Stack packen

Gipsel
2015-03-05, 20:45:44
Du hast eben Informationen, die uns verborgen bleiben, weil wir Gossenkinder keinen Zugang zur Spec haben.:tongue:
Die meisten hatten ja keine Einsicht in die offzielle Spezifikation ;)
Die Spec kann sich jeder nach (kostenloser) Registrierung herunterladen. Man muß nur zustimmen, daß man die nicht weiterverteilt.
Aber für die meisten ist so eine Spec ja auch recht wertlos, weil man damit nicht so viel anfangen kann.

Unicous
2015-03-05, 20:49:47
@iuno

Davon bin ich die ganze Zeit ausgegangen. Ich dachte hynix würde nur die offizielle JEDEC Spec zitieren, dabei haben sie nur "ihre" Spec zitiert. Und Gipsel hat das mE nie so deutlich gemacht wie jetzt (und sogar mit screenshot-Beweis).


@Gipsel
Extra bei der JEDEC kostenlos registrieren ist eine zu hohe Hürde für mich.

iuno
2015-03-05, 20:58:13
@Gipsel: gut, das wusste ich auch nicht :D
@Unicous: so ging es mir ja auch ;)
Also ist auch überhaupt keine "Generation 1 + 2" spezifiziert, das sind nur Hynix' Produktpläne ;D

Mandalore
2015-03-05, 22:13:56
AMD will das R9 300 Series LineUp auf der Computex 2015 vorstellen um Verkäufe der anderen Karten (Hawaii usw.) zu nicht beeinträchtigen.


http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-to-introduce-its-radeon-r9-300-series-lineup-at-computex/


Ein kleiner SneakPeak ohne Leistungswerte wäre für AMD sehr wichtig gewesen um Nvidia die Show zu stehlen, naja Marketing ist nicht mein Ding vllt. liege ich auch falsch....

Schnoesel
2015-03-05, 22:30:18
AMD könnte sich mal eine Teaser erlauben. Nvidia hats mit Fermi ein halbes Jahr so gemacht, möchte gar nicht wissen wie viele da bei dem Holzteil ein feuchtes Höschen bekommen haben und sich extra nicht die 5870 geholt haben. AMD muss endlich lernen Begehrlichkeiten zu wecken.

Thunder99
2015-03-05, 22:39:23
gescheiten Fixer 4 machen :D, Titan X wird zerstört damit ein Fiji ihn erlösen kann ;D

john carmack
2015-03-05, 23:25:05
Ich bin auch der Meinung das sich AMD einfach mal was trauen sollte.

Aber das Geld sitzt nun mal nicht locker, deswegen sind sie wohl auch sehr vorsichtig geworden.
Schade eigentlich! Dabei gab und gibt es viele Chancen NV in die Suppe zu spucken.
Naja - Die Marketingabteilung von AMD war sowieso noch nie so toll.

Man kann halt auch an der falschen Stelle sparen!

Bin mal gespannt was Fiji wirklich bringt und sich die GPU mit GM200 anlegen kann.

Am Ende wird es so kommen wie immer P/L gut - der Rest ist dann ganz leicht schlechter als NV GPU´s

We will see........

OBrian
2015-03-06, 01:07:00
Euer Streit wegen der Spezifikationen kommt wohl daher, daß "specifications" zwei Bedeutungen haben kann, einmal als bindende Vorschrift, d.h. die JEDEC sagt "baut es so oder gar nicht". Und andererseits kann es auch einfach als "technische Eigenschaften" übersetzt werden, wenn der Hersteller sein Produkt beschreibt. D.h. auf der Hynix-Folie steht nur, was sie aktuell anbieten. Daß sie da verschweigen, daß sie die JEDEC-Vorgaben (oder besser gesagt Möglichkeiten) noch nicht ansatzweise ausreizen können, ist ja verständlich.

Unicous
2015-03-06, 01:19:57
AMD durchstößt die TropoPROsphäre:

PRINTED CIRCUIT BOARD ASSEMBLY(VIDEO GRAPHIC CARD) AMD HFTROPO PROL 2GB GDDR5950E/1125M P/N:102-C90601-00

https://www.zauba.com/import-amd-c90601-hs-code.html

Und jetzt sagt mir mal bitte jemand wie das zusammen geht:

https://www.zauba.com/import-printed-circuit-board-assembly-102-strato-hs-code.html
STRATO PRO MXM B GDDR5X16 4G RINGUP P/N:102-[B]60072-00

und

c90601

:conf2:

Fibonacci?

Nakai
2015-03-06, 01:38:55
Bis jetzt wurden 3 Mobile-Boards "geleakt", Strato, Litho und Tropo. Drei Chips?

Es gibt keine neue Verschiebung; die heutigen projezierten Vorstellungszeiten liegen schon seit langem fest (wenn jemand die Geruechte ausfuehrlich genug verfolgt hat); den moeglichen Grund will ich auch nicht erwaehnen er klingt mir ehrlich gesagt zu bloed wenn nicht gleich peinlich.


Da wär ich ja schon sehr dran interessiert. ;)

Hübie
2015-03-06, 02:54:50
AMD durchstößt die TropoPROsphäre:


https://www.zauba.com/import-amd-c90601-hs-code.html

Und jetzt sagt mir mal bitte jemand wie das zusammen geht:

https://www.zauba.com/import-printed-circuit-board-assembly-102-strato-hs-code.html


und

c90601

:conf2:

Fibonacci?

Ehrlich gesagt verstehe ich nur Bahnhof. Der Zug bleibt stehen und der Bahnhof fährt los. Was ist an den Nummern jetzt so eigenartig?

Unicous
2015-03-06, 03:16:53
Du hast genau das beschrieben, was ich die ganze Zeit über die Nomenklatur der einzelnen SKUs/Samples denke. Es passt nichts zusammen. Ich bin wohl zu doof ein System dahinter zu erkennen.:freak:

Hübie
2015-03-06, 03:21:31
Was willst da auch groß an Infos rausziehen? Das wird eine Nummer sein die sich aus diversen Kriterien zusammensetzt. Solang du die nicht kennst kannst du raten. Mein Tipp: schick denen ne Mail mit der Bitte um Identifikation der Nummer. Da sitzen auch Menschen, weißt du? ;)

OBrian
2015-03-06, 04:10:10
also wenn das eine eine mobile Karte ist (da steht ja was von MXM) und das andere eine Desktop-Karte, ggf. auch für den Business- und nicht den Consumerbereich, dann kann das doch durchaus eine total andere Seriennummer sein.

Abgesehen davon wissen die bei AMD inzwischen sicherlich, daß in diversen Spekuforen diese Zauba-Seiten angeguckt werden, kann mir vorstellen, daß die inzwischen Unsinn zur Verwirrung reinschreiben. Der Text in der Spalte "Beschreibung" ist ja offensichtlich eh nur von informativem Charakter und nicht so wichtig wie Datum, Anzahl, Gewicht usw. der versandten Teile.

HOT
2015-03-06, 09:24:06
Es muss sich hierbei ja eigentlich um Samoa, Tinidad und Tobago handeln, in welcher Kombination auch immer.

Kriton
2015-03-06, 09:38:48
AMD könnte sich mal eine Teaser erlauben. Nvidia hats mit Fermi ein halbes Jahr so gemacht, möchte gar nicht wissen wie viele da bei dem Holzteil ein feuchtes Höschen bekommen haben und sich extra nicht die 5870 geholt haben. AMD muss endlich lernen Begehrlichkeiten zu wecken.

Na ja, es geht ihnen halt nicht darum Nvidia zu blockieren, sondern nicht die eigenen bisherigen (bereits produzierten) Karten zu kannibalisieren. Du kannst diesen Keks nicht essen und ihn behalten. Wenn sie Nvidia stören, stören sie auch sich selbst (ihre alten Karten). Man mag die entscheidung für falsch halten, aber wie gesagt: Einen Tod müssen sie sterben.

Kriton
2015-03-06, 09:40:50
Ehrlich gesagt verstehe ich nur Bahnhof. Der Zug bleibt stehen und der Bahnhof fährt los. Was ist an den Nummern jetzt so eigenartig?

https://www.youtube.com/watch?v=akLC_JMjpjA

Thunder99
2015-03-06, 10:19:08
Woher kommt der Spruch denn her? Ich schmeiß mich weg ;D ;D ;D (Video)

AMD sollte aber bald anfangen die Verkäufe von nvidia zu Kanalisieren, sonst sind die Wechselkäufer schon bald versorgt

Loeschzwerg
2015-03-06, 11:43:08
AMD durchstößt die TropoPROsphäre:


https://www.zauba.com/import-amd-c90601-hs-code.html

Und jetzt sagt mir mal bitte jemand wie das zusammen geht:

https://www.zauba.com/import-printed-circuit-board-assembly-102-strato-hs-code.html


und

c90601

:conf2:

Fibonacci?


Zahlendreher, Mobile, Bring-Up Board, MXM Interposer... such dir was aus ^^

Dural
2015-03-06, 12:48:25
Interessant das sie im 2H hoffentlich Marktanteile zurück gewinnen. Letztes Jahr hiess es noch das wir im 1H Marktanteile zurück Gewinnen ;)

Irgend was läuft bei AMD gerade deutlich schief, lauffähige Muster scheint es schon seit Wochen zu geben... :rolleyes:

Unicous
2015-03-06, 16:02:39
also wenn das eine eine mobile Karte ist (da steht ja was von MXM) und das andere eine Desktop-Karte, ggf. auch für den Business- und nicht den Consumerbereich, dann kann das doch durchaus eine total andere Seriennummer sein.

Abgesehen davon wissen die bei AMD inzwischen sicherlich, daß in diversen Spekuforen diese Zauba-Seiten angeguckt werden, kann mir vorstellen, daß die inzwischen Unsinn zur Verwirrung reinschreiben. Der Text in der Spalte "Beschreibung" ist ja offensichtlich eh nur von informativem Charakter und nicht so wichtig wie Datum, Anzahl, Gewicht usw. der versandten Teile.

Es hat sich nichts verändert, es gibt immer mal wieder Zahlendreher, fehlinterpretierte Buchstaben etc.. Die GPUs werden genauso deklariert wie vorher.

Es ist mit ziemlicher Sicherheit ein MXM-Board.

R.I.P.
2015-03-06, 16:23:30
Interessant das sie im 2H hoffentlich Marktanteile zurück gewinnen. Letztes Jahr hiess es noch das wir im 1H Marktanteile zurück Gewinnen ;)

Irgend was läuft bei AMD gerade deutlich schief, lauffähige Muster scheint es schon seit Wochen zu geben... :rolleyes:

Obwohl es kurzfristig durch dieses Verhalten aktientechnisch düster ausschaut, ist die Entscheidung finanztechnisch genial. Meine Meinung dazu: Beim Präsentieren der Zahlen vom ersten und zweiten Quartal wird es beschissen ausschauen, aber man wird Hinweise zu Design Wins und Investitionen aus China streuen. Ab H2 hat man Carizzo und die neue 3XX Serie und der Umsatz wird auf einem Schlag steigen, während man durch das Aufteilen der Neuigkeiten an Durchschlagskraft verliert hätte. Amd gehen du und ich einen feuchten Dreck an. Aktionäre sind das Ziel :) guter Zug auxh wenn ich noch länger warten muss...

Akkarin
2015-03-07, 09:34:29
Von AMDs DX12 und TressFX 3 Vorstellung hat man nichts mehr gehört ?

rentex
2015-03-11, 08:35:26
Man hat ausser DX12, gar nix von AMD, auf der GDC gesehen. Und die Fiji Karte, die angeblich am Occolus Stand gewerkelt hat, soll ne TitanX gewesen sein...*verwirr*

john carmack
2015-03-11, 08:49:56
3D Center:

"Dies hört sich natürlich verdächtig danach an, daß es sich bei Trinidad eventuell rein um eine (erneute) Wiederauflage des Pitcairn-Chips der Radeon HD 7800 Serie handeln könnte, welcher mittels des Curacao-Chips der Radeon R9 270 Serie bereits einmal eine glatte Wiederauflage feierte."

Sollte nicht die 280X (Tonga) zur 370X werden - Hawaii zur 380X und Fiji dann eben zur 390X?

Eine dritte Auflage der PitcairnGPU ohne große Änderungen kann ich mir kaum vorstellen...
Wäre schade drum.

Die ehemalige 7870 hatte in etwa die Leistung der GTX580...? Oder?

Dawn on Titan
2015-03-11, 08:53:22
Naja ich denek Freesync + VSR wird man dem Chip schon beigebracht haben.

M4xw0lf
2015-03-11, 09:22:49
Naja ich denek Freesync + VSR wird man dem Chip schon beigebracht haben.

Na hoffentlich, alles andere wäre katastrophal... würde mich aber nicht mal besonders überraschen, wenn es wirklich bei Pitcairn bleibt.

fondness
2015-03-11, 09:27:07
Trinidad plus Bermuda ist nicht High-End sondern Midrage:
http://videocardz.com/55051/xfx-radeon-r9-370-core-edition-leaks-out-coming-early-april

Dawn on Titan
2015-03-11, 09:47:42
Na hoffentlich, alles andere wäre katastrophal... würde mich aber nicht mal besonders überraschen, wenn es wirklich bei Pitcairn bleibt.

Ist ja auch nicht viel, was man da machen muss. Imho nur ein anderer Displaycontroller aufs PCB und VSR geht wahrscheinlich sowieso, wenn man will.

Screemer
2015-03-11, 11:22:23
Ist caicos so billig, dass sie nach x Jahren noch mal nen vliv chip rebranden wollen?

Unicous
2015-03-11, 11:32:58
Du siehst aber schon, dass da "Spekulation" drüber steht?

Datarecovery09
2015-03-11, 11:59:44
Vor allem die Tabelle weiter unten sieht verdammt "spekulativ" aus, wo der Autor zwischen der 370(X) und der 380(X) einfach mal eine 375(X) auf Tonga-Basis einpflegt... wie auch immer das dann passen soll.
Mir fällt jetzt aus dem Stegreif kein vernünftiger Grund ein, warum AMD so massiv vom bisherigen Namensschema abweichen sollte. Wenn es jemand besser weiß, dann bitte belehrt mich, aber für mich sieht das alles äußerst schräg aus.

Screemer
2015-03-11, 12:16:14
Du siehst aber schon, dass da "Spekulation" drüber steht?
warum nimmst du dir das dann nicht zu herzen? gibts in der größe von caicos alternativen, die 20 mios für ne maske rechtfertigen? das sind die fragen die meine frage von oben impliziert. naja.

Unicous
2015-03-11, 12:21:54
Du machst mich an, weil der gute IcrybecauseIhaveNoSources spekuliert und auf Basis dieser Spekulation spekulierst du über Caicos und Masken die laut dir 20 Mio. (Eier?) kosten?

20 Millionen. LOL.


Ey, nicht editieren. Unverschämt.

Screemer
2015-03-11, 12:45:13
was kostet ne belichtungsmaske nach deinem kenntnisstand? sinds mehr, sinds weniger? sinds weniger, warum zieht man so ein uraltes ding mit sich rum? spekuliere doch mal und mach nicht immer die leute an. hab deine posts echt mal gern gelesen, mittlerweile kotzt es mich großteils einfach nur noch an!

Nakai
2015-03-11, 13:23:23
Trinidad plus Bermuda ist nicht High-End sondern Midrage:
http://videocardz.com/55051/xfx-radeon-r9-370-core-edition-leaks-out-coming-early-april

Trinidad PRO ist also bestätigt? Was ist Trinidad? Tonga-Rebrand?

Trinidad sollte eher als R7 360/X verramscht werden. R9 370/X mit Tonga, R9 380/X Hawaii Rebrand und eben R9 390/X mit Fiji.

john carmack
2015-03-11, 13:44:15
Trinidad PRO ist also bestätigt? Was ist Trinidad? Tonga-Rebrand?

Trinidad sollte eher als R7 360/X verramscht werden. R9 370/X mit Tonga, R9 380/X Hawaii Rebrand und eben R9 390/X mit Fiji.

So hab ich mir das auch gedacht.

Hoffentlich gibt es Tonga bald günstiger!

Nakai
2015-03-11, 13:54:46
Naja wenn Fiji in etwa Hawaii+50% ist, dann sollte man das gesamte Lineup dementsprechend hochskalieren und da ist eben Tonga als R9 370/X anzusehen.
Das Einzige was wirklich interessant ist, ist die TDP, welche wirklich gering ist.
Das kann nicht wirklich Tonga sein, imo, außer man hat den Verbrauch drastisch senken können.

Wechsel auf GF?

N0Thing
2015-03-11, 14:09:22
Wechsel auf GF?

Für 14nm zu früh, 20nm für GPUs weiterhin nicht in Sicht und der von AMD für die CPUs verwendete 28nm und 32nm Prozess sicher nicht besser als TSMCs 28nm, sonst hätten sie schon deutlich früher gewechselt.

Hübie
2015-03-11, 14:20:42
Tja, dann wird Fiji vielleicht doch das Ende der Fahnenstange markieren? Das Fiji im April kommt mag ich aber bezweifeln. Wieso fängt man in der Mitte an? :| 370X ist mal sowas von *gähn*

Palpatin
2015-03-11, 14:21:22
Naja wenn Fiji in etwa Hawaii+50% ist, dann sollte man das gesamte Lineup dementsprechend hochskalieren und da ist eben Tonga als R9 370/X anzusehen.
Das Einzige was wirklich interessant ist, ist die TDP, welche wirklich gering ist.
Das kann nicht wirklich Tonga sein, imo, außer man hat den Verbrauch drastisch senken können.

Wechsel auf GF?
Wird ein nochmal in der Performance leicht verbesserter Pictarin mit stark gesenktem Verbrauch sein. Rechne mit 960 Performance für 150€-200€.

Agent117
2015-03-11, 14:21:35
Hmh vlt ja wirklich ein Curacao Rebrand.

Tonga wird dann die 380er Serie und Hawaii/Grenada die 390er Serie.
Was ist dann mit Fiji? Ganz einfach. Der bekommt auch einen (preis)prestigeträchtigen Namen wie Titan. Wie wäre es mit AMD Radeon Platin:tongue:

Diese Konstellation wäre für mich der absolute Worst Case.

fondness
2015-03-11, 14:23:13
Tja, dann wird Fiji vielleicht doch das Ende der Fahnenstange markieren? Das Fiji im April kommt mag ich aber bezweifeln. Wieso fängt man in der Mitte an? :| 370X ist mal sowas von *gähn*

Aus demselben Grund warum Nvidia mit GM107 angefangen hat.

rentex
2015-03-11, 14:53:57
Doofe Frage: Wieviel Vorlauf hat den eine GPU Gen? Sinds den 2 Jahre?

aufkrawall
2015-03-11, 14:57:16
Wird ein nochmal in der Performance leicht verbesserter Pictarin mit stark gesenktem Verbrauch sein. Rechne mit 960 Performance für 150€-200€.
Die 670 (ca. 960 Performance) hatte eher mit der 7970 konkurriert, wie soll das ein Pitcairn-Abkömmling schaffen?

M4xw0lf
2015-03-11, 15:22:39
Die 670 (ca. 960 Performance) hatte eher mit der 7970 konkurriert, wie soll das ein Pitcairn-Abkömmling schaffen?
In aktuelleren Titeln ist die 270X (Pitcairn) oft sehr nah dran an der GTX 670.

wuzetti
2015-03-11, 15:31:14
In diesem Test liegt die 960 als aktuellste Karte ziemlich genau zwischen 280 und 280X (= 7970):

http://www.computerbase.de/2015-02/acht-geforce-gtx-960-im-test/3/

Dürfte also schwierig werden für die 270X, oder übersehe ich da was?

Palpatin
2015-03-11, 15:34:14
Die 670 (ca. 960 Performance) hatte eher mit der 7970 konkurriert, wie soll das ein Pitcairn-Abkömmling schaffen?
Mit den Verbesserungen die Toga gegenüber Tahiti hatte plus noch ein wenig Optimierung mehr. Rein von der GPU Leistung liegt die 285 ja gut 10% über der 280 und das bei 60 Watt weniger TDP.
Die 960 ist ja nur etwa 15% schneller als die 270x. Viel muss da nicht aufgeholt werden.

Hübie
2015-03-11, 15:35:20
Aus demselben Grund warum Nvidia mit GM107 angefangen hat.

Das ist unten und man konnte es. Design war final. Hat AMD jetzt auch vor 1 Jahr verstreichen zu lassen eh man Performance und Enthusiast bringt?:biggrin:

Palpatin
2015-03-11, 15:35:27
Dürfte also schwierig werden für die 270X, oder übersehe ich da was?
Ja das die 270x nicht weit dahinter liegt: http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/3/ ;)

aufkrawall
2015-03-11, 15:37:09
In aktuelleren Titeln ist die 270X (Pitcairn) oft sehr nah dran an der GTX 670.
Tatsache, Pitcairn ist gar nicht schlecht dabei:
https://www.techpowerup.com/reviews/MSI/GTX_960_Gaming/6.html

Dawn on Titan
2015-03-11, 15:37:24
270X - 370
Tonga XT - 370X

Palpatin
2015-03-11, 15:39:36
Tatsache, Pitcairn ist gar nicht schlecht dabei:
https://www.techpowerup.com/reviews/MSI/GTX_960_Gaming/6.html
Könnte auch in Sonys intresse liegen das für eine immer wieder spekulierte PS4 Slim ein sehr effizienter Pictarin Nachfolger kommt, könnt ich mir vorstellen.

Unicous
2015-03-11, 15:50:11
Doofe Frage: Wieviel Vorlauf hat den eine GPU Gen? Sinds den 2 Jahre?

Kommt auf den Aufwand an, aber für eine komplett neue Gen sind es mehr als 2 Jahre. GCN wird sicherlich schon eine Weile in der Konzeptionsphase gewesen sein bevor dann 2011/2012 Tahiti gelaunched wurde. Für die einzelnen Revs bis zum fertigen Produkt können je nach Aufwand dann auch nochmal 2 Jahre vergehen.

boxleitnerb
2015-03-11, 15:53:27
Die 670 (ca. 960 Performance) hatte eher mit der 7970 konkurriert, wie soll das ein Pitcairn-Abkömmling schaffen?

280X liegt fast 20% vor der 960. Das ist sicher zu schaffen.

wuzetti
2015-03-11, 16:00:14
Ja das die 270x nicht weit dahinter liegt: http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/3/ ;)

Recht hast Du. Allerdings hat AMD in genau derselben 960er Leistungsklasse bereits die 285. Eh nu?

Unicous
2015-03-11, 16:08:26
Via S|A Forum:

Reference Guide für "GCN3". Im Dokument selbst wird aber bei einem Blockdiagramm auf GCN3 als Volcanic Islands verwiesen?:confused:

http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/07/AMD_GCN3_Instruction_Set_Architecture.pdf

M4xw0lf
2015-03-11, 16:11:31
GCN Generation 3 = GCN 1.2?

Locuza
2015-03-11, 16:12:06
Volcanic Islands ist ja auch GCN Gen 3.

Southern Islands Gen 1
Sea Islands Gen 2
Volcanic Islands Gen 3

Aber bevor ich zu hyped werde, erst einmal anschauen, aber davor schon kommentieren. :tongue:

Unicous
2015-03-11, 16:17:24
Hawaii ist GCN 1.1 (laut der Nomenklatur auf die u.a. wir uns geeinigt haben), also zweite Generation (und eigentlich Volcanic Islands). Tonga ist GCN 1.2, dritte Generation, irgendwie auch Volcanic Islands, vllt. aber auch nicht.

Du siehst, das passt nicht zusammen.

Edit:
Aso und Sea Islands sind lediglich OEM-Rebrands und haben nichts mit "Generationen" zu tun.

Locuza
2015-03-11, 16:26:09
Wir hatten doch schon vor vielen Monaten das Thema, dass AMD sein Zeug nicht kohärent beschreiben kann.

Southern Islands = IP v6 = GCN Gen 1 = GCN 1.0
Sea Islands = IP v7 = GCN Gen 2 = GCN 1.1
Volcanic Islands = IP v8 = GCN Gen 3 = GCN 1.2

AMD hat Southern Islands und Sea Islands technisch dokumentiert und Unterschiede gelistet.
Parallel dazu hat sich das Marketing vermutlich gedacht, dass Sea Islands ein guter Name für die Produkt-Familie 2013 sei, worunter jede mögliche Architektur/SKU fallen kann. (Das gleiche noch einmal bei Volcanic Islands)
Das ganze stand/steht dann natürlich mit der technischen Dokumentation im Widerspruch.

Entsprechend listet CodeXL einfach nur eine IP-Version.
Ich selber halte mich da auch gerne dran.
http://abload.de/img/codexlcku2r.jpg

Edit: Hier ist das Gold. :D
Differences Between GCN Generation 2 and 3 Devices

Important differences between Generation 2 and 3 GPUs

- Data Parallel ALU operations improve “Scan” and cross-lane operations.
- Scalar memory writes.
- In Generation 2, a kernel could read from a scalar data cache to retrieve
constant data. In Generation 3, that cache now supports reads and writes.
- Compute kernel context switching.
- Compute kernels now can be context-switched on and off the GPU.

Summary of kernel instruction change from Generation 2 to 3

- Modified many of the microcode formats: VOP3A, VOP3B, LDS, GDS,
MUBUF, MTBUF, MIMG, and EXP.

- SMRD microcode format is replaced with SMEM, now supporting reads and
writes.

- VGPR Indexing for VALU instructions.

New Instructions
– Scalar Memory Writes.
– S_CMP_EQ_U64, S_CMP_NE_U64.
– 16-bit floating point VALU instructions.
– “SDWA” – Sub Dword Addressing allows access to bytes and words of
VGPRs in VALU instructions.
– “DPP” – Data Parallel Processing allows VALU instructions to access
data from neighboring lanes.
– V_PERM_B32.
– DS_PERMUTE_RTN_B32, DS_BPERMPUTE_RTN_B32.

Removed Instructions
– V_MAC_LEGACY_F32
– V_CMPS* - now supported by V_CMP with the “clamp” bit set to 1.
– V_MULLIT_F32.
– V_{MIN, MAX, RCP, RSQ}_F32.
– V_{LOG, RCP, RSQ}_CLAMP_F32.
– V_{RCP, RSQ}_CLAMP_F64.
– V_MUL_LO_I32 (it’s functionally identical to V_MUL_LO_U32).
– All non-reverse shift instructions.
– LDS and Memory atomics: MIN, MAX and CMPSWAP on F32 and F64
data.

Removed Image Data Formats
– snorm_lz (aka: snorm_ogl)
– ubnorm
– ubnorm_nz (aka: ubnorm_ogl)
– ubint
– ubscaled

ndrs
2015-03-11, 16:57:37
Kommt auf den Aufwand an, aber für eine komplett neue Gen sind es mehr als 2 Jahre. GCN wird sicherlich schon eine Weile in der Konzeptionsphase gewesen sein bevor dann 2011/2012 Tahiti gelaunched wurde. Für die einzelnen Revs bis zum fertigen Produkt können je nach Aufwand dann auch nochmal 2 Jahre vergehen.
Irgendwo hatte ein AMDler mal gesagt, dass man direkt nach Release der ersten VLIW5-Inkarnation mit der GCN-Entwicklung begonnen hat.

Skysnake
2015-03-11, 17:00:26
Wir hatten doch schon vor vielen Monaten das Thema, dass AMD sein Zeug nicht kohärent beschreiben kann.

Southern Islands = IP v6 = GCN Gen 1 = GCN 1.0
Sea Islands = IP v7 = GCN Gen 2 = GCN 1.1
Volcanic Islands = IP v8 = GCN Gen 3 = GCN 1.2

AMD hat Southern Islands und Sea Islands technisch dokumentiert und Unterschiede gelistet.
Parallel dazu hat sich das Marketing vermutlich gedacht, dass Sea Islands ein guter Name für die Produkt-Familie 2013 sei, worunter jede mögliche Architektur/SKU fallen kann. (Das gleiche noch einmal bei Volcanic Islands)
Das ganze stand/steht dann natürlich mit der technischen Dokumentation im Widerspruch.

Entsprechend listet CodeXL einfach nur eine IP-Version.
Ich selber halte mich da auch gerne dran.
http://abload.de/img/codexlcku2r.jpg

Edit: Hier ist das Gold. :D
Seh ich das richtig, dass die ziemlich viele Instructionen rausgeworfen haben? :(

Locuza
2015-03-11, 17:09:09
Siehst du auch viele Instructionen worüber man traurig sein könnte?

john carmack
2015-03-11, 17:49:06
Die 670 (ca. 960 Performance) hatte eher mit der 7970 konkurriert, wie soll das ein Pitcairn-Abkömmling schaffen?


Pitcairn 7870 war in etwa so schnell wie eine GTX580 - eine 670 ist ca. 20% schneller ;)

john carmack
2015-03-11, 17:52:34
Via S|A Forum:

Reference Guide für "GCN3". Im Dokument selbst wird aber bei einem Blockdiagramm auf GCN3 als Volcanic Islands verwiesen?:confused:

http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/07/AMD_GCN3_Instruction_Set_Architecture.pdf

Ist zumindest sehr aktuell - März 2015!

Aber wo steht da was von "Volcanic Islands" ich sehe nur "Northern Islands"?!?!?

Aber ein cooles Dokument - somit gibt es also kein GCN v1.1 / v1.2 / v1.3 sober nur v1, v2, v3......

Locuza
2015-03-11, 18:02:47
Seite 17.
Früher hat AMD oft direkt Southern Islands/Sea Islands geschrieben, in dem Dokument hat man es verallgemeinert, GCN Devices oder GCN Gen 3.

Unicous
2015-03-11, 18:06:37
Ist zumindest sehr aktuell - März 2015!

Aber wo steht da was von "Volcanic Islands" ich sehe nur "Northern Islands"?!?!?

Aber ein cooles Dokument - somit gibt es also kein GCN v1.1 / v1.2 / v1.3 sober nur v1, v2, v3......

Ich habs doch hingeschrieben. Es steht im Blockdiagramm, das ist ein Bild man kann es nicht "finden".

HOT
2015-03-11, 18:42:55
http://www.computerbase.de/2015-03/xfx-radeon-r9-370-mit-starttermin-anfang-april/
Soviel zu 370 = Tonga
Gibt keinen Tonga im 3xx-Lineup
360(X) = Tobago
370(X) = Trinidad
380(X) = Grenada
390(X) = Fiji

Soviel auch zu den Rebrands. Denn mit 120W TDP ist das kein Chip mit 256Bit Speicherinterface, der wird 128Bit haben.

captain_drink
2015-03-11, 18:56:20
http://www.computerbase.de/2015-03/xfx-radeon-r9-370-mit-starttermin-anfang-april/
Soviel zu 370 = Tonga
Gibt keinen Tonga im 3xx-Lineup
360(X) = Tobago
370(X) = Trinidad
380(X) = Grenada
390(X) = Fiji

Soviel auch zu den Rebrands. Denn mit 120W TDP ist das kein Chip mit 256Bit Speicherinterface, der wird 128Bit haben.

Die XFX Radeon R9 370 ist mit wahlweise 2 oder 4 GByte Speicher an einem 256-Bit-Speicherinterface ausgestattet.

Die Chipnamen sagen auch wenig aus, das können auch Rebrandings mit kleinen Überarbeitungen sein.

HOT
2015-03-11, 19:00:17
Jo steht in den Specs, hab ich übersehn ;). Das wird trotzdem kein Rebranding. Pitcairn ist nicht mal Freesync-fähig und diese TDP-Bereiche sind mit Pitcairn absolut illusorisch.

Nightspider
2015-03-11, 19:05:07
Ist da was cooles dabei bei 1.3?

M4xw0lf
2015-03-11, 19:29:02
Soviel auch zu den Rebrands. Denn mit 120W TDP ist das kein Chip mit 256Bit Speicherinterface, der wird 128Bit haben.
So? Die altehrwürdige HD7850 sagt was anderes.
diese TDP-Bereiche sind mit Pitcairn absolut illusorisch.
Käse.
In 3D-Spielen zeigt sich die HD 7800 dann von ihrer besten Seite. In unserem Testspiel in Full-HD-Auflösung mit vierfacher Kantenglättung und anisotroper Filterung messen wir sehr gute 98 Watt (67 Fps) für die HD 7850 und 114 Watt (82 Fps) für die HD 7870.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Pitcairn-stellt-sich-vor-870528/

Hübie
2015-03-11, 19:35:18
Seite 24 nennt ein interessantes Detail. Prozessor 0...63. Somit steht ja hoffentlich nicht mehr außer Frage wieviel SPs es denn nun werden.

Gipsel
2015-03-11, 19:39:11
Seite 24 nennt ein interessantes Detail. Prozessor 0...63. Somit steht ja hoffentlich nicht mehr außer Frage wieviel SPs es denn nun werden.Eine CU hatte schon immer 64 SPs. ;)

Edit:
Die Abbildung da ist übrigens schon uralt (stammt noch aus VLIW-Zeiten) und stimmt auch nicht mehr so ganz. Vieles der Manuals ist C&P von alten Versionen, was man selber ein wenig auf Fehler sieben muß.
http://abload.de/img/mem_hierachy_evergreeucynk.png

Beginnend mit Cayman gab es eine neue Farbgebung (ohne Inhaltsänderung), die sich bis heute gehalten hat.

http://abload.de/img/mem_hierachy_hd6900kexwn.png
http://abload.de/img/mem_hierachy_gcn3yxx44.png

Der Inhalt ist wie gesagt heute überholt. Die LDS-Größe ist falsch, die Register anders organisiert (1024 x 32Bit), die Caches sind Schreib-Lese-Caches, es fehlt der skalare Datencache und die CUs sind intern in 4 SIMDs organisiert, heißen also nicht mehr selber SIMDs. Außerdem stellten die SPs damals in der Abbildung "logische SPs" dar, physisch gab es ja nur 16 davon pro SIMD (mit den 4 oder 5 VLIW-Slots, die die 64 Elemente der Wavefront über 4 Takte verteilt abgearbeitet haben.), heute sind es tatsächlich 64 SPs (ohne VLIW, die Anzahl der ALUs ist also zu Cayman konstant geblieben).

M4xw0lf
2015-03-11, 19:48:15
Eine CU hatte schon immer 64 SPs. ;)
Alter Spielverderber ^^

Hübie
2015-03-11, 19:49:17
Ach ja AMD is anders organisiert. War bei CU 0-63. Jetzt sehe ich auch das daneben noch eine CU abgebildet ist. Bin am Smartphone mit 4,3" :facepalm:

Edit: Ich breche auch an der Stelle ab. Das pdf ruckelt hier wie Atze! :mad: Snapdragon 801...

rentex
2015-03-11, 19:54:13
Dachte mir schon irgendwie, das die Entwicklung so lang dauert. Kann es sein, das AMD, die Umsetzung der aktuellen DirectX Spezifikationen schneller durchführt als Nvidia?

M4xw0lf
2015-03-11, 19:59:57
War in der Vergangenheit so; wie es aktuell aussieht kann man aber bisher nur mutmaßen aufgrund mangelhafter Informationslage zu DX12 Specs und GPU Specs.

rentex
2015-03-11, 20:08:31
DX12 müsste recht spät (am Ende), im Lauf der Entwicklung der 300er Serie rausgekommen sein...hab da den Eindruck, das sich MS, recht nah an AMD gehalten hat...DX12 schein mir überwiegend Softwareseitig realisiert worden sein ?

w0mbat
2015-03-11, 20:13:31
Mein Tip: die R9 390X wird schneller als Titan X und kommt mit 8GB.

Schnoesel
2015-03-11, 20:16:57
Wäre gekauft ;-)

...

aber ich glaubs erst wenn ichs sehe

Hübie
2015-03-11, 20:23:23
Mein Tip: die R9 390X wird schneller als Titan X und kommt mit 8GB.

Not! :freak:

MilesEdgeworth
2015-03-11, 21:05:43
Sollte an den Chiphell Leaks was dran sein, wäre schneller als Titan X bzw. eine im Durchschnitt ähnliche Performance im Rahmen des Möglichen. Jedenfalls wäre das das beste für uns Kunden!

Raff
2015-03-11, 21:12:03
Mein Tip: die R9 390X wird schneller als Titan X und kommt mit 8GB.

Das wäre für den Markt perfekt. AMD hat übrigens Mut, im Juni zu launchen, sofern die Computex-Gerüchte stimmen - die Kühldesigns scheinen stark zu sein. Launches im Winter sind taktisch in vielerlei Hinsicht klüger. ;)

MfG,
Raff

john carmack
2015-03-11, 21:19:53
Sollte an den Chiphell Leaks was dran sein, wäre schneller als Titan X bzw. eine im Durchschnitt ähnliche Performance im Rahmen des Möglichen. Jedenfalls wäre das das beste für uns Kunden!

Das alles für max. 600€ wäre natürlich TOP!

Vor allem wenn man bedenkt das die TitanX mehr als 1000€ kosten wird!

MilesEdgeworth
2015-03-11, 21:23:17
Nur die 600€ können wir dann vergessen. :ugly: Sollte sie bei höherer Performance überhaupt günstiger als die Titan werden, dann nicht viel.

john carmack
2015-03-11, 21:29:59
Nur die 600€ können wir dann vergessen. :ugly: Sollte sie bei höherer Performance überhaupt günstiger als die Titan werden, dann nicht viel.

Hat ATI/AMD überhaupt schon (SingleGPU) GraKas für über 600€ verkauft?
Ich glaube nicht...?!
Die X800XT Platinum Edition lag bei 589€ soweit ich weiß, an höhere Preise kann ich mich nicht erinnern.

aufkrawall
2015-03-11, 21:34:50
Wenn wir ganz fest daran glauben, dann muss sie ja mit 8GB kommen. Toll. :smile:

Nakai
2015-03-11, 21:39:03
Eventuell werden keine 2GB Stacks bei Hynix gelistet, weil AMD alle "aufkauft".

Believe...


...es werden 4GB...höchstwahrscheinlich. Dass Hynix für AMD 2GB Stacks liefert, ist extrem unwahrscheinlich.

MilesEdgeworth
2015-03-11, 21:42:23
@john carmack: Naja, dass sie das bisher nicht getan haben, heißt ja nicht, dass sie das nicht tun werden. Vor allem, da sich die Titan auch verkauft hat..

blaidd
2015-03-11, 21:53:21
Mein Tip: die R9 390X wird schneller als Titan X und kommt mit 8GB.

Hmm.. Ersteres stimmt mich skeptisch, Letzteres würde ich allerdings als Voraussetzung für ein gutes und aktuelles GPU-Design sehen... Man will schließlich nicht ewig in 1080p zocken und für mehr sind 4 GiByte einfach zu wenig - da sehe ich kaum Spielraum für Diskussionen (obwohl ich in dieser Hinsicht schon oft überrascht wurde).

Ist eine GPU wirklich so schnell, wie es von der Titan oder R9 390X gemutmaßt wird, sollten schon mindestens 1440p als Maß der Dinge gelten und da wird's mit 4 GiByte eben schon jetzt knapp. Und auch wenn ich nicht direkt einen nochmaligen Sprung in der Auslastung des Grafikkartenspeichers sehe, wie er nach der Einführung der aktuellen Konsolen relativ leicht zu erahnen war, ist ein gewisses Speicherpolster sicher nicht schlecht. Vor allem, wenn man davon ausgeht, dass mit den kommenden Low-Level-APIs wahrscheinlich nicht sofort alles perfekt laufen wird und Entwickler wahrscheinlich ein paar kleinere Problemchen bei händischer Speicherverwaltung haben könnten. Zumindest bis zum letzten Patch von Battlefield 4 (hab's danach noch nicht nachgeprüft) stieg bei Verwendung von der Mantle-API der Speicherbedarf schließlich auch stark an - und wenn jemand Ahnung von Mantle hat, dann wahrscheinlich DICE. Immerhin haben sie es wohl mittlerweile in den Griff bekommen, Dragon Age zeigte sich nach dem ersten Patch noch vor dem Launch in dieser Hinsicht unauffällig.

Von einem ganz persönlichen Standpunkt aus: 4 GiByte halte ich für zu wenig, 12 für überflüssig. Die für aktuelle und in nächster Zeit erscheinenden Spiele, sowie eine (hoffendlich) endlich im Schnitt steigende Auflösung vernünftige Speicherbestückung vermute ich irgendwo dazwischen :wink:

Ich bin aber wirklich sehr gespannt auf die neue Titan und kann's kaum erwarten, bis ich das Ding mal in die Finger bekomme. Kaufen werd ich das Ding aber wahrscheinlich nicht... Dazu erscheint mir (persönlich!!) das Teil zu sehr als schweres Goldkettchen mit Nvidia-Logo. Ich brauch keinen Schmuck.

Botcruscher
2015-03-11, 22:23:27
8GB sind absolut nötig. Mit nur 4 wird es ein Rohrkrepierer.

blaidd
2015-03-11, 22:42:55
8GB sind absolut nötig. Mit nur 4 wird es ein Rohrkrepierer.

6 GiByte währen wohl auch noch okay (mal ganz abgesehen von dem Möglichkeiten der jeweiligen Architekturen) aber 4 GiByte wären für mich persönlich schon ein ziemlicher Abturner und würden mich wahrscheinlich von einem Kauf abhalten. Und dabei bin ich sehr aufrüstwillig, ich hätte nur gern was Vernünftiges für mein Geld. Die neue Titan wird sich dahingehend wahrscheinlich disqualifizieren, obwohl mich die Leistung aller Voraussicht nach wohl schwer reizen würde. Und wenn die 390X wirklich nur 4 GiByte Speicher hat, dann heißt es wohl Warten für mich.

Letzteres halte ich übrigens ein Indiz für einen nicht vernünftig gesättigten Markt, da wäre mMn. noch Raum für mindestens einen weiteren Mitbewerber - Wir brauchen als Konsumenten einfach mehr fairen Wettbewerb und ein breiteres Angebot, weniger mulitnationales Großkotztum und selbstverstümmelndes Konsumverhalten - jetzt mal stark generalisiert.

Rente
2015-03-11, 22:54:17
6 GiByte währen wohl auch noch okay (mal ganz abgesehen von dem Möglichkeiten der jeweiligen Architekturen) aber 4 GiByte wären für mich persönlich schon ein ziemlicher Abturner und würden mich wahrscheinlich von einem Kauf abhalten. Und dabei bin ich sehr aufrüstwillig, ich hätte nur gern was Vernünftiges für mein Geld. Die neue Titan wird sich dahingehend wahrscheinlich disqualifizieren, obwohl mich die Leistung aller Voraussicht nach wohl schwer reizen würde. Und wenn die 390X wirklich nur 4 GiByte Speicher hat, dann heißt es wohl Warten für mich.

Letzteres halte ich übrigens ein Indiz für einen nicht vernünftig gesättigten Markt, da wäre mMn. noch Raum für mindestens einen weiteren Mitbewerber - Wir brauchen als Konsumenten einfach mehr fairen Wettbewerb und ein breiteres Angebot, weniger mulitnationales Großkotztum und selbstverstümmelndes Konsumverhalten - jetzt mal stark generalisiert.
Sehe ich im Prinzip genauso, aber wer soll denn in diesem Spezialmarkt auf einmal mitwirken?

Intel hätte wohl Manpower, Geld und durchaus auch Know-How dafür (bzw. könnten es einkaufen), scheinbar ist es aber nicht lukrativ genug - die pumpen jedenfalls lieber seit Jahren Milliarden in SoCs und XeonPhi ist "nur" auf HPC ausgerichtet.
Andere ehemalige "Vereine" wie VIA/S3 und XGI sind doch nie wirklich über den Exotenstatus hinaus gekommen bevor sie verschwunden sind.
Um die Vorherrschaft von Nvidia und AMD im High-End-Bereich zu brechen müsste aus dem Nichts quasi ein Wunder geschehen wenn es nicht gerade eine der großen IT-Firmen mit massig Geld (Apple, Intel, Google) finanziert.

Wichtig wäre vorderrangig aus meiner Sicht das AMD wieder mal eine richtig gute Karte am Markt hat die Nvidia in allen Belangen überlegen ist (das gab es glaub ich zuletzt so richtig bei der 9800 Pro und wie lang das her ist wissen wir ja), sonst werden die finanziellen Mittel nur noch knapper.
Tahiti war dahingehend schon nicht schlecht, Hawaii aber ein ziemlicher Reinfall (wenn auch die Karten nicht wirklich schlecht waren).

Fiji mit nur 4GB ist in dem Zusammenhang einfach zu wenig, auch wenn AMD sicherlich preislich deutlich attraktiver sein kann als die Titan X.
Edit: Und ich persönlich würde wirklich gern mal wieder eine AMD-Karte einsetzen.

blaidd
2015-03-12, 00:24:20
Wichtig wäre vorderrangig aus meiner Sicht das AMD wieder mal eine richtig gute Karte am Markt[...plaziert]

Die braucht AMD mMn. tatsächlich - und dringend. Das muss meiner Meinung nach keine "ultimative" GPU sein, die es mit einer Titan aufnehmen kann, aber AMD braucht ein rundum überzeugendes Produkt, um wieder "mitspielen" zu können. Ironischer Weise hatten sie mit der R9 290 Non-X eine Top-GPU (Custom-Design, die Factory-Kühler haben sie nach Strich und Faden verkackt), aber seit dem Erscheinen der Maxwell-GPUs ist das einfach nicht mehr der Fall. Die Wahrnehmung potenzieller Kunden hat sich zugunsten der Effizienz verschoben und in dieser Hinsicht macht nicht einmal VRAM-Gate (oder whatever) einen Unterschied. Effizienz ist einfach sexy und schlägt fast alle anderen Argumente linkshändisch. Was auch streng der Logik nach einen schwer anzufechtenden Sinn ergibt.

Ich persönlich hätte nichts gegen ein "You ain't seen nothing yet", reagiere allerdings auch ausgesprochen allergisch auf PR-Bullshit - Zu liefern liegt nun definitiv bei AMD. Kleine, unbedarfte Firma lasse ich in der Hinsicht nicht durchgehen. Möglichkeiten gibt's immer, rausreden kann sich jeder - Dahingehend hab ich nur wenig Toleranz für Fuck-ups. Die Treibergeschichten und die diversen Verspätungen momentan lass ich mal gnädig durchgehen, wenn am Ende denn die Qualität stimmt. Daran arbeiten sollte AMD aber auch. Wie auch dem multimedialen Auftritt.

Aber eins nach dem anderen, zuerst muss AMD mal mit Leistung, Preis und Innovation überzeugen (Mantle und der Low-Level-Hype zeigen meines Erachtens deutlich, dass auch AMD Anforderungen in diese Richtung schultern kann). Als ewiger Zweiter muss man sich eben immer ein bisschen mehr anstrengen als der stets zumindest so wahrgenommene Top-Dog.

rentex
2015-03-12, 05:37:53
600€ Woher diese Infos....?

john carmack
2015-03-12, 08:36:22
Ich persönlich hätte nichts gegen ein "You ain't seen nothing yet", reagiere allerdings auch ausgesprochen allergisch auf PR-Bullshit - Zu liefern liegt nun definitiv bei AMD. Kleine, unbedarfte Firma lasse ich in der Hinsicht nicht durchgehen. Möglichkeiten gibt's immer, rausreden kann sich jeder - Dahingehend hab ich nur wenig Toleranz für Fuck-ups. Die Treibergeschichten und die diversen Verspätungen momentan lass ich mal gnädig durchgehen, wenn am Ende denn die Qualität stimmt. Daran arbeiten sollte AMD aber auch. Wie auch dem multimedialen Auftritt.



Richtig - Wobei die Fiji Entwicklung wohl schon abgeschlossen ist. Da wird man an der Leistung und dem Energiehunger nicht mehr viel drehen können! ;)

Dawn on Titan
2015-03-12, 08:48:37
Energiehunger kann man doch vergessen, wichtig ist das die Dinger schnell sind.

mironicus
2015-03-12, 08:55:38
Könnte AMD theoretisch auch so vorgehen: 4 GB HBM + x GB GDDR5?
Einmal schneller Speicher + einmal langsamer Speicher wie bei der GTX 970. :D :D

Palpatin
2015-03-12, 09:02:47
Nur die 600€ können wir dann vergessen. :ugly: Sollte sie bei höherer Performance überhaupt günstiger als die Titan werden, dann nicht viel.
Die 295x2 war der Titan Z von der Performance überlegen und kam trozt teurer Wakü zum halben Preis. ;)

Hübie
2015-03-12, 09:08:55
Energiehunger kann man doch vergessen, wichtig ist das die Dinger schnell sind.

Damit geht aber Verlustleistung einher, damit Wärme und Lautstärke. Also doch nicht so unwichtig. Was denkst du hat dafür gesorgt dass die 290X hinter den Erwartungen zurück blieb? Ich meine nicht deine Erwartungen sondern Absatzprognosen. Hawaii lief einige Monate gut, dann knickte der Absatz ein, während die Produktion weiterhin konstant lief.
AMD muss mal den Evaluierungsprozess ändern denn irgendwie hab ich auch das Gefühl Takt und Spannung seit Tahiti nicht mehr optimal passen.

horn 12
2015-03-12, 09:21:12
Mann kann wohl wenn alles so kommt als geplant von etwa:
mindestens 449 Dollar für die R9 390
ganze 649 bis 699 Euro für die R9 390X ausgehen
zudem hoffen auf ein "Wunder" mit 8GB HBM Speicher.

Dawn on Titan
2015-03-12, 09:22:28
Damit geht aber Verlustleistung einher, damit Wärme und Lautstärke. Also doch nicht so unwichtig. Was denkst du hat dafür gesorgt dass die 290X hinter den Erwartungen zurück blieb? Ich meine nicht deine Erwartungen sondern Absatzprognosen. Hawaii lief einige Monate gut, dann knickte der Absatz ein, während die Produktion weiterhin konstant lief.
AMD muss mal den Evaluierungsprozess ändern denn irgendwie hab ich auch das Gefühl Takt und Spannung seit Tahiti nicht mehr optimal passen.

Das Hauptproblem ist, dass die Hersteller überwiegen die Kühlung versaut haben und AMD mit dem Referenzdesign die Krone gewonnen hat, wenn es um schlechte Kühler geht. Die 780ti war nicht viel sparsamer, hatte aber ein besseres Kühldesign und viele brauchbare Customdesigns.

rentex
2015-03-12, 09:30:47
8 GB Wunder? Glaub ich nicht zum Release, eher Q1/2016.

Hübie
2015-03-12, 09:35:58
Ich kann mich nur an zwei, drei Fälle erinnern wo der Kontakt suboptimal war / ist (?). Verkackt hats aber AMD. Denn sowas kommuniziert man und vor allem frage ich mich immer noch wieso AMD das Package immer mal dreht oder Die tief setzt, Bohrungen in einer Gen unterschiedlich gestaltet usw.
Der eigene Weg is nich immer auch der beste.

Nun gut. Ich interessiere mich ehrlich gesagt mehr denn je für AMD's Fiji und frage mich wie deren Preisgestaltung aussieht. Hat da einer brauchbare Zahlen zum korrelieren? Sind 600€ wirklich realistisch? Worauf fußt diese Zahl? Meine letzte AMD war ne 4850...

rentex
2015-03-12, 11:11:04
Das frag ich mich auch?

fondness
2015-03-12, 11:14:03
Das wäre für den Markt perfekt. AMD hat übrigens Mut, im Juni zu launchen, sofern die Computex-Gerüchte stimmen - die Kühldesigns scheinen stark zu sein. Launches im Winter sind taktisch in vielerlei Hinsicht klüger. ;)

MfG,
Raff

Das ist wohl eher eine Sache von Launch sobald das Ding fertig ist. Aber als kluger Redakteur, der sich solchen Dingen bewusst ist, könnte man sich zB gut von der Masse abheben, indem man auch die Konkurrenzkarte noch mal nachtestet, anstatt einen Winterwert mit einem Sommerwert zu vermengen. ;)

Hmm.. Ersteres stimmt mich skeptisch, Letzteres würde ich allerdings als Voraussetzung für ein gutes und aktuelles GPU-Design sehen... Man will schließlich nicht ewig in 1080p zocken und für mehr sind 4 GiByte einfach zu wenig - da sehe ich kaum Spielraum für Diskussionen (obwohl ich in dieser Hinsicht schon oft überrascht wurde).

Der VRAM-Bedarf ist keine konstante Größe, gerade wenn man viel Bandbreite hat könnte man da einiges machen.

Nun gut. Ich interessiere mich ehrlich gesagt mehr denn je für AMD's Fiji und frage mich wie deren Preisgestaltung aussieht. Hat da einer brauchbare Zahlen zum korrelieren? Sind 600€ wirklich realistisch? Worauf fußt diese Zahl? Meine letzte AMD war ne 4850...

Was willst du dazu jetzt hier hören? Den Preis weiß noch nicht mal AMD. Das hängt nicht zuletzt von NVs Preisgestaltung ab, der Leistung im Vergleich zur Konkurrenz, etc. Dann wird das Ding so platziert wie AMD glaubt am meisten Gewinn zu machen.

Schnoesel
2015-03-12, 12:13:22
Dann wird das Ding so platziert wie AMD glaubt am meisten Gewinn zu machen.

Kann sein aber eventuell liegt das Ziel gleichzeitig bei einer Erhöhung des Marktanteils und hier würden günstigere Preise definitv helfen. Wir wissen halt einfach nichts. AMD hält echt übelst dicht. So ein kleiner Ausblick auf Fiji kurz nach Titan X Release wäre doch mal was nettes ;-)

StefanV
2015-03-12, 12:31:49
...es werden 4GB...höchstwahrscheinlich. Dass Hynix für AMD 2GB Stacks liefert, ist extrem unwahrscheinlich.
WARum??

Alles nur 'ne Frage des Geldes und der Abnahme Menge...
UNd da könnte man durchaus befürchten, dass die Abnahmemenge von AMD hoch genug ist, dass Hynix eine Extrawurst baut..

Dural
2015-03-12, 13:03:58
AMD kann gar nicht viel verlangen, ihr Name und ihre Marktposition gibt das gar nicht hin.

fondness
2015-03-12, 13:05:55
Kann sein aber eventuell liegt das Ziel gleichzeitig bei einer Erhöhung des Marktanteils und hier würden günstigere Preise definitv helfen. Wir wissen halt einfach nichts. AMD hält echt übelst dicht. So ein kleiner Ausblick auf Fiji kurz nach Titan X Release wäre doch mal was nettes ;-)

Wenn man mehr verkauft steigert das natürlich auch den Gewinn, so war es auch gemeint.

Sunrise
2015-03-12, 13:16:35
WARum??

Alles nur 'ne Frage des Geldes und der Abnahme Menge...
UNd da könnte man durchaus befürchten, dass die Abnahmemenge von AMD hoch genug ist, dass Hynix eine Extrawurst baut..
Er sagt ja nur extrem unwahrscheinlich (eben weil auch Geld eine Rolle spielt), aber sicher nicht unmöglich.

Wenn es rechnerisch ohne starke Margenprobleme möglich ist, eine 8GB HBM-Karte einer 12GB GDDR5-Karte gegenüberzustellen, dann kann AMD sich das und sollte sich das auch leisten.

AMD ist da aktuell aber auch im Zwiespalt. Sie brauchen unbedingt wieder mehr Marktanteile, sollten aber nicht wieder diese Billigschiene fahren, vor allem nicht bei Fiji. Wenn sie dann unbedingt um alles in der Welt Marktanteile zurückgewinnen wollen, dann sollte da mindestens noch eine Fiji-Variante relativ günstig angeboten werden, evtl. sogar mit vollem 8GB VRAM vs. 6GB GM200-Salvage.

Dann wäre man sehr gut aufgestellt und könnte auch mal wieder ein paar anständige Preis abrufen. Alles eine Frage der Prioritäten.

Wenn GM200 jetzt wirklich als Vollausbau mit 12GB VRAM vorgestellt wird, dann weiß NV schon was, was wir nicht wissen. Ergo, Fiji wird gefährlich bzw. schneller, und man braucht mehr Speicher um sich noch irgendwie abzusetzen. Anders kann ich diese ungewohnte Aggressivität von NV plötzlich nicht deuten.

fondness
2015-03-12, 13:23:06
Wenn GM200 jetzt wirklich als Vollausbau mit 12GB VRAM vorgestellt wird, dann weiß NV schon was, was wir nicht wissen. Ergo, Fiji wird gefährlich bzw. schneller, und man braucht mehr Speicher um sich noch irgendwie abzusetzen. Anders kann ich diese ungewohnte Aggressivität von NV plötzlich nicht deuten.

Es sollte spätestens seit dem wegfallen von DP bei GM200 klar sein das NV alles raus holen muss. Soetwas streicht man nicht zum Spaß, denn das kostet ja auch Absatz in anderen Märkten.

robbitop
2015-03-12, 13:25:23
NV hat GM200 IMO nur mit 12 GiB ausgestatt weil:

- Titan eine tolle Konsumentenmelkmaschine ist - da braucht man mit 6 GiB nicht anzukommen
- GM200 ein 384 bit SI hat -> also ist der nächste Schritt halt 12 GiB

Ich verstehe die VRAM Diskussion nicht. 2012 wurde das gleiche über die 6 GiB von Titan Classic gesagt. Und heute will man als Titan Besitzer die 6 GiB nicht mehr missen...

@DP

Ich denke es war einfach notwendig, das wegzulassen. Immerhin muss man länger auf 28 nm rumsitzen und will weiterhin Kunden melken. Also muss man schauen, dass man den verfügbaren Platz maximal ausnutzt. Da hilft die Transistoreffizienz von Maxwell - aber eben auch das Weglassen von DP.

Hätte man einen Shrink zur Verfügung gehabt, hätte man DP nicht geopfert.

(damit meine ich nicht das Weglassen von double precision, sondern das Weglassen der hohen DP Rate)

Sunrise
2015-03-12, 13:28:12
Es sollte spätestens seit dem wegfallen von DP bei GM200 klar sein das NV alles raus holen muss.
So kann man das sehen, wobei es uns hier eigentlich egal ist, was das Ding in DP leisten kann. Ich bewerte das Ding anhand von der SP-Leistung, DP wird von uns immer mitgekauft, es braucht aber fast keiner.

Dawn on Titan
2015-03-12, 13:29:56
Oder man hat nun keine Yield-Probleme und hat aus der Reaktion auf die Titan Black gelernt und geht nun eben direkt mit dem Vollausbau an den Start, zur Not eben teurer.

Dural
2015-03-12, 13:30:08
ja die 12GB wahren wirklich komplett Unvorhersehbar, wenn AMD nicht so einen Starken Chip in der Hinterhand hätte wäre die TITAN sicher mit 6GB gekommen, die abgespeckte Version mit 3GB und die 980 mit 2GB! :freak:

Die zusammen hänge die mancher hier sehen wollen finde ich grandios.

fondness
2015-03-12, 13:34:18
So kann man das sehen, wobei es uns hier eigentlich egal ist, was das Ding in DP leisten kann. Ich bewerte das Ding anhand von der SP-Leistung, DP wird von uns immer mitgekauft, es braucht aber fast keiner.

Natürlich spielt das für Spieler keine Rolle. Aber für NV sehr wohl. Immerhin kostet das auch potentielle Kunden die eine hohe DP-Leistung verlangen und die man weiter mit GK110 abspeisen muss. NV hat das abgewogen und offensichtlich die Konkurrenzfähigkeit im Gamer-Markt als wichtiger eingestuft.

Nightspider
2015-03-12, 13:49:25
Ich verstehe die VRAM Diskussion nicht. 2012 wurde das gleiche über die 6 GiB von Titan Classic gesagt. Und heute will man als Titan Besitzer die 6 GiB nicht mehr missen...

Das du dich so schwer tust das zu verstehen...zwischen Titan 1 und Titan X liegt eine völlig neue Konsolengeneration, welche 16 mal so viel RAM haben wie ihre Vorgänger.
Steht nächstes Jahr etwa schon wieder eine neue Konsolengeneration an oder woher sollen die ganzen Spiele kommen, welche von 12GB VRAM profitieren?
Es gibt ja noch nicht mal ein Spiel welches ohne Mods ansatzweise 8GB belegt. Shadow of Mordor kommt dem mit 6GB noch am nächsten aber da wurde absolut verschwenderisch mit dem VRAM umgegangen. Mit ordentlichem Streaming hätte Shadow of Mordor wohl kaum 6GB verschlungen.

robbitop
2015-03-12, 13:55:15
Das du dich so schwer tust das zu verstehen...zwischen Titan 1 und Titan X liegt eine völlig neue Konsolengeneration, welche 16 mal so viel RAM haben wie ihre Vorgänger.
Steht nächstes Jahr etwa schon wieder eine neue Konsolengeneration an oder woher sollen die ganzen Spiele kommen, welche von 12GB VRAM profitieren?
Es gibt ja noch nicht mal ein Spiel welches ohne Mods ansatzweise 8GB belegt. Shadow of Mordor kommt dem mit 6GB noch am nächsten aber da wurde absolut verschwenderisch mit dem VRAM umgegangen. Mit ordentlichem Streaming hätte Shadow of Mordor wohl kaum 6GB verschlungen.
Die neue Konsolengeneration ist zugegebenermaßen ein Sprung. Aber dennoch gab es sehr sehr starkes Anwachsen des VRAM Bedarfes auch vor diesem Wechsel. Oder hat 512 MiB VRAM bis zum Jahr 2013 genügt? ;) (G71/R580 hatten 2005 256 MiB VRAM als absolute High End Karten btw - 2013 waren es 6 GiB bei Titan)

VRAM Bedarf stieg auch ohne neue Konsolen zwischen 2005-2013 (PS360 Zyklus) in etwa alle 2 Jahre um Faktor 2. Auch schon vor allen Titans GPUs.

PC bekommt andere (bessere Assets) als Konsolen und höhere Auflösung und mehr AA wird gefahren.

Und als PC Spieler kann/muss es einem egal sein, was mit mehr Optimierung hätte/wäre/könnte. Man kann daran nichts ändern. Frisst das Spiel VRAM zum Frühstück, ist es schlichtweg egal warum.

2015 werden 12 GiB vermutlich sinnfrei sein. Aber in 1-2 Jahren werden sie sicherlich genutzt werden. Da gehe ich jede Wette ein.

M4xw0lf
2015-03-12, 13:59:12
Ich finde die 12GB völlig in Ordnung. Mehr ist mehr, bei (V)RAM gilt diese einfache Weisheit wohl uneingeschränkt.

fondness
2015-03-12, 14:00:40
Jap, zumal 6GB für die TITAN zu wenig gewesen wäre.

robbitop
2015-03-12, 14:01:43
Wenn man eine Karte für 1000 € unter dem Titan Brand verkaufen will, sind 12 GiB der logische Schritt. 8 GiB gibt es ja bereits bei der Konkurrenz und sind außerdem auch nicht sinnvoll machbar mit einem 384 bit SI.

Nightspider
2015-03-12, 14:03:07
Ich kann mich noch gut erinnern wie meine 8800GTX 2008 in so gut wie keinem Spiel irgwendwo von den 768MB VRAM profitiert hat, 2-3 Jahre nach Release der PS360 Generation.

Klar fährt man auf dem PC bessere Settings aber dafür reichen selbst 8GB bei weitem. Die PS4 hat gerade mal rund ~3GB VRAM zur Verfügung, bei 8GB hätte man also 5GB mehr zur Verfügung als die PS4.

Und nächstes Jahr gibts schon 16nm oder 14nm Karten die wahrscheinlich alle mit 8GB VRAM kommen. Dann kommt die Titan X vielleicht noch gut mit dem VRAM zurecht aber hat bei weitem nicht mehr genug Rohpower für die Enthusiasten.
Und selbst wenn NV und AMD nächstes Jahr nur "kleine" 16/14nm Chips auf den Markt bringen werden diese ~300mm² Chips schneller sein als GM200 dank neuer Architektur+besserem Prozess seit langem+HBM2 Speicher mit doppelt so hoher Bandbreite. (Vorraussichtlich 1024GB/s)

Eine GM200 Karte JETZT als Langzeitinvestition zu sehen ist imo Bullshit. Titan Käufer hatten Glück - aber auch nur in in einer Hand voll Spielen.
Mein Kumpel mit seinem GTX780ti SLI jammert quasi nie wegen seinem VRAM. Nur 2 mal: Bei Watch Dogs und Shadow of Mordor.

Wow, für 2 Spiele haben sich die 1000 Euro für Titan ja gelohnt. ;) ;)

robbitop
2015-03-12, 14:05:18
Die 8800 GTS-320 hingegen war kurz nach dem Release - bereits 2007 schon stark limitiert IIRC. Wenn man Oblivion mit Mods gespielt hat, hat man auch die 768 MiB von G80 gut nutzen können.

Außerdem hat G80 den Speicher ggü G70 nicht verdoppelt sondern verdreifacht (wegen des 384 bit SIs). Das ist ein größerer Sprung.

Außerdem kauft nicht jeder ständig neue GPUs. Und wer weiß, wann Pascal wirklich kommt. Vermutlich zuerst die billig Version. GP200 - also die GPU bei der es sich ausgehend von GM200 erst lohnen wird - wird vermutlich nicht so kurzfristig kommen.

IMO ist es schon OK in Zeiten langer Produktlebenszyklen, die GPU für den Bedarf der nächsten 2 Jahre auszulegen. Insbesondere vor dem Hintergrund von 4K.

edit:
zur GK110 - es gibt sicher auch genug Titan Käufer, die für +50 % nicht mal auf GM200 aufrüsten werden und auf Pascal warten. Die profitieren umso mehr von 6 GiB. Das gleiche ist für GM200 Neukäufer analog auch möglich - also eine noch längere Lebenszeit. Je nach dem wieviel schneller GP200 ist. Sinds nur +50 % auf GM200 -> könnte man ohne Not auf Volta warten.

Nightspider
2015-03-12, 14:09:36
8800GTS 320? Wayne! Tut hier überhaupt nichts zur Sache.

Speicher von G70 auch nicht wirklich da selbst die Konsolen schon so viel VRAM hatten. Das wäre so als hätte die PS4 jetzt 4-6GB VRAM. (Die 8GB Variante berücksichtige ich sogar mal nicht)

Thunder99
2015-03-12, 14:16:51
Ich glaube nicht mal im Ansatz das 12GB in 1-2 Jahren genutzt werden da der Sprung einfach zu groß ist. Eher wird es sich zwischen 6-8GB Einpendeln mit Ausnahmen Richtung 9-10 (Mods). Es sind immer noch GIGABYTEs (nicht das Unternehmen :D) mehr und das voll zu stopfen so schlampig kann man nicht programmieren, oder etwa doch?

Sunrise
2015-03-12, 14:20:48
Ich bin da bei Nightspider.

Titan X wird keine Langzeitinvestition mehr wie die originale Titan oder Karten davor, das sollte klar sein. Wir werden spätestens 2016, allerspätestens 2017 derart massive Änderungen erfahren, dass die Titan X dann keine Rolle für eben diese Käuferschicht mehr spielen sollte.

Wer die Leistung braucht und das Geld hat, kann zuschlagen, allerdings rechne ich nicht damit, dass man damit lange Freude hat. Das liegt aber sicher nicht am VRAM.

Die 12GB VRAM sind ein netter Blender, weil sie wohl sehr häufig brach liegen werden. Allenfalls bei einigen wenigen Titeln (und da gilt dann auch das Argument pro mehr VRAM) werden davon überhaupt mehr als 6GB genutzt. In naher Zukunft dann maximal 8GB (was schon ein Sprung von 100% ausgehend von der 980 ist).

Natürlich gibt es auch immer wieder Poweruser, die den RAM vollbekommen, mit irrsinnigen Einstellungen (ist ja auch legitim), aber irgendwas ist ja immer.

In 1-2 Jahren sind wir gefühlte 3 Generationen weiter, weil eben deutlich mehr passieren wird als die letzten Jahre (etwa der Sprung, den G80 brachte).

Fiji wird da wohl wie ein Teaser für die nächsten Jahre, wo es endlich mal wieder vorwärts gehen kann.

robbitop
2015-03-12, 14:23:49
8800GTS 320? Wayne! Tut hier überhaupt nichts zur Sache.
Du hast die 8800-GTX mit 768 MiB aufgeführt im Zusammenhang, dass die 768 MiB zu viel gewesen sein sollten. Der nächst kleinere Schritt wären eben 320 MiB gewesen. Und das wäre zu wenig gewesen. 512 MiB ging nicht sinnvoll.

Wie gesagt - GM200 mit Titan Label muss einfach ein VRAM Upgrade gegenüber GK110 haben, um 2015 noch 1000 €*kosten zu dürfen. Immerhin hat die Konkurrenz bereits 8 GiB. Der nächste Schritt sind 12 GiB.

Außerdem springt nicht jeder bei +50 %. Wenn GP204 analog zu GM104 nur minimal schneller als GM200 wird und GP200 nur +50 % schneller wird, lohnt sich für viele Titan X Käufer das Upgrade nicht. Bis GP200 kommt, vergehen sicher nochmal 18 Monate. Erst kommt GP204. Da lohnt das Upgrade nicht.
Wenn selbst GP200 nur +50 % ggü GM200 bringt und man auf GV204 wartet, hat man sogar >> 2 Jahre Lebensdauer. Und dann wird es im Einsatz von 4K/5K + AA (+ggf Mods) sicher ein paar Spiele geben, die mehr als 8 GiB VRAM brauchen bzw Ruckler vermieden werden.

12 GiB ist heute sehr viel - da gehe ich mit dir daccord. Aber nicht jeder kauft ständig neu. Und gerade im SLI sind bestimmte Szenarien dann doch fahrbar, wo man wieder mehr VRAM gebrauchen wird.

Wie gesagt bisher hat sich der VRAM Verbrauch auch völlig ohne neue Konsolen stetig erhöht. Das wird nicht ausbleiben.

Ist eine GM200 mit 6 GiB die smartere Wahl? Ja absolut. Sind 12 GiB heute sinnlos? Ja. Gilt das für die nächsten 24 Monate auch uneingeschränkt? IMO zweifelhaft.
Hätten 8 GiB genügt? Ja -> geht aber nicht wegen der SI Breite.

Es ist nicht so als hätte NV eine Wahl gehabt. Sie wollten bei der Titan X halt das VRAM Upgrade und man muss halt leider verdoppeln - ansonsten hätten sie GM200 512 bit breit machen müssen.

Speicher von G70 auch nicht wirklich da selbst die Konsolen schon so viel VRAM hatten. Das wäre so als hätte die PS4 jetzt 4-6GB VRAM. (Die 8GB Variante berücksichtige ich sogar mal nicht)
Unabhängig von Konsolen und konkreten Grafikkarten hat sich zwischen 2005 und 2013 der VRAM Bedarf auf dem PC massiv erhöht. Das war die Kernaussage.

Nightspider
2015-03-12, 14:27:21
PS: 8800GTS 320 kam 1,5 Jahre nach PS360. Das ist so als würde jetzt eine 4GB Karte auf den Markt kommen nur mit dem Unterschied das der G80 damals 2-3 fache Leistung gegeüber G70 bot, je nach Settings und man auf dem PC schon mit viel(!) höhere Auflösungen spielte als auf der Konsole. Damals spielte ich manche Games schon in 2048*1440 auf meinem CRT dank der 8800GTX.
Genauso wären jetzt 4GB knapp für 4K aber nicht unspielbar. (1-2 Settings senken)
Die 12GB der Titan X entsprechen als einem G80 mit 3*320MB=960MB. So viel wurde wann genutzt? Mitte 2009 beim schlecht programmierten GTA4? 4 Jahre nach den Konsolen!

Ich hoffe man kann meinen Gedankengängen und den Vergleichen halbwegs folgen.

Bisher war es immer so das der VRAM (innerhalb einer Konsolengeneration) erst dann von mehreren Spielen genutzt wurde als es schon längst die Nachfolger-Grafikkarte gab.

robbitop
2015-03-12, 14:33:26
Aber doch nur bei Leuten, die ständig geupgradet haben. Jeder, der die Karte länger als 1 Zyklus behielt hat davon profitiert. Eine GTX570 mit 1280 MiB VRAM ist heute kaum benutzbar in FullHD. Nicht wegen der Leistung sondern wegen des VRAMs. Leute, die den doppelten Speicher genommen haben, profitieren. Das gleiche galt auch für G80 und GT200. Die 768 MiB waren 2-3 Jahre später wirklich ein Vorteil ggü 512 MiB Karten. Auch die 1,5 GiB GT200 ggü der 768er.

Wer natürlich immer wechselt - also immer die neuste HW hat - für den gilt das selten. Das stimmt.

Ich überlege auch ernsthaft, GM200 nicht zu erwerben, weil mir +50% nicht all zu viel vorkommen. (insbesondere vor dem Hintergrund des richtig schwachen Euros, der die HW nochmal verteuern wird)
Titan lebt ggf bei mir (und ggf anderen Titan Usern) bis GP204 oder gar GP200. Und dann profitiert man. Insbesondere, wenn man 2 Titans besitzt und VRAM fordernde Settings fahren kann.

Nightspider
2015-03-12, 14:37:21
Außerdem springt nicht jeder bei +50 %. Wenn GP204 analog zu GM104 nur minimal schneller als GM200 wird und GP200 nur +50 % schneller wird, lohnt sich für viele Titan X Käufer das Upgrade nicht. Bis GP200 kommt, vergehen sicher nochmal 18 Monate. Erst kommt GP204. Da lohnt das Upgrade nicht.

Da wäre ich extrem vorsichtig mit dieser Aussage. GM204 liegt schon meist vor der GTX780ti und das trotz viel kleinerem Chip und dem gleichen, total veralteten Herstellungsprozess.
Wenn Pascal einen gleich großen Schritt macht in der Architektur und dabei auf einen viel besseren Prozess zurückgreifen kann UND HBM2 Speicher bekommt fliegen selbst mit GP204 die Fetzen.
Selbst mit einem 20nm Prozess hätte man schon doppelte Transistordichte erreichen können und dank FF kann man nochmal was sparen bzw. einfachn noch viel mehr Transistoren selbst bei einem 300mm² Chip draufknallen und so die Effizienz erhöhen (Anzahl der Transistoren hoch und Takt runter oder beides hoch - je nachdem was der Prozess erlaubt).
Dazu dann noch HBM2, welcher nochmal einiges an Strom spart und einen guten Speed-Boost bringt.

Nenne mich verrückt aber ich glaube GP204 könnte schon 20-50% schneller sein als GM200 - natürlich zum Nvidia-Spezialpreis von vielleicht 800-1000 Euro. Mit GP200 rechne ich eh nicht vor 2H16.


Es ist nicht so als hätte NV eine Wahl gehabt. Sie wollten bei der Titan X halt das VRAM Upgrade und man muss halt leider verdoppeln - ansonsten hätten sie GM200 512 bit breit machen müssen.

Doch, Nvidia könnte eine 6GB Version anbieten - optional!
Und es geht ja auch darum das hier einige NV-Fans die 12GB schönreden, als ob nächstes Jahr massig Spiele kommen würden, welche 12GB benötigen.

Edit:

Aber doch nur bei Leuten, die ständig geupgradet haben. Jeder, der die Karte länger als 1 Zyklus behielt hat davon profitiert. Eine GTX570 mit 1280 MiB VRAM ist heute kaum benutzbar in FullHD. Nicht wegen der Leistung sondern wegen des VRAMs.

Ach komm, Fermi ist 5 Jahre alt.....da reicht die Leistung eh nirgends mehr.
Und selbst wenn es gerade so reicht - tut das hier wirklich etwas zur Sache bei HighEnd GPUs, welche meist eh nur von Enthusiasten gekauft werden? Leute die 4-5 Jahre ihre HighEnd GPUs behalten haben eh falsch eingekauft und hätten aller 2 Jahre eine Performance/Mainstream-Karte nehmen sollen und hätten mehr davon gehabt für das gleiche Geld. Solche alten Karten gibts doch jetzt fast nur noch in dritter Hand.

kruemelmonster
2015-03-12, 14:39:54
Du hast die 8800-GTX mit 768 MiB aufgeführt im Zusammenhang, dass die 768 MiB zu viel gewesen sein sollten. Der nächst kleinere Schritt wären eben 320 MiB gewesen. Und das wäre zu wenig gewesen. 512 MiB ging nicht sinnvoll.

Gibts einen besonderen Grund warum du die "reguläre" 8800 GTS mit 640 MB auslässt? Die 320er war doch nur zum Abfischen des unteren Preisspektrums wie die 8800 GT Karten mit 256 MB.

Wie gesagt - GM200 mit Titan Label muss einfach ein VRAM Upgrade gegenüber GK110 haben, um 2015 noch 1000 €*kosten zu dürfen. Immerhin hat die Konkurrenz bereits 8 GiB. Der nächste Schritt sind 12 GiB.


Absolut richtig, damit sollte sich die VRAM Diskussion eigentlich auch erledigt haben. 6 GB wären lächerlich angesichts des Vorgängers, 8 und 10 gehen durchs Interface nicht, bleibt nur das Dutzend.

Doch, Nvidia könnte eine 6GB Version anbieten - optional!

Titan ist kein Produkt mit Optionen, All In ist das Motto. GM200 mit 6 GB wird es natürlich geben als "GTX 1080" o.ä.

robbitop
2015-03-12, 14:52:54
Da wäre ich extrem vorsichtig mit dieser Aussage. GM204 liegt schon meist vor der GTX780ti und das trotz viel kleinerem Chip und dem gleichen, total veralteten Herstellungsprozess.
Nimm lieber Titan Black um VRAM ausschließen zu können. Das sind bei Standardtaktraten (also non OC Modelle!) vieleicht 10 %. Kein Upgradegrund IMO.

Wenn Pascal einen gleich großen Schritt macht in der Architektur und dabei auf einen viel besseren Prozess zurückgreifen kann UND HBM2 Speicher bekommt fliegen selbst mit GP204 die Fetzen.

Wäre ja schön, wenn es so wäre. Leider ist NV seit Kepler aber im extremen Salami-Melk Modus.

Ailuros hat ja mal angedeutet, dass Pascal kaum Fortschritte hinsichtlich µ-Arch macht. Maxwell war schon extrem. Ob NV diese Effizienzsprünge weiter so hinbekommt?



Nenne mich verrückt aber ich glaube GP204 könnte schon 20-50% schneller sein als GM200 - natürlich zum Nvidia-Spezialpreis von vielleicht 800-1000 Euro. Mit GP200 rechne ich eh nicht vor 2H16.
Durchaus im Bereich des möglichen. GK104 war ja auch 30 % schneller als GF100.



Doch, Nvidia könnte eine 6GB Version anbieten - optional!
Und es geht ja auch darum das hier einige NV-Fans die 12GB schönreden, als ob nächstes Jahr massig Spiele kommen würden, welche 12GB benötigen.
NV wird sicher einen Salvage GM200 mit 6 GiB bringen.




Ach komm, Fermi ist 5 Jahre alt.....da reicht die Leistung eh nirgends mehr.
Und selbst wenn es gerade so reicht - tut das hier wirklich etwas zur Sache bei HighEnd GPUs, welche meist eh nur von Enthusiasten gekauft werden? Leute die 4-5 Jahre ihre HighEnd GPUs behalten haben eh falsch eingekauft und hätten aller 2 Jahre eine Performance/Mainstream-Karte nehmen sollen und hätten mehr davon gehabt für das gleiche Geld. Solche alten Karten gibts doch jetzt fast nur noch in dritter Hand.
Die GTX570 mit doppeltem VRAM hatte aber auch schon vor 2 Jahren Vorteile ggü der Version mit einfachem VRAM.
IMO kann man die Version mit doppeltem VRAM häufig gut und gern 1 Jahr länger nutzen.

robbitop
2015-03-12, 14:54:48
Gibts einen besonderen Grund warum du die "reguläre" 8800 GTS mit 640 MB auslässt? Die 320er war doch nur zum Abfischen des unteren Preisspektrums wie die 8800 GT Karten mit 256 MB.
Es sollte nur ein kurzer Abriss werden, keine Geschichtsstunde. Deshalb. ;)


Titan ist kein Produkt mit Optionen, All In ist das Motto. GM200 mit 6 GB wird es natürlich geben als "GTX 1080" o.ä.
Genau.

Unicous
2015-03-12, 15:06:51
Ich lehne mich mal aus dem Fenster und behaupte Trinidad Pro ist ein bereinigter Tonga Pro (metal spin, aufgeräumtes PCB). Tonga XT soll im iMac Retina bei 130 Watt liegen, also wäre das keine große Hürde. Die XFX R9 370 könnte daher auch eine ITX-Version mit etwas konservativerer Taktung sein.

Hübie
2015-03-12, 15:20:00
Moment mal. Seit wann werden denn mit highend Marktanteile erobert? :| Nur weil man GK110 Etwa 800.000 mal vercheckt hat heißt dies nicht dass man Marktanteile geholt hat und dass es noch mal funktioniert.

@Unicous: Fall nicht raus ;D

Schnoesel
2015-03-12, 15:31:04
Stichwort Prestige und Begehrlichkeiten wecken, oder warum meinst machen sich die Kiddies die sich niemals ne Titan X leisten könnten schon vor Freude ins Höschen?

Wen interessieren denn Benches von ner Mittelklasse Graka. Die meisten benches werden mit dem Top Dog gemacht und da spielt es eine Rolle wer den längsten hat. AMD muss an seinem Image arbeiten. Die schnellste Karte zu haben oder eine die nicht wesentlich langsamer aber günstiger ist als die Konkurrenz bei gleichzeitig wenig Schwächen (Laustärke, Hitze) ist dafür doch prädestiniert.

Agent117
2015-03-12, 16:19:38
Ich lehne mich mal aus dem Fenster und behaupte Trinidad Pro ist ein bereinigter Tonga Pro (metal spin, aufgeräumtes PCB). Tonga XT soll im iMac Retina bei 130 Watt liegen, also wäre das keine große Hürde. Die XFX R9 370 könnte daher auch eine ITX-Version mit etwas konservativerer Taktung sein.

Warum meinst du, dass für Tonga ein Metal-Spin notwendig ist? Sowas hat AMD doch schon lange nicht mehr gemacht, auch bei der Übernahme von Thaiti in die R-200-Serie wurde darüber gemutmaßt, es kam dann aber nichts.
Eine nennenswerte Reduzierung der Leistungsaufnahme würde ich dabei auch nicht erwarten, außer der Interconnect war wirklich sehr kaputt.
Kannst du abschätzen, wieviel ein Metal-Spin etwa kosten würde? Man bräuchte ja schon eine neue Maske dafür und die soll ja sehr teuer sein.

PS: Die 130W im iMac klingen ja auf den ersten Blick sehr gut.
Andererseits würden selektierte Thaitis bei 850Mhz vermutlich auch bei etwa 140-150W landen. Die 7970 non Ghz verbrauchte bei 925Mhz auch "nur" etwa 190 Watt.

fondness
2015-03-12, 16:42:36
Moment mal. Seit wann werden denn mit highend Marktanteile erobert? :| Nur weil man GK110 Etwa 800.000 mal vercheckt hat heißt dies nicht dass man Marktanteile geholt hat und dass es noch mal funktioniert.

@Unicous: Fall nicht raus ;D

Wenn eine Geforce irgendwas bei allen Benchmarks führt kauft der Kunde auch eine Geforce in seiner Preisklasse - egal ob es dort bessere Alternativen gibt oder nicht. Genau das hat AMD mit ihrer small-Die Strategie das Genick gebrochen und genau deshalb will man jetzt wieder die Leistungskrone.

Ailuros
2015-03-12, 17:14:37
Ein Monarch auf Kruecken ueberzeugt nicht wirklich.

Unicous
2015-03-12, 17:17:21
@Agent117

Ich kann nichts Konkretes über die Kosten eines metal spins sagen, denn die meisten Schätzungen gehen weit auseinander. Mal spricht man von einem niedrigen einstelligen Millionenbetrag. Dann wieder zweistellig. Und es kommt natürlich auch auf die Komplexität des Chips an.

Im iMac nimmt ein Tonga XT bei einer moderaten Frequenz von bis zu 850 Mhz ca. 130 Watt auf. Dass Tonga Pro im Vergleich eine unwahrscheinlich hohe TDP hat und gleichzeitig eine hohe Varianz bei der Leistungsaufnahme (beim einen Hersteller sind es knapp 190, beim anderen wieder knapp 160) zeigt für mich, dass der Die Probleme hat, die man auszumerzen könnte. Desweiteren frachtet AMD seit einiger Zeit Features auf ihre Dies (siehe Bonaire, z.B. True Audio und die APUs) die z.T. deaktiviert sind und/oder zu Testzwecken implementiert wurden (Trustzone ARM Chip) um sie in einem zukünftigen Produkt/Revision zu aktivieren. Warum Tonga soviel mehr Transistoren hat ist immer noch nicht wirklich geklärt, radikal umgebaut haben sie die CUs nicht.

Da sie mit dem iMac eine relativ konstante Geldquelle haben, ist es sicher kein Problem in einen respin zu investieren zumal Apple Probleme mit der Hitzeentwicklung hat. Einen etwas kühleren Chip würden sie sicherlich gerne nehmen, denn dann müssen sie nicht die Kühlung überarbeiten, vllt. zahlen sie ja auch dafür.*schulterzucksmiley*

Bei den Tahiti-Versionen hat man mE auch nicht auf die Dies geschaut und verglichen, bei Nvidia macht man das fast immer.:confused:

Loeschzwerg
2015-03-12, 17:26:33
Ein Monarch auf Kruecken ueberzeugt nicht wirklich.

Du meinst wegen der vermuteten Semi Lukü/Wakü Kühllösung und der damit verbundenen Leistungsaufnahme? *Die Speicherthematik mal nicht betrachtet*

Dawn on Titan
2015-03-12, 17:31:24
Eine Karte macht keinen Sommer. Sachlich ist nämlich imho kein Maxwell-Chip schlecht. Klar manche werden zu teuer verkauft aber die Eigenschaften sind bei allen gut. (ich sagte Chip nicht Karte!)

Unicous
2015-03-12, 17:33:03
Nicht schlecht...aber langweilig.:tongue:

Ailuros
2015-03-12, 19:57:44
Du meinst wegen der vermuteten Semi Lukü/Wakü Kühllösung und der damit verbundenen Leistungsaufnahme? *Die Speicherthematik mal nicht betrachtet*

Nein. Treiber.

Hübie
2015-03-12, 20:16:41
Wen interessieren denn Benches von ner Mittelklasse Graka. Die meisten benches werden mit dem Top Dog gemacht und da spielt es eine Rolle wer den längsten hat. AMD muss an seinem Image arbeiten. Die schnellste Karte zu haben oder eine die nicht wesentlich langsamer aber günstiger ist als die Konkurrenz bei gleichzeitig wenig Schwächen (Laustärke, Hitze) ist dafür doch prädestiniert.

Die brauchen sich einfach nicht mehr blamieren und hier und da anständige Produkte liefern. Das Image bekommen die allein deshalb nicht hin, weil die mehr wie eine Behörde arbeiten und wirken. Da gibt's keinen kernigen Jensen der immer einen flotten Spruch parat hat.

Wenn eine Geforce irgendwas bei allen Benchmarks führt kauft der Kunde auch eine Geforce in seiner Preisklasse - egal ob es dort bessere Alternativen gibt oder nicht. Genau das hat AMD mit ihrer small-Die Strategie das Genick gebrochen und genau deshalb will man jetzt wieder die Leistungskrone.

Woher stammen deine Einsichten / Erhebungen??

Ein Monarch auf Kruecken ueberzeugt nicht wirklich.

X-D Das passt irgendwie dazu...

Nicht schlecht...aber langweilig.:tongue:

THIS! Da wirds bei AMD schon spannender.

dargo
2015-03-12, 20:31:57
Ich verstehe die VRAM Diskussion nicht. 2012 wurde das gleiche über die 6 GiB von Titan Classic gesagt. Und heute will man als Titan Besitzer die 6 GiB nicht mehr missen...

2012 gab es noch keine Next-Gen Konsolen, ergo auch keine Next-Gen Spiele. Dass der Speicherbedarf mit dem Kommen der neuen Konsolen um X% steigt war von vorne rein klar. Ich sehe aber weder 2015 noch 2018 die Next-Next-Gen Konsolen kommen die wieder einen Sprung X beim Speicher erfordern.

fondness
2015-03-12, 20:53:33
Nein. Treiber.

ich weiß das findest du lächerlich, aber der Treiber ist eben sehr wichtig.

Raff
2015-03-12, 22:57:14
Aber doch nur bei Leuten, die ständig geupgradet haben. Jeder, der die Karte länger als 1 Zyklus behielt hat davon profitiert. Eine GTX570 mit 1280 MiB VRAM ist heute kaum benutzbar in FullHD. Nicht wegen der Leistung sondern wegen des VRAMs. Leute, die den doppelten Speicher genommen haben, profitieren. Das gleiche galt auch für G80 und GT200. Die 768 MiB waren 2-3 Jahre später wirklich ein Vorteil ggü 512 MiB Karten. Auch die 1,5 GiB GT200 ggü der 768er.

Ach komm, Fermi ist 5 Jahre alt.....da reicht die Leistung eh nirgends mehr.
Und selbst wenn es gerade so reicht - tut das hier wirklich etwas zur Sache bei HighEnd GPUs, welche meist eh nur von Enthusiasten gekauft werden? Leute die 4-5 Jahre ihre HighEnd GPUs behalten haben eh falsch eingekauft und hätten aller 2 Jahre eine Performance/Mainstream-Karte nehmen sollen und hätten mehr davon gehabt für das gleiche Geld. Solche alten Karten gibts doch jetzt fast nur noch in dritter Hand.

Wer 2011 in eine GTX 580/3G investiert hat - die hat damals richtig Asche gekostet -, kann damit immer noch ordentlich zocken. Die Rechenleistung ist in Ordnung (Pitcairn-XT-Niveau) und die 3 GiB retten der Karte den Arsch in unzähligen neuen Spielen. Auch die GTX 480 schneidet heute deutlich besser ab als die früher fast genauso schnelle HD 5870. Das liegt zwar auch daran, dass VLIW keine Treiberliebe mehr erfährt, aber in erster Linie am nun sehr knappen Speicher (1 GiB).

Ich bin da bei robbi und werde nach Möglichkeit keinen Speicherkrüppel mehr kaufen. Das basiert auf Erfahrungen, die ich schon sehr früh sammelte. Am markantesten waren die frühen Erlebnisse mit GeForce 4 Ti-4200 und Radeon 9800 Pro. Hohes OC und die Entwicklung zur Bildqualitätsbitch ;) führen zu Nutzszenarien, die nicht mit Speichermangel vereinbar sind. Wenn AMDs neueste Grafikkarte nur 4 GiB trägt, ist sie leider aus dem Rennen, denn ich werde gewiss kein Kapazitätsdowngrade durchführen: 1.024 MiB (HD 5870) - 1.536 MiB (GTX 580) - 3.072 MiB (HD 7970) - 6.144 MiB (Titan). Und es hat sich immer gelohnt. Unter 8 GiB wird das nix mit der Neuanschaffung.

MfG,
Raff

redfirediablo
2015-03-12, 23:01:51
Wobei ich dann in der Berichterstattung der PCGH darum bitte möchte auch die Sichtweise eines High FPS Gamers mit 144Hz Monitor zu betrachten, der seine Freude mit ultraflüssigen Bildern hat, auch wenn man persönlich in die andere Richtung gehen mag ;)

Thomas Gräf
2015-03-12, 23:15:44
Die brauchen sich einfach nicht mehr blamieren und hier und da anständige Produkte liefern. Das Image bekommen die allein deshalb nicht hin, weil die mehr wie eine Behörde arbeiten und wirken. Da gibt's keinen kernigen Jensen der immer einen flotten Spruch parat hat.
...


Ohja, ich stell mir gerade den Fitschi Launch vor wie sie als erstes eine riesige Kiefernholz Attrappe mit jeder menge Holzschrauben dran in die Kameras halten. Die Gesichter der Journalisten möcht ich dann sehen. ;)
Eh das währ doch ein toller Start.

Ailuros
2015-03-13, 06:28:18
ich weiß das findest du lächerlich, aber der Treiber ist eben sehr wichtig.

Musst Du mir nicht sagen; erzaehl es den Vollidioten im oberen management. Und obwohl OT es ist eher die sw/Unterstuetzung die mich daran zweifeln laesst dass Mediatek etwas von AMD fuer ULP lizenziert haben koennte. Es ist zwar nur Fudo-Brei bis jetzt, aber frag mich mal lieber was ich von moeglichen Android Treibern von AMD halten wuerde und dann erst erklaer ich Dir was ich wirklich als laecherlich empfinde.

Hiess es nicht von offiziellen AMD Lippen dass sie fuer das neue (desktop) Zeug den letzten Schliff auflegen? Denk weiter...

Dawn on Titan
2015-03-13, 06:55:03
Entweder sind die aktuellen Treiber etwas "suboptimal" oder sie basteln an einer Performanceoptimierung.

dargo
2015-03-13, 06:58:08
Wer 2011 in eine GTX 580/3G investiert hat - die hat damals richtig Asche gekostet -, kann damit immer noch ordentlich zocken. Die Rechenleistung ist in Ordnung (Pitcairn-XT-Niveau) und die 3 GiB retten der Karte den Arsch in unzähligen neuen Spielen.
Nur mal so nebenbei... bei Pitcairn Niveau bist du automatisch gezwungen einige Details zu senken um brauchbare Frameraten zu erzielen. Schon alleine dadurch sinkt der Speicherbedarf etwas. Warum dann auch nicht die Texturauflösung eine Stufe reduzieren? Wer so lange eine Graka nutzt dem würde ich grundsätzlich empfehlen mehr Speicher zu nehmen. Das trifft in diesem Forum aber nur auf sehr wenige User zu. Die meisten die hier schreien wechseln doch eh wieder nächstes Jahr (spätestens übernächstes) die Grafikkarte.

robbitop
2015-03-13, 08:28:56
2012 gab es noch keine Next-Gen Konsolen, ergo auch keine Next-Gen Spiele. Dass der Speicherbedarf mit dem Kommen der neuen Konsolen um X% steigt war von vorne rein klar. Ich sehe aber weder 2015 noch 2018 die Next-Next-Gen Konsolen kommen die wieder einen Sprung X beim Speicher erfordern.
Die Diskussion habe ich mit Nightspider schon geführt. Lesen. Die Diskussion ist schon beendet. ;)

M4xw0lf
2015-03-13, 08:32:25
Hiess es nicht von offiziellen AMD Lippen dass sie fuer das neue (desktop) Zeug den letzten Schliff auflegen? Denk weiter...
Fiji ist bereit, aber der Treiber nicht?

Gaestle
2015-03-13, 08:44:22
Könnte es eigentlich sein, dass AMD HBM und "klassischen" Speicher z.B. an 512Bit kombiniert?

AMD wird doch auch sehen, dass 4GB in Zukunft knapp werden und das 8GB HBM sehr teuer sind.

Ist also z.B. ein 4+4GB-Lösung + Logik zum "Vorausschauenden Hin- und Hertransferieren zwischen beiden Speicherarten" möglich?

Und: Wann kommt der Nachfolger zum 14.12 OMEGA?

Dawn on Titan
2015-03-13, 08:47:34
Eher HBM + 256Bit oder 128Bit mit dem GDDR als "Zwischenspeicher", das sollte bei der 128Bit Lösung in der Größe sehr nahe an einem 384Bit-Bit GDDR Interface rauskommen.

Palpatin
2015-03-13, 09:11:40
AMD wird doch auch sehen, dass 4GB in Zukunft knapp werden und das 8GB HBM sehr teuer sind.

Dann sollen sie halt 800€ oder etwas mehr für das Teil verlangen. Perfekt wäre eine Lukü Version mit 4GB und eine Wakü Version mit 8GB die Lukü dann um die 550€ und die Wakü um die 800€.
Kann mir wirklich nicht vorstellen das ausgerechnet AMD jetzt mit einem Speicherkrüppel daher kommt.

Dimitri Mayakovsky
2015-03-13, 09:17:57
Ist also z.B. ein 4+4GB-Lösung + Logik zum "Vorausschauenden Hin- und Hertransferieren zwischen beiden Speicherarten" möglich?
Möglich, macht nur absolut null Sinn.

Hast du genau die Probleme, die NVIDIA mit der 970 hat. Und bei AMDs Leistungen in Sachen Treiberanpassungen...

tm0975
2015-03-13, 09:18:48
Die meisten die hier schreien wechseln doch eh wieder nächstes Jahr (spätestens übernächstes) die Grafikkarte.

wir (dies hier mitlesen) werden alle in 2016 die Grafikkarte wechseln. Der sprung von 28 auf 14 ff ist einfach so groß, dass er sich förmlich auszwingen wird in unserem leistungssegment.

Hast du genau die Probleme, die NVIDIA mit der 970 hat. Und bei AMDs Leistungen in Sachen Treiberanpassungen...

nvidia hat kein technisches problem. sicherlich ist das ganze suboptimal ungesetzt. nvidias problem ist schlicht die falsche darstellung der sachlage. und das nicht zum ersten mal.

http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html

Ailuros
2015-03-13, 09:26:42
Fiji ist bereit, aber der Treiber nicht?

Ich lass lieber den "Experten" antworten: http://www.fudzilla.com/news/graphics/37258-fiji-radeon-390x-comes-with-8gb

:freak:

Dimitri Mayakovsky
2015-03-13, 09:40:27
nvidia hat kein technisches problem. sicherlich ist das ganze suboptimal ungesetzt. nvidias problem ist schlicht die falsche darstellung der sachlage. und das nicht zum ersten mal.
Ja, falsche Kommunikation. Problematisch ist es trotzdem, wenn man zwei verschiedene Speicherbereiche hat. AMD hätte ja ganz andere Probleme und müsste z.B. für jedes Spiel anpassen, welche Daten in welchem Speicherbereich liegen. Das passen Entwickler aktuell ja gar nicht an, weil es dafür keine Notwendigkeit gibt.

robbitop
2015-03-13, 09:44:42
Ich lass lieber den "Experten" antworten: http://www.fudzilla.com/news/graphics/37258-fiji-radeon-390x-comes-with-8gb

:freak:


The decision to go for an 8GB Fiji rather than the planned 4GB version was in part attributed by Nvidia’s Titan X 12GB card announcement.


Wie naiv kann man eigentlich sein? :freak: