PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Hübie
2015-06-05, 19:38:05
Dann wird das mit Tonga und 384 Bit wohl auch nur ein Märchen sein :rolleyes:

basix
2015-06-05, 19:38:41
Das wären 120FPS, Titan X hat 116FPS (Ausgerechnet + 51% von 970)

Die hat 99.3 FPS in dem verlinkten Test. CPU limitiert sieht es auch nicht aus, da der Abstand zur 980GTX bei 4k fast gleich ist. Die Skalierung von GM204 auf GM200 scheint eher bescheiden zu sein in Project Cars

Sunrise
2015-06-05, 19:45:22
1.100 MHz Boost der gut gehalten wird bei der Fury X wären natürlich ein Brett.

"World's fastest single GPU graphics card with 9 TFLOPS" :D

Und dann noch ordentlich DP-Power on top.

Ist übrigens garnicht so einfach aktuelle Tonga-Benchmarks mit aktuellen Treibern zu finden, aber das was man findet spricht eigentlich eine klare Sprache. Ist eigentlich nur die Frage ob AMD dieses Mal genug Fläche hatte, damit da kein nennenswerter Flaschenhals bei der Skalierung nach oben zu sehen ist.

Ich bin vor allem mal gespannt wie sich die GPU verhält beim OC, wenn das fette 512bit SI nichtmehr so extrem bremst. Selbst bzgl. Tonga sollten da mit Sicherheit Verbesserungen zu sehen sein. Denn durch die bereits per Default sehr hohe Bandbreite und zusätzlich DCC entfällt der Speicher-OC komplett. Ich habe jetzt die HBM-Specs nicht da (iPhone), aber evtl. kann man da sogar etwas mit dem Takt spielen, wenn AMD das zulässt. Sofern das nicht schon dynamisch in ausreichenden Schritten passiert (weil man mit Sicherheit diese immense Bandbreite in vielen Fällen kaum brauchen wird).

Nur noch ein paar Tage dann gibts hoffentlich mehr dazu.

Locuza
2015-06-05, 19:57:38
Dann wird das mit Tonga und 384 Bit wohl auch nur ein Märchen sein :rolleyes:
Hübie du scheinst nicht zu wollen, dass Tonga 384-Bit hat. :redface:

Tamagothi
2015-06-05, 20:03:06
Vielleicht sehen wir Tonga @ XT @ 14nm @ 384-Bit :)

Ravenhearth
2015-06-05, 20:04:38
Ich bezweifle, dass 384 Bit bei <200mm² möglich sind (pad area).

Sunrise
2015-06-05, 20:08:57
Vielleicht sehen wir Tonga @ XT @ 14nm @ 384-Bit :)
Hm? Wieso das? 4096 ALUs mit Verbesserungen und DX12_1 gegen GP104.

Für ein 384bit SI wäre das Ding auf 14nm zu klein.

AMD geht da aber nichtmehr auf GDDR5 zurück, das sollte sich mit Arctic Islands erledigt haben, alleine aus Effizienzgründen und der deutlich geringeren Fläche, das will vor allem Apple.

basix
2015-06-05, 20:19:03
Hm? Wieso das? 4096 ALUs mit Verbesserungen und DX12_1 gegen GP104.

Für ein 384bit SI wäre das Ding auf 14nm zu klein.

AMD geht da aber nichtmehr auf GDDR5 zurück, das sollte sich mit Arctic Islands erledigt haben, alleine aus Effizienzgründen und der deutlich geringeren Fläche, das will vor allem Apple.

Nicht nur Apple will das, ich denke alle involvierten Firmen wollen höhere Effizienz etc. Sei es nur um beim Kühlblock Material zu sparen oder mit HBM ein neues Buzz-Word fürs Marketing zu haben.

Tamagothi
2015-06-05, 20:24:54
Also ich bezweifle das gleich alles chips bei AMD und NVidia auf HBM bauen werden @14/16nm ! Der größte Teil geht erstmal in den Profimarkt 16/32 GB. Der Rest Highend 8/16. Und der Rest rest immernoch GDDR 5.

Sunrise
2015-06-05, 20:35:18
Das Problem ist die Padarea und die schlechte Shrinkbarkeit. GDDR5-Interfaces sind zu fett, die Bandbreite ist auch am Ende.

Wenn jetzt der nächste große Switch auf 14/16nm kommt, dann werden die Chips immer kleiner, aber die GDDR5-Interfaces skalieren da nicht mit. Das ist verschwendete Fläche und die könnte man in noch kleinere Chips, die effizienter und billiger zu fertigen sind investieren.

Das Problem werden anfänglich wie immer wieder die Kosten sein, vor allem ist HBM Hynix-exklusiv. Und die ganz kleinen GPUs (im Sinne der Leistung) ergeben immer weniger Sinn, weil die sich sowieso nichtmehr rechnen.

HBM ist außerdem super flexibel, da gehen ein paar geile Sachen. Hatten wir hier kurz mal angesprochen.

[MK2]Mythos
2015-06-05, 20:44:58
Das Problem werden anfänglich wie immer wieder die Kosten sein, vor allem ist HBM Hynix-exklusiv. Und die ganz kleinen GPUs (im Sinne der Leistung) ergeben immer weniger Sinn, weil die sich sowieso nichtmehr rechnen.

HBM ist außerdem super flexibel, da gehen ein paar geile Sachen. Hatten wir hier kurz mal angesprochen.


Vielleicht sehen wir nächstes Jahr ja wirklich keine Low End Grafikkarten mehr und alles ab Midrange kommt dann bereits mit HBM.

Unicous
2015-06-05, 20:55:53
@Sunrise

HBM ist doch nicht hynix-exklusiv? Sie sind momentan die einzigen öffentlichen Hersteller, aber z.B. Samsung hat schon vor längerer Zeit ankündigt HBM produzieren zu können und zu wollen.

Wenn ich das richtig interpretiere haben sie es Ende letzten Monats auch öffentlich gemacht.

Almost incidentally the company announced their High Bandwidth Memory market introduction.
http://www.techeye.net/business/samsung-announces-imdb-memory-with-ndp-hbm-too

Nakai
2015-06-05, 21:00:24
Wird Fiji auf 14FF geshrinkt, sollte der Chip etwa 250~300mm2 groß sein. Ich erwarte das Ende 2015. Womöglich kein einfacher Shrink, man wird hier und da einige Änderungen durchführen.

In der Zukunft gibt es DDR4/Gddr5+Hbm-Kombinationen, siehe PIM-Folien. Das wird richtig interessant.

Flusher
2015-06-05, 21:01:53
1.100 MHz Boost der gut gehalten wird bei der Fury X wären natürlich ein Brett.

"World's fastest single GPU graphics card with 9 TFLOPS" :D

Und dann noch ordentlich DP-Power on top.

Ist übrigens garnicht so einfach aktuelle Tonga-Benchmarks mit aktuellen Treibern zu finden, aber das was man findet spricht eigentlich eine klare Sprache. Ist eigentlich nur die Frage ob AMD dieses Mal genug Fläche hatte, damit da kein nennenswerter Flaschenhals bei der Skalierung nach oben zu sehen ist.

Ich bin vor allem mal gespannt wie sich die GPU verhält beim OC, wenn das fette 512bit SI nichtmehr so extrem bremst. Selbst bzgl. Tonga sollten da mit Sicherheit Verbesserungen zu sehen sein. Denn durch die bereits per Default sehr hohe Bandbreite und zusätzlich DCC entfällt der Speicher-OC komplett. Ich habe jetzt die HBM-Specs nicht da (iPhone), aber evtl. kann man da sogar etwas mit dem Takt spielen, wenn AMD das zulässt. Sofern das nicht schon dynamisch in ausreichenden Schritten passiert (weil man mit Sicherheit diese immense Bandbreite in vielen Fällen kaum brauchen wird).

Nur noch ein paar Tage dann gibts hoffentlich mehr dazu.

Woher kommt denn überhaupt die Annahme, dass Hawaii bandbreitenlimitiert ist? Hawaii skaliert nur mäßig mit höheren VRAM Takt.

Duplex
2015-06-05, 21:10:09
Wird Fiji auf 14FF geshrinkt, sollte der Chip etwa 250~300mm2 groß sein. Ich erwarte das Ende 2015. Womöglich kein einfacher Shrink, man wird hier und da einige Änderungen durchführen.
Shrinken sollte kein Problem sein, selbst 8192 Shader sind in 14nm kein Problem, seit den Konsolen Chips hat AMD genug Erfahrungen mit großen DIEs gesammelt.

Ich erwarte aber in 14nm eine bessere Architektur als GCN, das heißt, Shrinks machen keinen sinn.

M4xw0lf
2015-06-05, 21:11:19
1.100 MHz Boost der gut gehalten wird bei der Fury X wären natürlich ein Brett.

"World's fastest single GPU graphics card with 9 TFLOPS" :D
Das ist noch so eine mögliche Auslegung von 'world's fastest GPU', die theoretische Rechenleistung. Wäre aber auch nicht so cool, wenn das alles wäre worauf sich die Aussage bezieht.

Pentium M
2015-06-05, 21:19:04
Shrinken sollte kein Problem sein, selbst 8192 Shader sind in 14nm kein Problem, seit den Konsolen Chips hat AMD genug Erfahrungen mit großen DIEs gesammelt.

Ich erwarte aber in 14nm eine bessere Architektur als GCN, das heißt, Shrinks machen keinen sinn.

Erzähl bitte nicht so einen Stuss, andere glauben das womöglich.

Ravenhearth
2015-06-05, 21:23:09
Wird Fiji auf 14FF geshrinkt, sollte der Chip etwa 250~300mm2 groß sein. Ich erwarte das Ende 2015. Womöglich kein einfacher Shrink, man wird hier und da einige Änderungen durchführen.

In der Zukunft gibt es DDR4/Gddr5+Hbm-Kombinationen, siehe PIM-Folien. Das wird richtig interessant.

Du meinst wohl Ende 2016.

Tamagothi
2015-06-05, 21:29:56
Woher kommt denn überhaupt die Annahme, dass Hawaii bandbreitenlimitiert ist? Hawaii skaliert nur mäßig mit höheren VRAM Takt.

Von 1250MHz auf 1500MHz machen das bei mir je nach Ort 2-5 fps in Witcher 3.

Ist zwar nicht viel aber immerhin.

Momentmal bei 2560x1600 @ VSR -> avg 50 fps sind das je nach Scene 4-10% :wink: (hatte ich mal getestet )

drkohler
2015-06-05, 21:54:41
Wird Fiji auf 14FF geshrinkt, sollte der Chip etwa 250~300mm2 groß sein. Ich erwarte das Ende 2015. Womöglich kein einfacher Shrink, man wird hier und da einige Änderungen durchführen.

In der Zukunft gibt es DDR4/Gddr5+Hbm-Kombinationen, siehe PIM-Folien. Das wird richtig interessant.Mit dieser Meinung stehst du aber alleine im Wald...
Im Uebrigen sind GDDR5 Controller etwas vom Schwierigsten zu shrinken, weil sie u.A. leistungsstarke Transistoren brauchen. Eine Kombination "Wir nehmen mal einfach Alle Memcontroller wo gibt" macht überhaupt keinen Sinn. Das wäre auch ein Albtraum, nur schon all die Busse zu verbinden/isolieren.

raffa
2015-06-05, 22:01:22
Hm? Wieso das? 4096 ALUs mit Verbesserungen und DX12_1 gegen GP104.

Für ein 384bit SI wäre das Ding auf 14nm zu klein.

AMD geht da aber nichtmehr auf GDDR5 zurück, das sollte sich mit Arctic Islands erledigt haben, alleine aus Effizienzgründen und der deutlich geringeren Fläche, das will vor allem Apple.

Ganz genau, GDDR5 ist ziemlich tot, behaupte ich mal.
Sobald HBM gut verfügbar, sehen wir APUs mit HBM, mainstream Grakas mit HBM, High End kommt ja jetzt schon damit. Klar, das dauert noch ein wenig aber die Vorteile sind so offensichtlich. Einfachere Anbindung, geringere Leistungsaufnahme, kleinere Platinen...

samm
2015-06-05, 23:20:46
Ich erwarte aber in 14nm eine bessere Architektur als GCN, das heißt, Shrinks machen keinen sinn.Besser als GCN? Höchstens Weiterentwicklungen, aber von den Prinzipien von GCN wird man so schnell nicht wegkommen.

Kriton
2015-06-05, 23:22:45
Also ich bezweifle das gleich alles chips bei AMD und NVidia auf HBM bauen werden @14/16nm ! Der größte Teil geht erstmal in den Profimarkt 16/32 GB. Der Rest Highend 8/16. Und der Rest rest immernoch GDDR 5.

Du fängst ja nicht einfach an das Speicherinterface kurzfristig für den Chip zu integrieren. Ich wage zu behaupten, die Frage welche der 2016er Chips HBM bekommen steht bereits fest.

AffenJack
2015-06-05, 23:36:35
Besser als GCN? Höchstens Weiterentwicklungen, aber von den Prinzipien von GCN wird man so schnell nicht wegkommen.

Naja, ein GCN 2.0 eben. Amd hat ja schon am FAD Optimized GCN oder wie sich das genau geschimpft hat angekündigt. Nur weil das Grundgerüst bleibt, heißt das nicht, dass man nicht alles in Richtung Perf/W optimieren kann.

samm
2015-06-05, 23:51:18
"Bessere Architektur als GCN" klingt für mich halt nach Umbruch à la VLIW --> GCN, nicht nach GCN 1.2 (oder 1.3 mit Fiji? We'll see...) zu GCN 2.0. AMD-intern haben die ja eh nochmal andere Nummern, da ist "1.2" schon Generation 3 oder so.

Duplex
2015-06-06, 00:35:30
Besser als GCN? Höchstens Weiterentwicklungen, aber von den Prinzipien von GCN wird man so schnell nicht wegkommen.
Die Architektur muss viel effizienter gemacht werden, Hawaii war kein Meilenstein, seit der Einführung der GCN Architektur hat man fast nichts mehr gemacht, Sie haben bei Hawaii das Frontend erweitert & Features eingebaut, das ist nichts besonderes wenn man das mit Nvidia vergleicht. Eine wirkliche Weiterentwicklung von GCN wurde noch nicht veröffentlicht, Fiji ist auch nichts besonderes, das ist lediglich ein big DIE mit mehr Einheiten & hoher GPU Takt, gekühlt durch Wasserkühlung, keine höhere Performance pro Shader, sonst hätte man auf Luft gesetzt, eine Entwicklung bedeutet für mich härtere Eingriffe im Design, das wird man frühestens nächstes Jahr bei der R9-400 Serie sehen.

Ravenhearth
2015-06-06, 00:46:35
AMD entwickelt die Architektur nur langsam fort, da wird es imho keine wirklich großen Sprünge geben.

Pentium M
2015-06-06, 00:56:30
Fiji ist auch nichts besonderes, das ist lediglich ein big DIE mit mehr Einheiten & hoher GPU Taktvielleicht HBM

Facepalm wäre zu wenig. :comfort:

Duplex
2015-06-06, 01:00:39
HBM steigert keine GPU Performance, ich will ein Design das 30% schneller ist damit ich Fläche sparen kann und nicht primär auf die beste Fertigung angewiesen bin. Nvidia hat das ganz klug gemeistert, gleich 50% mehr Effizienz beim selben Prozess, die Ingenieure von nvidia lachen AMD aus, eine gute Karte braucht keine Wasserkühlung !

Pentium M
2015-06-06, 01:02:08
Skotom der Verstand sieht was er sehen will.

Duplex
2015-06-06, 01:06:35
Im Prinzip hätte AMD vor 1 Jahr schon ein 4096 Shader Chip zusammen mit 8GB DDR5 @375W zeigen können, dann hätte sich die Wasserkühlung wenigstens gelohnt :eek:

Hübie
2015-06-06, 01:09:22
Hübie du scheinst nicht zu wollen, dass Tonga 384-Bit hat. :redface:

Das hat er damit zu tun dass es aus keinerlei Sicht Sinn ergibt. Tonga ist mit 2048 ALUs am Markt, also warum dann bitte einfach mal mir nix, dir nix ein Drittel des PHY deaktivieren? :| Statt 2 wären dass 3 GiB was ca 7-8$ für AMD ausmachen würde. Meinetwegen dann 10-11$ für Apple. Preis-Absatz würde sich damit minimal verschieben.
Ich glaube es erst wenn ich es sehe.

Pentium M
2015-06-06, 01:14:41
Duplex du bist einfach Grenzenlos.So ein Bullshith.

Duplex
2015-06-06, 01:18:19
Was soll an Tonga so besonders sein?

Nvidia hatte 30 Monate früher mit GK104 gleiche Performance bei 58mm² weniger DIE Space.

Unicous
2015-06-06, 01:32:03
Ich glaube es erst wenn ich es sehe.

Was meinst du mit sehen?

Der die shot wird im Dateinamen als Tonga betitelt. Man sieht 32 CUs, der die shot sieht anders aus als der von Tahiti und es gibt 6 Strukturen die sich stark ähneln. (Einen anderen 32 CU chip gibt es nicht)

Carsten Spille (PCGH) hat extra im B3D-Forum nachgefragt, weil er den die shot in seinem press deck vom Tech Day gefunden hat.
http://www.pcgameshardware.de/AMD-Radeon-R9-285-2G-Grafikkarte-259969/News/Tonga-GPU-256-Bit-Interface-und-32-CUs-1160632/galerie/2381856/?fullsize

Hier sind die einzelnen MC nochmals eingezeichnet (vllt. von jemandem aus dem B3D-Forum?):

http://www.pcgameshardware.de/AMD-Radeon-R9-285-2G-Grafikkarte-259969/News/Tonga-GPU-256-Bit-Interface-und-32-CUs-1160632/galerie/2382177/?fullsize

Pentium M
2015-06-06, 01:35:12
Den meisten geht es wahrscheinlich wie mir .WARUM?

StefanV
2015-06-06, 01:47:28
Weil ein 256bit Speicherinterface auf der Karte deutlich billiger ist als ein 384bit Speicherinterface.
Ev. kommen auch noch Stromspardinge dazu...

Und letztendlich bleibt die Frage, wie sehr Tonga an der Bandbreite hängt...

Ganz ab davon wollte man wohl auch nicht das ganze Pulver verschießen ;)

Durch Tonga stellt sich aber die Frage, ob es nicht eventuell doch einen gleichartigen Ersatzchip zu Pitcairn geben könnte. Denn Tonga ist ja von den techn. Daten gleich zu Tahiti (gleiche Anzahl der Shader und wohl auch gleiches Speicherinterface)...
Und es ist ja auch nur die 285 und nicht 285X, ev. wollte man einen größeren Unterschied zwischen Tonga Pro und XT? (und man saß auf 'nem Haufen Tahiti Chips)...

Hier noch mal 'nen paar Bilder zu R9-285er PCBs:
http://www.kitguru.net/components/graphic-cards/zardon/asus-r9-285-strix-review/2/
http://www.vortez.net/articles_pages/sapphire_dual_x_oc_r9_285_review,6.html

Unicous
2015-06-06, 01:48:52
@Pentium M

Die einzige Erklärung dir mir gerade einfällt: PHYs verbraten Strom und Delta Color Compression afaik erhöht die Leistungsaufnahme kaum bis gar nicht.

AMD könnte festgestellt haben, dass durch die PHYs die Effizienz unter Tahiti fällt und haben sie einfach deaktiviert weil sie auch DCC implementiert hatten und die Einbußen durch die Deaktivierung bei der Bandbreite zumindest deutlich verringern konnten.

Natürlich könnte man theoretisch auch noch den Yield erhöhen, aber dafür noch extra Fläche ausgeben ist schon komisch.

Schaffe89
2015-06-06, 04:46:26
keine höhere Performance pro Shader, sonst hätte man auf Luft gesetzt

Könntest du mal mit deinem Senf aufhören, das ist ja unerträglich, schlimmer als horn.
Höhere Performance pro Shader ist bisher nicht ausgeschlossen.
Aber ja, AMD kann keine GPu´s designen und Fijii wurde eben für HBM entwickelt, wie hätte man den also vor einem Jahr bringen können.

horn 12
2015-06-06, 08:34:32
Sooo schlimm bin ich gar nicht!
Wetten dass die Fiji Karte einschlägt
AMD ist Technisch weit voraus, OK dies mit DX12 muss noch geklärt werden.

OBrian
2015-06-06, 09:14:05
kann ja wirklich sein, daß es noch eine 384-bit Tonga gibt. Als Option ist es jedenfalls schnell machbar, falls sich die Notwendigkeit ergeben sollte. Ein voller Tonga mit nur 256bit dürfte jedenfalls reichen, um die Lücke zu Hawaii Pro zu schließen, allerdings ist ein Tonga mit 384bit SI evtl. billiger herstellbar als Hawaii Pro. Und da Tonga neueste IP beinhaltet, wäre es sinnvoll, den Chip möglichst breit auszuwalzen. In jedem Fall wird Tonga jedenfalls der Chip des aktuellen Sortiments sein, der am längsten durchhalten muß, sprich als letzter durch eine 14-nm-Variante ersetzt werden wird. Ich sehe das als Option, um ggf. die Lücke zu schließen, die sich ergibt, wenn Hawaii wegfallen wird.

M4xw0lf
2015-06-06, 09:27:55
Hawaii kann nicht wegfallen, die Lücke wäre viel zu gewaltig.

Troyan
2015-06-06, 09:46:48
Hawaii ist die 390 Serie: http://www.tweaktown.com/news/45756/asus-radeon-r9-390x-directcu-ii-oc-details-leak-8gb-gddr5-ram/index.html

380 ist Tonga - siehe OEM Version.

fondness
2015-06-06, 09:54:41
Default-Taktraten dürfte dann wohl auch wie schon spekuliert bei 1050/1500 liegen. Damit wird man zumindest die GTX970 distanzieren. Für die GTX980 braucht es einen Fiji.

Troyan
2015-06-06, 10:00:43
Da mehr als 80% der GTX970 mit höhreren Taktraten auf dem Markt sind, wird man die GTX970 nicht distanzieren. Es bleibt im Grunde alles beim alten...

horn 12
2015-06-06, 10:01:53
No, rechne knapp unter GTX 980 bei noch gutem Verbrauch
Gefertigt wohl bei Globo.

Für die GTX 980TI bringt man wohl Fury, mit vielleicht knappen Gleichstand.

Schnitzl
2015-06-06, 10:09:59
seltsamer Plan, eine 390 mit 8GB zu bringen und darüber Fiji mit 4GB

horn 12
2015-06-06, 10:17:51
Nicht auszuschlieesen dass selbt Fiji XT nur mit 8GB HBM komt, , Fury mit 4 und 8GB
So einen Launch mit 4GB HBM und Mitte August dann mit 8GB HBM, die Zeitspanne ist zu gering und die 4GB würden als Ladenhüter verdammt werden, für die Fiji Karte ein zu Teures Unterfangen.
Denke die Karten werden gut verfügbar sein, aber eben recht teuer.

Dann hätte man eine Vorstellung Mitte Juni und den Launch sprich Verfügbarkeit ab dem 24.ten Juni nicht zugelassen.
Denn wenn denn 8GB Modelle ab August gibt, warten die Indsider alle auf jene 8GB.

mironicus
2015-06-06, 10:19:07
Fiji ist ja auch nur eine Design-Studie, die richtigen Karten gibt es dann nächstes Jahr. :D

Dawn on Titan
2015-06-06, 10:27:22
@Pentium M

Die einzige Erklärung dir mir gerade einfällt: PHYs verbraten Strom und Delta Color Compression afaik erhöht die Leistungsaufnahme kaum bis gar nicht.

AMD könnte festgestellt haben, dass durch die PHYs die Effizienz unter Tahiti fällt und haben sie einfach deaktiviert weil sie auch DCC implementiert hatten und die Einbußen durch die Deaktivierung bei der Bandbreite zumindest deutlich verringern konnten.

Natürlich könnte man theoretisch auch noch den Yield erhöhen, aber dafür noch extra Fläche ausgeben ist schon komisch.

Oder der Dieshot zeigt 2 halbe Tongas, die zu einem falschen ganzen zusammen gebaut wurden.

mironicus
2015-06-06, 10:32:21
AMD war ja eigentlich immer Vorreiter im Speicherausbau.
R390 mit 8 GB haben wir ja schon bestätigt.
Kommt jetzt wohl die R380x vielleicht dann sogar mit 6 GB, wenn das mit dem 384 Bit-Interface stimmt?

Dawn on Titan
2015-06-06, 10:40:02
Dann wird Fury min 8GB haben.

Kriton
2015-06-06, 11:26:44
Die Architektur muss viel effizienter gemacht werden, Hawaii war kein Meilenstein, seit der Einführung der GCN Architektur hat man fast nichts mehr gemacht, Sie haben bei Hawaii das Frontend erweitert & Features eingebaut, das ist nichts besonderes wenn man das mit Nvidia vergleicht. Eine wirkliche Weiterentwicklung von GCN wurde noch nicht veröffentlicht, Fiji ist auch nichts besonderes, das ist lediglich ein big DIE mit mehr Einheiten & hoher GPU Takt, gekühlt durch Wasserkühlung, keine höhere Performance pro Shader, sonst hätte man auf Luft gesetzt, eine Entwicklung bedeutet für mich härtere Eingriffe im Design, das wird man frühestens nächstes Jahr bei der R9-400 Serie sehen.

Schön, dass Du Fiji schon vorliegen hast. dann erleuchte uns doch mal über die (gesicherten, feststehenden) technischen Daten die dich zu dieser Aussage führen...:rolleyes:

Andererseits:

52134

Hübie
2015-06-06, 11:36:10
Wenn ich schon Performance pro Shader lese... :facepalm:

ndrs
2015-06-06, 11:51:55
Wenn ich schon Performance pro Shader lese... :facepalm:
Du kennst ihn doch. IPC >>> alles andere. Gilt scheinbar auch für GPUs :D

OBrian
2015-06-06, 11:53:18
Hawaii kann nicht wegfallen, die Lücke wäre viel zu gewaltig.
nein, ich meine später mal (in 2 Jahren oder so), wenn Hawaii und Fiji ersetzt werden durch neue 14-nm-Chips. Da kann es sein, daß der neue Chip auch teildeaktiviert noch etwas stärker ist als Hawaii Pro, dann könnte man Tonga nochmal schnell freischalten auf 384 bit, etwas übertakten und so die Lücke fast kostenlos (nur neues PCB) stopfen, bis man dann auch Tonga schließlich ersetzt.

Falls Hawaii und Tonga gleichzeitig ersetzt werden, dann ist das natürlich nicht nötig. Könnte mir denken, daß AMD das noch gar nicht so exakt geplant hat, kann ja auch noch alles mögliche dazwischen kommen. Aber so hält man sich diese Option offen.

Auch möglich, daß es die 384 bit für eine Karte des Profisegmentes geben wird.

Jedenfalls ist das wohl kein so großer Flächenverlust, wenn man dieses Stückchen von Tonga deaktiviert läßt.


@Duplex: Mag sein, daß es "pro Shader" keine Performanceverbesserung gibt, aber das ist auch nicht nötig, um die Performance pro Watt zu steigern. Bei Fiji bringen HBM und die HD-Libs den Effizienzgewinn, bei Arctic Islands wird es die neue Fertigung sein, und erst danach müssen sie sich was neues ausdenken, aber das ist ja dann noch Jahre hin. Bei Nvidia hat Maxwell einen Sprung gebracht, dafür gibt es kein HBM. Mit Pascal kommt zwar gleichzeitig neue Fertigung und HBM, was dann so wirkt, als wären sie besser dran, aber es kommen ja nicht alle Chips auf einmal, letztlich wird sich das wieder ausgleichen. Das ist aber noch so weit hin, darüber können wir in 3-4 Jahren diskutieren.

Abgesehen davon, wer sagt, daß Architekturwechsel so gut sind. Man macht ja nicht was anders, nur damit man es anders gemacht hat. Es muß sich schon was zum Besseren verändern. AMD hat extra gesagt, sie bleiben bei GCN, um den Programmierern eine verläßliche Plattform zu bieten, für die es sich aufgrund der längeren "Lebensdauer" auch lohnt, zu optimieren. Und nach dem, was man so liest, ist GCN auch eigentlich die fast perfekte GPU-Architektur, da gibt es kaum was zu meckern im Sinne grundsätzlich anderer Organisation. Einige Kleinigkeiten zu optimieren ist wohl wirklich am sinnvollsten.

Flusher
2015-06-06, 12:46:43
Von GCN wegzugehen wäre angesichts der Konsolen ein Schuss ins Knie.

Käsetoast
2015-06-06, 13:10:21
Ich finde es eher schade, dass AMD ihr Portfolio nicht wirklich erneuert. Fiji ist gut und schön, aber ich frage mich, warum man nur diese eine Karte mit HBM bringt - ich meine die Architektur ist ja da, warum also nicht z.B. auch einen Hawaii Verschnitt mit HBM machen? Ich habe halt das Gefühl, dass AMD ihr Desktop GPU Portfolio ziemlich vernachlässigt. Seitdem ich mir damals kurz nach Release eine HD7850 gekauft habe ist da irgendwie nicht viel passiert. Es kam mit Bonaire ein Lückenfüller, mit Hawaii einfach mal ein größerer Chip und Tonga ist in der gegebenen Form auch weder Fisch noch Fleisch und kann sich von Tahiti kaum merklich absetzen. Irgendwie wurde seit der 7000er Serie halt beständig alles Alte mit anderem Namen und anderen Taktraten mitgeschleppt - im Wesentlichen hat AMD nur alle paar Jahre mal einen noch größeren Chip auf den Markt geschmissen (erst Hawaii, jetzt Fiji)...

Ich würde meine HD7850 nun schon gerne ersetzen, aber leider herrscht bei AMD irgendwie Stillstand abseits der noch größeren Chips. Wieso wird das gesamte Portfolio nicht mal mit den neuesten GCN Features ausgestattet? Wieso kriegen nicht alle die von Tonga bekannte Delta Komprimierung? Wieso scheint die HBM Technik nur Fiji vorbehalten zu sein (würde bei einer 4GB Hawaii doch auch gut passen, gerade wo Hawaii ja doch in den Temperaturen einen Flaschenhals hatte - ohne die Hitze von den inzwischen ja wohl auch geplanten 8GB Speicher sollte der Chip deutlich effizienter performen können). Gerade wo der neue Fertigungsprozess nicht mehr weit entfernt ist sehe ich es halt nicht wirklich ein meine HD7850 durch eine Karte zu ersetzen, die den technologischen Stand von Ende 2011 hat. Man sollte doch meinen, dass es nach den knapp 4 Jahren da mal einen Fortschritt gäbe - leider betreibt AMD derzeit nur im High-End-Bereich Produktpflege...

Noch mag AMD mich ja noch eines besseren belehren, aber derzeit sieht es eben doch so aus, als würde einfach nur mit Fiji ein neuer Chip kommen und beim Rest bleibt es beim Alten bzw. vielleicht bringt man Tonga dann mal in ernstzunehmender Form auf den Markt was im Endeffekt aber auch nur den parallel existierenden Tahiti ersetzt. Gerade wo der neue Fertigungsprozess aber nicht mehr lange hin ist, weiß ich nicht, ob ich derzeit noch die Preise für einen vollen Tonga bezahlen will. Kommt natürlich auch darauf an, was AMD dann für Preise verlangen wird...

Kartenlehrling
2015-06-06, 13:13:12
Die stärkste Mobil GPU bekommt bestimmt auch HBM und die wird auf dem Level von R9285 sein.

w0mbat
2015-06-06, 13:24:58
@Käsetoast: Ich hab ne HD7870 und bin in einer ähnlichen Situation. Ich denke mit der nächsten Gen in 14/16nm werde ich entweder zu Nvida oder AMD greifen. Aber aktuell ist für mich nix interessant.

Flusher
2015-06-06, 13:30:06
Ich finde es eher schade, dass AMD ihr Portfolio nicht wirklich erneuert. Fiji ist gut und schön, aber ich frage mich, warum man nur diese eine Karte mit HBM bringt - ich meine die Architektur ist ja da, warum also nicht z.B. auch einen Hawaii Verschnitt mit HBM machen? Ich habe halt das Gefühl, dass AMD ihr Desktop GPU Portfolio ziemlich vernachlässigt. Seitdem ich mir damals kurz nach Release eine HD7850 gekauft habe ist da irgendwie nicht viel passiert. Es kam mit Bonaire ein Lückenfüller, mit Hawaii einfach mal ein größerer Chip und Tonga ist in der gegebenen Form auch weder Fisch noch Fleisch und kann sich von Tahiti kaum merklich absetzen. Irgendwie wurde seit der 7000er Serie halt beständig alles Alte mit anderem Namen und anderen Taktraten mitgeschleppt - im Wesentlichen hat AMD nur alle paar Jahre mal einen noch größeren Chip auf den Markt geschmissen (erst Hawaii, jetzt Fiji)...

Ich würde meine HD7850 nun schon gerne ersetzen, aber leider herrscht bei AMD irgendwie Stillstand abseits der noch größeren Chips. Wieso wird das gesamte Portfolio nicht mal mit den neuesten GCN Features ausgestattet? Wieso kriegen nicht alle die von Tonga bekannte Delta Komprimierung? Wieso scheint die HBM Technik nur Fiji vorbehalten zu sein (würde bei einer 4GB Hawaii doch auch gut passen, gerade wo Hawaii ja doch in den Temperaturen einen Flaschenhals hatte - ohne die Hitze von den inzwischen ja wohl auch geplanten 8GB Speicher sollte der Chip deutlich effizienter performen können). Gerade wo der neue Fertigungsprozess nicht mehr weit entfernt ist sehe ich es halt nicht wirklich ein meine HD7850 durch eine Karte zu ersetzen, die den technologischen Stand von Ende 2011 hat. Man sollte doch meinen, dass es nach den knapp 4 Jahren da mal einen Fortschritt gäbe - leider betreibt AMD derzeit nur im High-End-Bereich Produktpflege...

Noch mag AMD mich ja noch eines besseren belehren, aber derzeit sieht es eben doch so aus, als würde einfach nur mit Fiji ein neuer Chip kommen und beim Rest bleibt es beim Alten bzw. vielleicht bringt man Tonga dann mal in ernstzunehmender Form auf den Markt was im Endeffekt aber auch nur den parallel existierenden Tahiti ersetzt. Gerade wo der neue Fertigungsprozess aber nicht mehr lange hin ist, weiß ich nicht, ob ich derzeit noch die Preise für einen vollen Tonga bezahlen will. Kommt natürlich auch darauf an, was AMD dann für Preise verlangen wird...

Kurz und knackig: kosten und Fertigung. Maxwell ist im Grunde auch nur ein Lückenfüller.

Beide unternehmen scheinen nicht damit gerechnet zu haben, so lange bei 28nm bleiben zu müssen.

Sunrise
2015-06-06, 13:56:31
@Käsetoast
Deinen Hawaii mit HBM inkl. aktuellerem Feature-Set und insgesamt deutlich höherer Leistung bekommst du in Form von Fiji. Der ursprüngliche Hawaii ist genauso am Rande der TDP wie es Fiji sein wird. Kleinere GPUs mit HBM werden kommen, das ist abseits der besseren Effizienz aber derzeit sinnlos, da keine GPU außer vielleicht Fiji (und selbst da ist es fraglich, da DCC hinzugekommen ist) diese Bandbreite nutzen kann.

Solche neuen Designs sind derzeit nur mit High-End-GPUs sinnvoll, siehe Pascal in 9-10 Monaten.

Sei froh, dass AMD überhaupt noch so aktuelle Designs raushauen kann, denn NV hat mit den letzten Generationen soviel Geld verdient (siehe deren gross margins), dass sie AMD theoretisch mit reinen R&D und den Preisen komplett an die Wand drücken könnten. Zusätzlich wurden die entsprechenden Knebel/Hebel für zukünftige auf super high compute performance features getrimmter Architektur mit softwareseitig proprietären Technologien in Stellung gebracht und wenn sie diese Zügel richtig anziehen, dann wird es richtig schmerzhaft.

Um aber mal wieder etwas auf deine Frage zurückzukommen, ich hatte doch geschrieben, dass ein 4096 ALU bzw. 64 CU-Design mit aktuellerem Featureset auf 14 bzw. 16nm und HBM2 irgendwann 2016 denkbar ist, mit in etwa doppelter Effizienz. So ein Ding wäre aber auch nicht billig zu produzieren, weshalb du dich auch hier auf min. 500-600 EUR einstellen musst. Weshalb Fiji doch aktuell ein guter Mittelweg ist. Du musst ja nicht gleich zur Fury X greifen.

Das restliche LineUp braucht AMD um halbwegs aktuell zu bleiben, optimal ist das sicher nicht (das wird wohl auch keiner behaupten wollen), aber jegliche neue GPU mit veralteter Arch würde wieder Unmengen an Geld verschlingen und AMD sollte sich nicht auf Verzweiflungstaten mit alten Designs einlassen, sondern das mögliche Geld in neue GPUs stecken. Die Teams stehen ja nicht still, auch wenn das von außen den Anschein erweckt. Sowas wird in Zukunft also eher zur Normalität werden.

Leonidas
2015-06-06, 13:56:54
Ich finde es eher schade, dass AMD ihr Portfolio nicht wirklich erneuert. Fiji ist gut und schön, aber ich frage mich, warum man nur diese eine Karte mit HBM bringt - ich meine die Architektur ist ja da, warum also nicht z.B. auch einen Hawaii Verschnitt mit HBM machen? Ich habe halt das Gefühl, dass AMD ihr Desktop GPU Portfolio ziemlich vernachlässigt. Seitdem ich mir damals kurz nach Release eine HD7850 gekauft habe ist da irgendwie nicht viel passiert. Es kam mit Bonaire ein Lückenfüller, mit Hawaii einfach mal ein größerer Chip und Tonga ist in der gegebenen Form auch weder Fisch noch Fleisch und kann sich von Tahiti kaum merklich absetzen. Irgendwie wurde seit der 7000er Serie halt beständig alles Alte mit anderem Namen und anderen Taktraten mitgeschleppt - im Wesentlichen hat AMD nur alle paar Jahre mal einen noch größeren Chip auf den Markt geschmissen (erst Hawaii, jetzt Fiji)...



Für den Konsumenten ist diese Situation Mist, keine Frage.

Aber ich denke, früher oder später könnte daraus die Regel im GPU-Design werden. Es macht ab einem gewissen Punkt einfach keinen Sinn mehr, ständig neue GPUs aufzulegen, es sei denn man hat eine neue Fertigung zur Verfügung. Deswegen behält man das Portfolio, rebrandet es und setzt einen einzelnen neuen HighEnd-Chip oben drauf.

Dies könnte in in paar Jahren zur Normalität bei beiden GPU-Entwicklern werden.

Käsetoast
2015-06-06, 15:09:36
Kurz und knackig: kosten und Fertigung. Maxwell ist im Grunde auch nur ein Lückenfüller.
Maxwell hat aber auch nicht nur prima Vorteile gebracht was Effizienz & Co angeht, sondern es wurde auch ein Großteil des Portfolios ersetzt. Beides hat bei AMD nicht wirklich stattgefunden. Bei AMD gab's im Wesentlichen ein paar nette Zusatzfeatures wie die Audiochipgeschichte. Performance und Effizienz hat sich aber über die letzten 4 Jahre nur unwesentlich gebessert bzw. mit der Delta Kompression gäbe es da einen kleinen Schritt, nur scheint man das bei AMD nicht großflächig einsetzen zu wollen und so behalten das nur die Chips die das schon haben (= nur Tonga) und wahrscheinlich wird das neue Prestigeobjekt Fiji das auch haben. Während NVIDIA Maxwell also in der 750, 960, 970, 980 und Titan Reihe gebracht hat und somit das Portfolio aufmöbelte, dümpelt AMD auf den Designs von 2011 mit ein paar Lückenbüßern rum und das einzige was wirklich passiert ist, dass nach oben nachgebessert wird in Form von noch größeren Chips (= Hawaii und Fiji)...

Von daher kann sich AMD in meinen Augen nicht mit "Kosten und Fertigung" aus der Affäre ziehen. Bei NVIDIA wurde quasi das gesamte Sortiment (von Low-End vielleicht mal abgesehen, aber da bekommt man ja auch durch die APUs zunehmend Probleme) ersetzt. Bei AMD ist da bislang gar nichts passiert und im Wesentlichen sieht es nun auch so aus, dass da nichts passieren wird). Wenn dann Mitte/Ende 2016 die neue Fertigung kommt werden dann also endlich Chips der Technologie von 2011 ersetzt? Das sind 5 Jahre! 5 Jahre in denen AMD den wichtigen Mid-Range Bereich nur stiefmütterlich behandelt hat - das ist dann eben was ich kritisiere. AMD hätte jetzt ihre gesamtes Portfolio auf den aktuellen GCN Stand inklusive aller Features wie VSR sowie Geschichten wie der Speichertransferkompression bringen müssen...

Deinen Hawaii mit HBM inkl. aktuellerem Feature-Set und insgesamt deutlich höherer Leistung bekommst du in Form von Fiji.
Den Vergleich finde ich nicht passend. Mir geht es darum in den jeweiligen Preissegmenten durch aktuelle Technologie auch die beste Leistung zu kriegen. Fiji ist einfach nur ein Chip oberhalb von Hawaii und für 99% der Kunden dürfte das Ding sowieso uninteressant sein, weil es ähnlich wie Titan nur ein Prestigeobjekt werden wird. AMD muss in meinen Augen halt endlich mal die wichtigen Kernsegmente aktualisieren. Nicht das ich einem Projekt wie Fiji nichts abgewinnen kann, aber wenn alles was AMD dieses Jahr schaffen wird es ist einen neuen größeren Chip zu produzieren und den aus dem letzten Jahr bekannten Tonga endlich mal ohne Handbremse auf den Markt zu bringen, dann finde ich das schon schwach, denn der Mid-Range Bereich dümpelt dann eben weiter auf dem Stand von 2011 vor sich hin...

Prinzipiell ist die HBM Architektur ja da und ich glaube nicht, dass ein 4GB Hawaii mit HBM preislich total uninteressant wäre - vor allem nicht wenn auch 8GB Hawaiis geplant sind. Da schlampt AMD in meinen Augen halt erneut und bringt neue Technologie halt nur in neuen, noch größeren Chips...

Aber ich denke, früher oder später könnte daraus die Regel im GPU-Design werden. Es macht ab einem gewissen Punkt einfach keinen Sinn mehr, ständig neue GPUs aufzulegen, es sei denn man hat eine neue Fertigung zur Verfügung. Deswegen behält man das Portfolio, rebrandet es und setzt einen einzelnen neuen HighEnd-Chip oben drauf.

Dies könnte in in paar Jahren zur Normalität bei beiden GPU-Entwicklern werden.
Die Sache ist halt in meinen Augen so, dass AMDs Taktik derzeit sehr merkwürdig ist. Die haben mit der 7000er Reihe nicht viel riskiert was Chipgrößen angeht und im Endeffekt ist fast alles was AMD in den letzten 4 Jahren gemacht hat nur die zusätzliche Fläche die man in 28nm noch hätte mehr und mehr zu nutzen. Was bringt es einem Features wie TrueAudio zu bringen, wenn man dann für keine breite Basis sorgt - da ist es halt fatal, dass die wichtige Pitcairn Kategorie sowas nicht hat - nur Fiji, Hawaii und eventuell dann noch Tonga Nutzer werden nicht reichen um bei den Entwicklern für eine interessante Mindestverbreitung zu sorgen. Wenn nicht endlich mal alle AMD Karten hier ein einheitliches Featureset bekommen, hätten sie sich dieses ganze Klimborium das mit Bonaire begann auch sparen können. Wenn nur vereinzelte Chips das vielleicht mal haben bzw. dann größtenteils auch nur irgendwelche High-End Dinger mit relativ geringen absoluten Verkaufszahlen, dann hätte man sich die ganze Entwicklungsarbeit auch von Anfang an sparen bzw. direkt auf die 16nm Karten verschieben können wenn man weiß, dass man vorher das gesamte Portfolio eh nicht auffrischen wird...

Ich verstehe halt nicht, warum AMD hier so stark hinterherhinkt - NVIDIA hat ihre Auffrischung jetzt ja quasi schon komplett durch und nachdem mit Tonga da letztes Jahr ein kleiner Hoffnungsschimmer kam, sieht es nun so aus, als ob AMD weiter auf den Händen sitzen bleibt. Da wird anscheinend erneut Pitcairn unter neuem Namen kommen, danach ein ziemlich moderner Tonga, danach erneut der nicht ganz so wie Tonga moderne aber modernere als Pitcairn Hawaii Chip und schließlich als Krönung dann der superaktuelle Fiji, der für 99% der Kunden uninteressant sein wird...

Ich verstehe zwar AMDs Absicht wieder an der Spitze mitzukämpfen, weil das für einen guten Ruf sorgt, der dann sicherlich auch Mid-Range-Käufer anspricht, aber man sollte dieses wichtige Segment dann auch nicht komplett vernachlässigen und mit 2011er Technologie verhungern lassen...

Dawn on Titan
2015-06-06, 15:16:39
@Käsetoast: Ich hab ne HD7870 und bin in einer ähnlichen Situation. Ich denke mit der nächsten Gen in 14/16nm werde ich entweder zu Nvida oder AMD greifen. Aber aktuell ist für mich nix interessant.

Fiji
Grenada
Tonga 384Bit

Also ich sehe da nur leckere Sachen.

Käsetoast
2015-06-06, 15:28:16
Fiji
Grenada
Tonga 384Bit

Also ich sehe da nur leckere Sachen.
Wer sich 7850, 7870 & Co kauft, für den wird Fiji nicht interessant sein. Auf Grenada braucht man wohl auch nicht zu warten, da das wohl nur ein Hawaii mit "Neuem-Namen-Preisaufschlag" wird. Ein vollausgebauter Tonga (der wohl aber immer noch keine sichere Sache ist) ist zwar schon interessanter, aber ob man den für die ~280-300 € die der kosten wird jetzt noch kaufen will ist eine andere Frage. Mir würde eine aktuelle Variante der 7870 mit entsprechenden Leistungsupgrades (ist ja nun schon relativ betagt) vollkommen ausreichen um die Zeit bis zum neuen Fertigungsverfahren zu überbrücken (wobei auch das ja eigentlich zu Beginn nicht zwingend verspricht ein Preis/Leistungsknaller zu werden (weiß gar nicht mehr was ich für die 7850 damals so bezahlt habe als 28nm noch neu war - so 230 € werden es sicherlich gewesen sein)...

Prinzipiell wäre da ja genug Spiel. Leichtes Tuning durch besseren Fertigungsprozess, neuere Architektur mit mehr Tesselation Leistung, bessere Auslastung durch mehr ACEs & Co sowie Vorteile durch Delta Kompression. Bei älteren Titeln könnte man dann auch VSR reinknallen und eine Variante mit 4GB Speicher würde einem ebenfalls bei den etwas speicherhungrigen Spielen helfen...

marc-05
2015-06-06, 15:32:22
Ich verstehe halt nicht, warum AMD hier so stark hinterherhinkt ...

Fehlende Ressourcen ,fehlt an Geld bzw Man-Power.
Wenn man dann sieht das ne "popelige GTX 960" fast gleiche Leistung/Preis wie Tonga (R9 285) hat.

dildo4u
2015-06-06, 15:42:24
Fehlende Ressourcen ,fehlt an Geld bzw Man-Power.
Wenn man dann sieht das ne "popelige GTX 960" fast gleiche Leistung/Preis wie Tonga (R9 285) hat.
Jup braucht nich mal HBM für solche Karten,1X6 Pin mit 4GB.

https://geizhals.de/inno3d-geforce-gtx-960-combat-n960-3sdv-m5cn-a1252030.html?hloc=at&hloc=de

Mal sehen was die 380 mit 4GB an Strom braucht schätze mal an die 200 Watt.

Isen
2015-06-06, 16:14:04
Steckdosen-Sparfuchs-Messungen?

Haben in der Praxis leider wenig Relevanz.
Notorische Bleifuß-Messungen sind auch immer toll.

tm0975
2015-06-06, 16:23:28
Fehlende Ressourcen ,fehlt an Geld bzw Man-Power.
Wenn man dann sieht das ne "popelige GTX 960" fast gleiche Leistung/Preis wie Tonga (R9 285) hat.

fast... drum würde ich eine 285 der 960 immer vorziehen. ist halt das amd-image, dass die meisten davon abhält. und so wirklich gut positioniert haben sie die 285 auch nicht. wahrscheinlich ist die knapp auf lager und 280/280x/290/290x stapeln sich...

ich finde es übrigends prima, dass fiji so schön kurz wird. das rumgebastel im midi tower, damit eine sapphire toxic reinpaßt, macht keinen spass. gibt es überhaupt geeignete kurze luftkühler für fiji? wahrscheinlich wird wasser standard bei > 200 watt tdp bei ca 20 cm kartenlänge.

Troyan
2015-06-06, 16:25:32
Du würdest eine gleichschnelle Karte mit deutlich höhreren Stromverbrauch und weniger Features einer überlegenen Karte vorziehen? :freak:

dildo4u
2015-06-06, 16:36:07
Jup zum Glück hat AMD das jetzt klar gestellt das Maxwel weiter ist als GCN was DX12 Support angeht,das kam immer wieder als Argument für AMD Karten hoch.Obwhol es keine Konkreten Infos gab.

w0mbat
2015-06-06, 16:39:50
Ne, es war immer das Argument u.a. von dir, dass das nichts bringt (DX10.1, DX11.1). Aber jetzt plötzlich :D

Menace
2015-06-06, 16:43:47
Wenn ich auch geringe Hoffnung habe, eine sparsame 380iger 4-GB-Karte würde mir schon gefallen; allerdings wäre es reiner Luxus, da meine alte prima funktioniert.

Menace
2015-06-06, 16:46:32
Mal sehen was die 380 mit 4GB an Strom braucht schätze mal an die 200 Watt.

Würden die +2 GB 40 Watt mehr benötigen?
http://ht4u.net/reviews/2014/sapphire_r9_285_itx_compact-edition_im_test/index15.php

Megatron
2015-06-06, 16:52:46
@Käsetoast
Warum hätte man die 78xx Serie neu auflegen sollen?
* Es gibt kein neueres DirectX (1)
* Es gibt keine bessere Fertigungstechnik (2)
* einzige sinnvolles neues Feature darüber hinaus ist bis jetzt DCC (3)
Es gibt einfach keinen Grund Pitcairn zu eretzen...

(1) Zum einen unterstützte NVidia bis Ende letzten Jahres nur DirectX 11.0 - Pitcairn war also quasi mehr als Leading Edge. Zum anderen macht ein neueres DirectX dank Microsofts Produktbindung an Windows 8.1 und dessen geringe Verbreitung auch wenig Sinn. Abgesehen von speziell optimierten Titeln machte es bis dahin schlicht keinen Sinn für 11.2 zu entwickeln. Es wäre für die Minderheit der Minderheit (Selbst bei Steam ist der Anteil an Win 8.1 Systemen bei weniger als 1/3 aller Spieler. Wenn du dann noch die DirectX 11.2 fähigen Grafikkarten zusammenzählst - da kommt nicht viel bei rum)

(2) Pitcairn war bei erscheinen der effizienteste verfügbare Chip. Nehmen wir einfach eine etwas ältere Prognose von hier (http://www.3dcenter.org/news/20nm-grafikchips-mit-weit-weniger-performancegewinn-als-erwartet). Es hätte nach ursprünglichem Plan längst neue Fertigungsstufen verfügbar sein sollen. Das hat die Design Teams aus beiden Lagern sicherlich ziemlich unangenehm getroffen.
Nvidia konnte mit Maxwell daraus mehr machen, dass muss man einfach anerkennen. Aber eine Reaktion auf so einen Schritt geschieht nicht innerhalb von 3 Tagen, hier muss man doch sehr scharf Kosten/Nutzen abwägen.

(3) In Sachen True Audio sieht die Unterstützung allgemein äußerst dürftig aus. Und Spielzeug wie VSR macht in dem Bereich auch nur sehr begrenzt Sinn. Dafür ist Pitcairn mittlerweile einfach zu schwach auf der Brust. Im Preisbereich von Pitcairn hat auch NVidia nur die 750 Ti zu bieten und da sieht die Situation doch gar nicht so schlimm aus.
Darüber gibt es ja jetzt Tonga, der mit vollem Featureset aufwarten kann.


PS: Ich sitz selber auf ner 7850 und ein wenig kribbelt es schon unter den Fingern, mal was neues zu haben. Aber ich fürchte der nächste große Sprung (mit neuer Fertigungstechnik in der ~200€ Klasse) wird sich da erst in einem Jahr ergeben.

Dawn on Titan
2015-06-06, 16:53:01
Jup zum Glück hat AMD das jetzt klar gestellt das Maxwel weiter ist als GCN was DX12 Support angeht,das kam immer wieder als Argument für AMD Karten hoch.Obwhol es keine Konkreten Infos gab.

Zu nicht vorgestellten Produkten haben sie (APU abgesehen) nichts gesagt.

dildo4u
2015-06-06, 17:04:10
Würden die +2 GB 40 Watt mehr benötigen?
http://ht4u.net/reviews/2014/sapphire_r9_285_itx_compact-edition_im_test/index15.php
Soll die 380 nich schneller sein als die 285 ich dachte alle Refreshes bekommen mher Takt.Ab 1ghz scheint bei AMD die Effizienz rapide zu sinken.

Sunrise
2015-06-06, 17:05:58
Den Vergleich finde ich nicht passend. Mir geht es darum in den jeweiligen Preissegmenten durch aktuelle Technologie auch die beste Leistung zu kriegen.
Was ist bei dir denn "aktuelle" Technologie? Wenn ich dich richtig verstehe, dann willst du identische IP-Blöcke in jeder GPU des LineUps mit Fiji-Featureset für jeden Chip?

Und genau da sprechen wir ja schon die ganze Zeit drüber, es ist einfach nicht genug Budget vorhanden um wirklich _alles_ wieder neu auf aktueller Arch zu bauen. Du musst den kompletten Designprozess erneut durchlaufen, du musst den Chip zum TapeOut führen und du brauchst erneut Masken, mit denen du dann in Masse fertigen kannst. Mal davon ab, dass sich da jeweils wieder Fehler einschleichen können.
Das ganze Spiel kostet dich zweistellige Millionenbeträge pro Chip, die man aber in neuere Techniken (die einen auch weiterbringen) investieren sollte. Und wenn sonst keine Alternativen da sind, dann nimmst du das was du hast. Die alten "Fehler" kann man nicht korrigieren, aber man sollte nicht gleich wieder neue machen.

Fiji ist der Inbegriff von zukunftsweisender Technik und genau das was du willst. Eine komplett neue Generation. Nicht nur das Featureset ist neu, auch die komplette GPU-Technik ist vollkommen neu für GPUs im PC-Bereich. Es gibt schlichtweg nichts Vergleichbares, außer vielleicht Intels HPC-Monster (kein fairer Vergleich). Das einzige was fehlt ist HBM2 und ein neuer Prozess.

Wir sind da in einem Umbruch und AMD sollte sich nicht auf alten Featuresets (wenn Fiji wirklich nur 12_0 ist) ausruhen, sondern weiter entwickeln und dann in relativ absehbarer Zeit eine 400er Serie rausbringen, die dann das bringt was du willst. Aber mit allen Vorteilen, die Fiji ja bereits andeutet.

Bei den Plänen die AMD für die Zukunft hat, ist es doch vollkommen OK, jetzt Tonga, Hawaii und Fiji mit zumindest FreeSync-Unterstützung zu liefern.

Korvaun
2015-06-06, 17:08:51
Kein neues DirectX, keine neue verfügbare Fertigung, kein Druck von Seiten der Spielkonsolen (Multi-System-Games mit kleinstem gemeinsamen Nenner = oft noch PS3/360 bis Ende letztes Jahr). Außerdem die ganzen internen Probleme bei AMD. Daraus folgt, wenig Fortschritt bei AMD (nur Tonga letztes Jahr, "nur" Fiji dieses Jahr). NV hat mit Maxwell nen Zwischenschritt eingelegt, explizit für bessere Effizienz um die Durststrecke bis 14/16nm zu überbrücken, sehr erfolgreich wie man sieht.

Menace
2015-06-06, 17:24:59
Soll die 380 nich schneller sein als die 285 ich dachte alle Refreshes bekommen mher Takt.Ab 1ghz scheint bei AMD die Effizienz rapide zu sinken.

Ich hoffe, dass sie das zumindest von der Maxwell-Generation gelernt haben: Taktsteigerung nur solange man die Effizienz nicht vernachlässigt.

Sunrise
2015-06-06, 17:26:43
...NV hat mit Maxwell nen Zwischenschritt eingelegt, explizit für bessere Effizienz um die Durststrecke bis 14/16nm zu überbrücken, sehr erfolgreich wie man sieht.
Und sie haben DP quasi komplett gekickt, was diese Effizienz erst möglich machte. War für diesen Zeitraum wirklich gut gezockt, langfristig sollte das aber nichtmehr passieren, zumindest deuten das Pascal und Volta ganz klar an. Hier wird NV genau das Gegenteil umsetzen, weil dann auch die Fertigung entsprechend mitzieht (mixed precision bzw. schnelles DP kosten Fläche, und nicht zuwenig). Daher wird es auch interessant, was mit GP104 und GV104 usw. passiert.

Wenn wir mal wieder eine längere Durstrecke der Fertigung haben, könnte NV das natürlich wieder machen. Aber da müssen die Zielmärkte ausreichend groß sein, damit sich das auch noch lohnt.

Troyan
2015-06-06, 17:52:01
Und sie haben DP quasi komplett gekickt, was diese Effizienz erst möglich machte. War für diesen Zeitraum wirklich gut gezockt, langfristig sollte das aber nichtmehr passieren, zumindest deuten das Pascal und Volta ganz klar an. Hier wird NV genau das Gegenteil umsetzen, weil dann auch die Fertigung entsprechend mitzieht (mixed precision bzw. schnelles DP kosten Fläche, und nicht zuwenig). Daher wird es auch interessant, was mit GP104 und GV104 usw. passiert.

GM204 steht gegenüber GK104 wesentlich besser dar als GM200 gegenüber GK110.
DP bei nVidia wurde über zusätzliche Recheneinheiten gelöst. Das ignorieren dieser hat überhaupt keine Effizienzsteigerung gebracht.

Sunrise
2015-06-06, 18:04:09
NV hat DP bewusst ignoriert um Maxwell brutal auf SP/mm² zu optimieren. Hier geht es um Flächeneffizienz (mehr Leistung auf gegebener Fläche), nicht unbedingt Powereffizienz. Da wir aber keinen Maxwell mit DP haben, lasse ich das bewusst offen und schreibe "Effizienz". Man ist effizient bzgl. der Zielsetzung, maximale SP-Leistung auf bis zu 600mm² unterzubringen. Mit DP und evtl. anderen Anpassungen wäre das nicht gegangen.

Es gab sogar ein paar Charts von NV, die anfangs noch vom Gegenteil sprachen. Man warb auf alten Roadmaps noch mit der DP-Leistung auf den Roadmaps für Maxwell, danach verschwand das plötzlich und dann stand nur noch die SP-Leistung im Vordergund.

Und als man NV gefragt hat, sagte NV, dass Maxwell nicht für DP ausgelegt ist. Zum Glück wird aber nicht alles gefressen, was NV so von sich gibt. Das gilt natürlich für alle Hersteller.

hasebaer
2015-06-06, 18:07:23
Und sie haben DP quasi komplett gekickt, was diese Effizienz erst möglich machte.

Sie haben DP gekickt, weil sie kein Platz mehr haben.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10347014#post10347014

Nvidia könnte sicher auch einen kompletten Chip mit ~2048 reinen DP Einheiten bauen, dann hätten sie ca. 3000 GFLOPS DP @ 230W pro Chip.
Aber der Chip ist dann für Gaming nicht zugebrauchen und ist für NV scheinbar nicht profitabel genug.

Effizienz wäre da, weil mal extra Einheiten nimmt.

AMDs "Problem" ist ja, dass sie ein 2:1 SP/DP mit allen Einheiten fahren.
In dem Fall leidet tatsächlich die Effizienz insgesamt, man hat aber dafür einen Chip für alles.
Und AMD war das offenbar wichtiger.

Jack of All Trades and Master of None.

boxleitnerb
2015-06-06, 18:07:42
Und sie haben DP quasi komplett gekickt, was diese Effizienz erst möglich machte.

Beweis durch Behauptung?
Gegenargument: GK110 vs GK104. DP bei letzterem im Eimer, Perf/W vergleichbar bei avisiertem Performancetarget. Was man mit dem DP-Wegfall vielleicht gespart haben könnte, ist Die-Fläche. Aber dazu können die Profis hier sicher mehr sagen - wir beide sind es nicht.

Sunrise
2015-06-06, 18:10:54
@hasebaer:
Rischtisch.

Es ist natürlich immer einfach, wenn man kaum noch DP hat von der tollen Maxwell-Effizenz zu sprechen. Das klappt natürlich auch für einen gewissen Teil der Arch, aber vernachlässigt leider einen anderen Teil, den NV bewusst abgeschossen hat.

@boxleitnerb:
s.o, resp. Flächeneffizenz

Du gehst jetzt nicht allen Ernstes davon aus, dass eine DP-fähige ALU weniger komplex ist als eine SP-Unit, bzw. eine SP-Unit und eine seperate (für SP-Berechnungen also komplett tot) DP-Unit mehr Die-Fläche benötigt? Wohlgemerkt, bei ansonsten identischer Arch, also Maxwell+DP. Das ist ja auch alles schon mehrmals durchgekaut worden und ist auch eigentlich kein Geheimnis.

AMD hat eben schnelles DP schon dabei, es ist allerdings noch nicht sicher, was Fiji hier liefern wird, wird aber spannend.

boxleitnerb
2015-06-06, 18:21:59
Das ist mir alles klar, nur geht dein Ursprungspost dann völlig ins Leere, denn Maxwell's Effizienz ist eben Perf/W, nicht Perf/mm2. Und die hat mit DP imo erstmal gar nix zu tun.

Sunrise
2015-06-06, 18:26:02
Das ist mir alles klar, nur geht dein Ursprungspost dann völlig ins Leere, denn Maxwell's Effizienz ist eben Perf/W, nicht Perf/mm2. Und die hat mit DP imo erstmal gar nix zu tun.
Nö, Maxwells Effizienz ist auch Perf/mm².

Dass du Effizienz nur als Perf/W interpretierst ist rein deine Auslegung. Korvaun hatte das nicht mal so geschrieben auf den ich mich ja bezogen hatte. Bei mir steht auch nirgends was von Perf/W im Text.

boxleitnerb
2015-06-06, 18:35:03
Nö, Maxwells Effizienz ist auch Perf/mm².

Dass du Effizienz nur als Perf/W interpretierst ist rein deine Auslegung. Korvaun hatte das nicht mal so geschrieben auf den ich mich ja bezogen hatte. Bei mir steht auch nirgends was von Perf/W im Text.

Muss es auch nicht mMn, denn Perf/W ist bei Maxwell deutlich stärker gestiegen als Perf/mm2 ggü. Kepler. Von daher ist die Interpretation mit Energieeffizienz selbsterklärend. Naja denk was du meinst. Ich für meinen Teil halte von dem DP-Argument in dem Zusammenhang eher wenig.

Korvaun
2015-06-06, 18:42:48
Ich frage mich eh ob sich der Aufwand lohnt, immer DP mit "einzubauen". Setzt dieses Feature wirklich so viele Karten ab (die man evtl. noch auch sauteuer verkaufen kann)? Oder ist Maxwell die bessere Lösung (mit alle 2 Generationen ein Chip mit DP) für das Geschäft? Werden wir in Zukunft überhaupt noch DP in AMD/NV chips sehen wenn Intel endlich wirklich die große Keule auspackt?

Sunrise
2015-06-06, 18:52:12
...Naja denk was du meinst. Ich für meinen Teil halte von dem DP-Argument in dem Zusammenhang eher wenig.
Das hat nichts mit "meinen" zu tun. Wenn du wirklich denkst, dass DP nichts kostet, dann hast du eine grundlegend falsche Vorstellung davon, warum DP überhaupt beschnitten wird. Hier müssen Interessen abgewogen werden.

Und ich hatte ja oben schon geschrieben, dass NV bei Maxwell anscheinend DP nicht von vorneherein vernachlässigen wollte. Man hat aber wohl gemerkt, dass man mehr Platz für mehr Leistung benötigt. Das sind ganz normale Entscheidungen die jeder IHV treffen muss. Hier wird einfach nur abgewogen, was für den Zielmarkt relevanter ist. Und bei Spielern ist das nunmal vor allem die SP-Leistung mit großen Benchmarkbalken. Das war schon immer so. Features und anderes Dinge kommen dann nur noch hinzu, aber wenn du dann keine führende Leistung (auf das kommt es NV vor allem an) hast, dann bringt dir dein ganzes Design nichts in diesem Markt. Ergo, warum überhaupt noch GPUs entwickeln?

Solange wie du schon dabei bist, verstehe ich nicht, wie man das in Zweifel ziehen kann. Warst du nicht als Redakteur mal bei einer großen Seite angestellt? Ist das an dir komplett vorbeigegangen?

AMD hat nicht ohne Grund soviel DP in Hawaii. Wenn man sich mal vorstellt, was das Ding alles schultern muss (verschiedene Märkte anzusprechen) und dann auch noch solch eine Leistung auf die Straße zu bringen ist das schon ordentlich. Bei Fiji haben wir hoffentlich auch keine nennenswerte Beschneidung, denn Pascal und Volta werden da Vollgas geben.

fondness
2015-06-06, 18:52:28
Muss es auch nicht mMn, denn Perf/W ist bei Maxwell deutlich stärker gestiegen als Perf/mm2 ggü. Kepler. Von daher ist die Interpretation mit Energieeffizienz selbsterklärend. Naja denk was du meinst. Ich für meinen Teil halte von dem DP-Argument in dem Zusammenhang eher wenig.

Fakt ist, mit DP wäre ein GM200 in der Form nicht möglich, denn GM200 ist an der absoluten Kotzgrenze was Die-Size betrifft und natürlich werden die zusätzlichen DP-Einheiten auch zusätzlichen Strom schlucken. Man hätte also Einheiten einsparen müssen und das hätte Performance gekostet und Perf/Watt durch die DP-Einheiten. Dein Vergleich GK104 vs. GK110 hinkt deshalb, weil ersterer deutlich höher taktet.

fondness
2015-06-06, 18:54:57
NV hat DP bewusst ignoriert um Maxwell brutal auf SP/mm² zu optimieren. Hier geht es um Flächeneffizienz (mehr Leistung auf gegebener Fläche), nicht unbedingt Powereffizienz. Da wir aber keinen Maxwell mit DP haben, lasse ich das bewusst offen und schreibe "Effizienz". Man ist effizient bzgl. der Zielsetzung, maximale SP-Leistung auf bis zu 600mm² unterzubringen. Mit DP und evtl. anderen Anpassungen wäre das nicht gegangen.

Es gab sogar ein paar Charts von NV, die anfangs noch vom Gegenteil sprachen. Man warb auf alten Roadmaps noch mit der DP-Leistung auf den Roadmaps für Maxwell, danach verschwand das plötzlich und dann stand nur noch die SP-Leistung im Vordergund.

Und als man NV gefragt hat, sagte NV, dass Maxwell nicht für DP ausgelegt ist. Zum Glück wird aber nicht alles gefressen, was NV so von sich gibt. Das gilt natürlich für alle Hersteller.

Auch NV-Link und Virtual Memory war ursprünglich mal für Maxwell geplant laut Roadmap AFAIK.

AMDs "Problem" ist ja, dass sie ein 2:1 SP/DP mit allen Einheiten fahren.
In dem Fall leidet tatsächlich die Effizienz insgesamt, man hat aber dafür einen Chip für alles.
Und AMD war das offenbar wichtiger.

Jack of All Trades and Master of None.

Ich sehe noch immer keinen Chip von Nvidia der den nicht mehr taufrischen und nicht so großen Hawaii bei der DP-Perf absolut oder pro Watt schlägt. Selbst die TITAN Z tut sich damit schwer mit zwei GPUs. Master of none ist also auf jeden Fall schonmal falsch, denn NV erreicht diese DP-leistung nicht mal annähernd.

mironicus
2015-06-06, 19:14:43
Die nicht vorhandene DP-Leistung von Maxwell könnte sich später auch nachteilig auswirken, wenn NVidia (was sie gerne machen) Spiele ausschließlich für neue GPUs optimiert und dafür DP nutzt.

ilibilly
2015-06-06, 19:17:08
Imho hats Nvidia richtig gemacht dp zu kicken,so dominiert man seit Maxwell den gamermarkt ,und gewonnene Marktanteile wird NVIDIA nicht so schnell wieder hergeben.
Ich geh auch hier im Forum davon aus das 80% die gamingleistung relevant ist und nicht der profimarkt.ist im Vergleich wohl eher eine Nische.

-/\-CruNcher-/\-
2015-06-06, 19:27:15
Und sie haben DP quasi komplett gekickt, was diese Effizienz erst möglich machte. War für diesen Zeitraum wirklich gut gezockt, langfristig sollte das aber nichtmehr passieren, zumindest deuten das Pascal und Volta ganz klar an. Hier wird NV genau das Gegenteil umsetzen, weil dann auch die Fertigung entsprechend mitzieht (mixed precision bzw. schnelles DP kosten Fläche, und nicht zuwenig). Daher wird es auch interessant, was mit GP104 und GV104 usw. passiert.

Wenn wir mal wieder eine längere Durstrecke der Fertigung haben, könnte NV das natürlich wieder machen. Aber da müssen die Zielmärkte ausreichend groß sein, damit sich das auch noch lohnt.

Das ist eben Nvidias kern Kompetenz sie wissen wan es wirtschaftlich angesagt ist etwas zu supporten ansonsten implementieren sie es erst garnicht extreme (zu ihren Kosten) siehe DP und konzentrieren sich auf die wirtschaftlich wichtigen teile der GPU/Karten Designs und deren Targets ;)

Da gibt es noch viele andere beispiele wo AMD immer alles implementiert hat aber Nvidia immer nur das was sie für aktuell und in die nahe Zukunft gesehen für nötig hielten (oder direkt GPUs vom Featureset für Discrette und Mobile Market differenzierten) und damit sind sie bis jetzt excelent gefahren (Market Prediction) :)

Auch das Nvidia Compute in Kepler vernachlässigt hat war zu der Zeit kein großes Problem Maxwell war die Richtige Zeit das dann besser zu supporten :)

Da hatte AMD mit Tessellation Performance größere Probleme (die natürlich Nvidia teils ausnutzte für PR zwecke) (soweit bis der Treiber TS schalter kam) ;)

Trotzdem war es erstaunlich wie sich Nvidia selbst noch bei Tomb Raider 2013 retten konnte und wie ordentlich sie die Compute Probleme bei Kepler noch aufgefangen haben :)


Diese Strategie ging bei den Konsolen allerdings anscheinend auch daneben da sie keinen wirklich Konkurenzfähigen Compute Kern hatten und natürlich das sie insgesammt dieses Package noch nicht bieten konnten wie AMD.

mironicus
2015-06-06, 19:44:51
Imho hats Nvidia richtig gemacht dp zu kicken,so dominiert man seit Maxwell den gamermarkt ,und gewonnene Marktanteile wird NVIDIA nicht so schnell wieder hergeben.
Ich geh auch hier im Forum davon aus das 80% die gamingleistung relevant ist und nicht der profimarkt.ist im Vergleich wohl eher eine Nische.

Aber das was der Maxwell jetzt fehlt kann später wichtig sein, und NVidia zwingt dich dazu wieder aufzurüsten.

Ich wette in 15 Monaten wird eine R290x die GTX 980 hinter sich lassen, da alle neuen Spiele besser auf der AMD-Karte laufen. :D

Tamagothi
2015-06-06, 19:48:11
Was hier einige an stuß von sich geben ist manchmal einfach nur zum kotzen :down:

hasebaer
2015-06-06, 19:48:40
@mironicus
DP/FP64 wird kein Spiel in Zukunft nutzen. Eher kommt FP16 wieder in Mode.

aufkrawall
2015-06-06, 19:55:13
So gesehen sind alle bisherigen Karten nicht wirklich "Voll-DX12".
Tonga hat doch auch nicht 2:1HP?

mironicus
2015-06-06, 20:02:21
Gibt es schon irgendwelche Infos ob Fiji noch andere neue Feature bietet? Neue AA-Modi? Besonders schnelles Antialiasing durch HBM...? :D

Sunrise
2015-06-06, 20:04:17
Kann sich noch jemand an die kürzlich geleakte ASUS R9390X-DC2-8GD5 erinnern?

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/35221-amd-radeon-r9-390x-finalni-specifikace

http://abload.de/img/asus390xx4u9v.png

Wenn mich nicht alles täuscht, dann war die entsprechende 290X-Variante von ASUS kürzlich erst im Ausverkauf bei einem Händler.

Screemer
2015-06-06, 20:06:40
Ist ein anderes PCB und ein anderer kühler.

Hat mit der Matrix die im abvernauf war erst mal recht wenig am Hut. Mal vom wohl verästelten Hawaii abgesehen ;)

dildo4u
2015-06-06, 20:06:50
Wie viel Werks OC ist das 20mhz? ;D

SchinkenSpicker
2015-06-06, 20:10:24
Warum ist die maximale Auflösung eigentlich niedriger als bei Nvidia? 5k geht laut dem Datenblatt nicht.

Limit
2015-06-06, 20:11:46
Ich sehe das ganze so: nVidia hat bisher getrennte SP und DP Einheiten verbaut, AMD hingegen setzt auf Kombi-Einheiten, die beides können.

Der AMD-Ansatz ist komplexer und lässt sich schlechter skalieren (Veränderung des SP/DP-Verhältnis ist nur Redesign der kompletten Einheit möglich) und ist vermutlich auch beim Stromverbrauch nicht der effizienteste, da bei einer SP-Operation ein Teil der Kombi-Einheit zwar nicht aktiv ist, aber trotzdem weiter unter Strom steht. Der Vorteil ist, dass man Transistoren im Vergleich zu getrennten Einheiten sparen kann und so ein 1:2 Verhältnis anbieten kann statt 1:4 oder 1:5, was bei gleichem Flächenverbrauch mit getrennten Einheiten möglich wäre.

Die getrennten Einheiten bei nVidia lassen sich besser skalieren was das SP/DP Verhältnis angeht. Maxwell ist in der Hinsicht das Extremum. Durch den kompletten Wegfall der DP-Einheiten, hat man plötzlich sehr viel freien Platz. Einfach mehr SP-Einheiten hätten zu einer noch höheren Leistung/Fläche als bei Maxwell geführt. Das hätte man aber mit einem höheren Stromverbrauch bezahlt (Stromeffizienz ähnlich Kepler). Stattdessen hat nVidia auf max. Leistung verzichtet und stattdessen effizientere, aber auch größere SP-Einheiten entwickelt. Mit sonstigen Optimierungen hätte man sicherlich noch ein paar % rausquetschen können, aber dafür neue Chips aufzulegen lohnt sich kaum. Also hat man das nur da gemacht, wo es noch Lücken gab (Hawaii, Tonga, Fiji).

So, nun zur Frage wieso AMD nicht etwas ähnliches gemacht hat wie nVidia: Wegen der weniger flexiblen Architektur hätte man nicht einfach wie nVidia die DP-Einheiten über Board werfen können. Man hätte eine komplett neue Einheit entwerfen müssen, die man dann spätestens mit der nächsten Fertigungsgeneration hätte wegschmeißen können. Wäre AMD finanziell besser aufgestellt, hätte man das vielleicht gemacht, einfach nur um so eine Durststrecke wie derzeit zu ersparen. Da man aber möglichst kosteneffizent arbeiten will/muss, heißt das Motto also Augen zu und durch. Natürlich hätte man neue Einheiten entwickeln können, die ähnlich wie bei nVidia schlechtere Flächeneffizienz gegen bessere Energieeffizienz eingetauscht hätten. Ohne die DP-Leistung massiv zu beschneiden hätte das aber zu deutlich größeren Chips geführt. Im Bereich der Titan und Fury Karten wäre AMD dann auch noch die Die-Fläche für so viele Einheiten ausgegangen.

In der nächsten Generation werden die beiden Hersteller wieder ähnlichere Architekturen bieten, nämlich Kombi-Einheiten und HBM, im Prinzip also das, was Fiji jetzt schon bald liefern wird. Inwieweit weit man solche auf Energieeffizienz getrimmte Einheiten (wie Maxwell) nimmt oder eher auf Flächeneffizienz getrimmte (wie GCN) wird stark davon abhängen, wie gut die Fertigung funktioniert.

fondness
2015-06-06, 20:13:48
Tonga hat nur 1:16 DP und das ist die einzige GPU auf Fiji-IP-Level.

dargo
2015-06-06, 20:17:53
Wie viel Werks OC ist das 20mhz? ;D
Als ob Nvidia da so viel besser wäre. :rolleyes:
http://geizhals.de/asus-strix-gtx780-oc-6gd5-90yv04h4-m0na00-a1122403.html?hloc=de
http://geizhals.de/palit-geforce-gtx-780-ne5x780010fb-p2083f-a950034.html?hloc=de

26Mhz. :uclap:

Ravenhearth
2015-06-06, 20:31:16
Tonga hat nur 1:16 DP und das ist die einzige GPU auf Fiji-IP-Level.

Ich dachte, das sei nicht genau bekannt?

fondness
2015-06-06, 20:35:13
Nachdem die FirePRO auf Tonga-Basis ebenfalls nur 1:16 DP hat sollte das fix sein. Die FirePROs hatten immer den maximal möglichen DP-Output.

dildo4u
2015-06-06, 20:36:58
Als ob Nvidia da so viel besser wäre. :rolleyes:

Warum vergleichst du es mit alten Karten wenn Maxwell auf 1.34Ghz Boostet.Standard 980 Boost 1,2Ghz.

http://geizhals.de/asus-rog-matrix-gtx980-p-4gd5-platinum-90yv07j0-m0na00-a1205465.html?hloc=at&hloc=de

Haste ja selber lernen müssen wie sehr den 290X Heizt ist die Karte schon auf dem Rückweg?

dargo
2015-06-06, 20:44:02
Warum vergleichst du es mit alten Karten wenn Maxwell auf 1.34Ghz Boostet.Standard 980 Boost 1,2Ghz.

Weil ich wie dildo bissel trollen wollte.

Dural
2015-06-06, 21:26:38
der unterschid ist das der hawaii nicht mehr packt im gegensatz zu den nv gegenstücken ;)

Botcruscher
2015-06-06, 21:54:26
Sticker Pack in Rot und Gold. :freak:

Locuza
2015-06-06, 21:55:29
Nachdem die FirePRO auf Tonga-Basis ebenfalls nur 1:16 DP hat sollte das fix sein. Die FirePROs hatten immer den maximal möglichen DP-Output.
Tonga ist doch allgemein eine Akte-X.
Seit einem halben Jahr gibt es kein Tonga XT auf dem dGPU Markt und es zeichnet sich bis jetzt keiner ab.

Dazu hat der Grafikchip noch ein 384-Bit großes Interface, welches man perfekt für eine FirePro verwenden hätte können, ebenso wie eine größere ALU-Anzahl.

Tamagothi
2015-06-06, 22:10:03
der unterschid ist das der hawaii nicht mehr packt im gegensatz zu den nv gegenstücken ;)

Bei Hawaii gibts aber auch bei +20% oc auch fast +20% FPS

Was man bei Nvidia nicht sagen kann ;)

BlacKi
2015-06-06, 22:27:21
Ich frage mich eh ob sich der Aufwand lohnt, immer DP mit "einzubauen".
ich glaub das was man mit maxwell gemacht hat mit der fehlenden DP leistung wird sich mit späteren architekturen weiter fortsetzen.

die neuen designs werden wohl jedes 2. mal auf DP fähikeiten verzichten weil 2 verschiedene designs effizienter sind als alles in einem zu kombinieren. ich vermute man wird später reine gaming karten haben die nicht dasselbe design haben wie die aus dem proffesionellen bereich.

man sieht grob an maxwell wieviel effizienz/leistung verloren geht wenn man DP fähikeit einbauen muss.

Disco_STFU
2015-06-06, 22:31:26
Kann sich noch jemand an die kürzlich geleakte ASUS R9390X-DC2-8GD5 erinnern?

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/35221-amd-radeon-r9-390x-finalni-specifikace

http://abload.de/img/asus390xx4u9v.png

Wenn mich nicht alles täuscht, dann war die entsprechende 290X-Variante von ASUS kürzlich erst im Ausverkauf bei einem Händler.

Die hatten ja genug Zeit den Kühler zu optimieren. Irgendwie hab ich trotzdem das Gefühl dass da null passiert ist...

Screemer
2015-06-06, 23:26:50
Was wollen wir wetten dass die heatpipes der direct-cu immer noch nicht alle Kontakt zum die habe und die dickste pipe nicht in der Mitte sitzt. Ich möchte schon fast so weit gehen und wetten, dass zwei kleine pipes nur minimal bis keinen Kontakt zum die haben.

aufkrawall
2015-06-06, 23:31:24
Bei Hawaii gibts aber auch bei +20% oc auch fast +20% FPS

Was man bei Nvidia nicht sagen kann ;)
Das stimmt überhaupt nicht, mit MSAA taktest du auch Hawaii locker ins Bandbreitenlimit.
Mehr als 1,5Ghz Speichertakt gehen zudem nicht, dann werden die Timings erhöht...

Käsetoast
2015-06-07, 00:05:49
@Käsetoast
Warum hätte man die 78xx Serie neu auflegen sollen?
* Es gibt kein neueres DirectX (1)
* Es gibt keine bessere Fertigungstechnik (2)
* einzige sinnvolles neues Feature darüber hinaus ist bis jetzt DCC (3)
Es gibt einfach keinen Grund Pitcairn zu eretzen...
Zu (1): Naja, DirectX12 steht vor der Tür. Gut, auch Fiji wird da wohl nicht glänzen können und ich bin was das angeht nicht auf dem neuesten Stand, aber das ein oder andere nette Feature, das GCN 1.0 noch nicht hatte gibt es ja schon. Alleine schon die deutlich erhöhte Anzahl an ACE Einheiten scheint mit DirectX12 ja wohl deutliche Performanceschübe zu geben...

Weiterhin dürfte Pitcarin soweit ich weiß auch nur DX11.1 haben, während es ab Bonaire dann DX11.2 gab...

Zu (2): Wenn's hier um Intel ginge würde ich "Tick Tock" anführen. Ich meine es ist ja nicht so, dass ich erwarte, dass AMD jedes Jahr alles komplett neu auflegt, aber man sollte doch annehmen, dass nach 3 Jahren irgendwelche Fortschritte in der Architektur gemacht wurden bzw. anders herum wissen wir ja sogar, dass das passiert ist. Ich fände zum Einen wäre eine Auffrischung zeitlich angebracht und zum Anderen wäre jetzt vielleicht auch der ideale Moment zum letzten Mal voll auf GDDR5 zu setzen. Für die Reihen die nächstes Jahr mit feinerem Prozess erscheinen nehme ich an, dass man ab dem gehobenen Mid-Range auf HBM setzen wird. Mit neuen Refreshes jetzt könnte man die getätigten GDDR5 Bestellungen in meinen Augen besser an den Mann bringen als mit lauen Aufgüssen...

Zu (3): Ein wenig mehr ist ja schon passiert. Tesselation ist deutlich besser, d.h. schneller geworden, DCC dürfte einige Vorteile bieten und auch die genannten ACEs dürften mit DirectX12 interessant werden - sollte das wirklich merkbare Performancesprünge geben denke ich, dass die umbenannten Pitcairns gegenüber dem nächstgrößerem Bruder Tonga dann deutlich an Boden verlieren werden - unnötigerweise. Dann gibt es eben noch die ganzen anderen Features wie TrueAudio, VSR, besserer PowerTune Turbo und schließlich gab es da doch auch noch einige Eyefinity Verbesserungen und natürlich das von AMD gepushte FreeSync...

Gerade Letzteres finde ich schon sehr wichtig, wobei ich da schon ähnlich wie bei TrueAudio erste Anzeichen davon sehe, dass AMD das einfach mal hinschmeißt und dann nicht wirklich was damit macht. Was soll so ein Feature, wenn Karten in einem der wichtigsten Preissegmente das nicht können? Und dabei wäre das im Gegensatz zu TrueAudio dann auch noch ein extrem nettes Feature...

Ich finde die Liste der Dinge, die so einen Pitcairn Refresh deutlich verbessern würde, ist schon relativ ansehnlich mit vielen sehr interessanten Aspekten auch neben reinen Verbesserungen bei Leistung und Verbrauch...

Was ist bei dir denn "aktuelle" Technologie? Wenn ich dich richtig verstehe, dann willst du identische IP-Blöcke in jeder GPU des LineUps mit Fiji-Featureset für jeden Chip?

Und genau da sprechen wir ja schon die ganze Zeit drüber, es ist einfach nicht genug Budget vorhanden um wirklich _alles_ wieder neu auf aktueller Arch zu bauen. Du musst den kompletten Designprozess erneut durchlaufen, du musst den Chip zum TapeOut führen und du brauchst erneut Masken, mit denen du dann in Masse fertigen kannst. Mal davon ab, dass sich da jeweils wieder Fehler einschleichen können.
Naja, also es muss ja nicht immer alles auf dem neuesten Stand sein, aber alle paar Jahre kann man das doch wohl erwarten bzw. zumindest hat dies bisher bei AMD immer stattgefunden und auch jetzt hat Konkurrent NVIDIA genau das ja gemacht. Du hast hier aufgeführt wie arg aufwendig so ein neuer Chip ist und so weiter und so fort und da hast du prinzipiell auch Recht. Ich finde aber, dass so ein Prozess nach 3-4 Jahren einfach mal wieder Zeit wird. Jetzt kann man natürlich mit Kosten und so weiter kommen, aber wenn das im gegebenen Fall ein Problem ist, dann muss man einfach festhalten, dass AMD gerade auf dem letzten Loch pfeift, denn das ist doch nun wirklich nicht zuviel verlangt bestehende Technologie in vernünftigen Zeitrahmen mal in allen Preissegmenten die man bedienen will anzubieten - vor allem wenn man von einer Marktdurchdringung von z.B. Freesync oder früher auch Mantle träumt (das bei GCN 1.0 Karten mit 2GB oder weniger ja teils noch Probleme machte wie z.B. der "Schluckauf" in den min fps von BF4)...

Fiji ist der Inbegriff von zukunftsweisender Technik und genau das was du willst.
Überspitzt will ich es mal so sagen: Ich will keine 600 € teure Karte für die prinzipiell seit Jahren verfügbaren Features zahlen. Ich verlange ja nicht, dass man jetzt schon überall HBM einsetzt und so weiter, aber zumindest ein Tonga mit weniger Shadereinheiten wäre doch nicht zuviel verlangt um endlich mal das Mid-Range Portfolio von Anfang 2012 zu ersetzen, oder? Die Vorteile für Leistung & Features habe ich oben ja schon genannt. Aus der Sicht ist Fiji als Prestigeprojekt gut und schön, aber nur durch Fiji Verkäufe kriege ich ein Feature wie FreeSync am Markt nur schwerlich etabliert. Da müsste das wichtige Mid-Range Segment mal ran und genau da dreht AMD unsinnigerweise Däumchen...

Korvaun
2015-06-07, 07:29:28
Um AMD mal nen bisschen in Schutz zu nehmen, sie bringen die Technologie allgemein schon entscheidend voran. Nur ist die Ausrichtung in den Fällen immer universeller und nicht nur auf AMD GPU im speziellen beschränkt. 2 tolle Sachen sind HBM und DX12(Mantle/Vulkan). Ohne AMD hätten wir das garnicht(?) oder es würde alles erst viel später kommen. Andererseits sind das halt Sachen die der Industrie allgemein nutzen und daher für AMD selber nicht so viel bringen. NV macht knallhart nur ihr eigenes Ding, Ziel ist Kohle verdienen, Rest ist Mittel zum Zweck.

Dann gibts noch so Spielereien wie TrueAudio von AMD, da frage ich mich immer was soll das bitte, das ist komplett verlorene R&D-Zeit/Kosten. Völlig sinnlos auf ner GRAFIK-Karte ;)

rentex
2015-06-07, 08:17:48
Das beschreibts recht gut...kommt mir vor wie Good Guys/Bad Guys (überspitzt gesagt).

R.I.P.
2015-06-07, 08:24:34
Was viele scheinbar nicht richtig verstanden haben und dabei klar egoistisch an die eigene GPU denken, ist, was für AMD 2015 ist: Ein Jahr, das überstanden werden muss!

Man konzentriert sich voll und ganz auf nächstes Jahr, wo man fertigungstechnisch endlich mal fast auf Augenhöhr im CPU Bereich mitmischen darf und die ganzen behinderten Idioten vielleicht überzeugen kann, dass man alle Produkte, welche fertigungstechnisch 2-3 Generationen zurückliegen, eigentlich vollkommen geil sind, für das was technisch möglich war.

Das selbe gilt für die GPUs: Ihr glaubt doch nicht wirklich, dass Grenada & Co. AMD nen Furz interessieren. Ein netter neu aufgelegter Chip, der das Win 10 Momentum mitnehmen wird. Fiji ist, hoffentlich ein guter Probelauf für HBM und Treiber und ein kleines Prestigeprojekt (hoffentlich). Nächstes Jahr heißt es dann 14 nm vs. 16nm mit zwei unterschiedlichen Auftragsgebern. Schauen wir mal, wer das Rennen macht.

Grenada und Fiji werden am Marktverhältnis wenig ändern und ob ihr euch streitet wie geil Maxwell ist, oder nicht, ist für heuer egal und ändert nichts.

Bezüglich Maxwell und Tier3 Directx12 würden ich vorsichtig sein. Nvidia verarscht uns alle seit Jahre..
Warum soll es diese mal anders sein?

fondness
2015-06-07, 10:19:18
Fury kommt angeblich in drei Ausführung: Fury PRO, Fury XT, Fury Nano

Der Preis des Topmodells soll bei $899 liegen, also entweder sind die größenwahnsinnig geworden, oder das Ding liefert auch die entsprechende Leistung.

http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=2463&ckattempt=3
http://wccftech.com/amd-fury-series-lineup-flavors-fury-nano-xt-pro/

Eine zweite Quelle bestätigt ebenfalls die $899:
http://www.gdm.or.jp/voices/2015/0606/118491

Flusher
2015-06-07, 10:25:54
Erster Link geht nicht

mironicus
2015-06-07, 10:38:17
Mit Steuern wären das über 1000 Euro. Da kann man sich ja gleich eine Titan X holen. :D

R.I.P.
2015-06-07, 10:51:06
Möchte bezüglich Directx12 noch etwas loswerden:

Wir unterscheiden zwischen resource binding Tiers (1,2,3):
Tier 1: Fermi
Tier 2: Kepler, Maxwell 1, Maxwell 2
Tier 3: AMD GCN 1.0 bis 1.2

Dann kommen noch 4 feature levels (vom rendering) dazu:
11.0 Fermi,Kepler, Maxwell 1
11.1 AMD GCN 1
12.0 AMD GCN 1.1 und 1.2
12.1 Maxwell 2

Also nicht auf die reine Marketingmaschinerie reinfallen, außerdem bedeutet 12.1 Support überhaupt nicht voller Directx12 Support, weil eben Tier 2 bei Maxwell 2.0.

Kein aktueller Treiber kann oben genannte Aussagen bestätigen oder relativieren (von der Hardware ganz zu schweigen: Fiji). Also, aufpassen beim auf den Arm genommen werden :tongue:

Botcruscher
2015-06-07, 11:01:45
Was viele scheinbar nicht richtig verstanden haben und dabei klar egoistisch an die eigene GPU denken, ist, was für AMD 2015 ist: Ein Jahr, das überstanden werden muss!

Je nach Sparte kommt mir das schon einige Jahre so vor... Die großen Verbesserungen sehe ich auch nicht. Neben dem APU-Abfall müsste man mal wieder ordentliche CPUs liefern. Bei den GPUs gehört auch die ganze Strategie Richtung NV umgebaut. So lange der Big-Mid-Chip von NV schneller als die AMD Spitze ist kommen die aus dem Loch nie raus. Das Midrange ist dann total am Arsch. Die 960 steht quasi ohne Konkurrenz da.

PS: 899 ohne Steuern für 4GB ergibt eine lustige Marketingschlacht. Da kann man selbst 10% vor der Titan ordentlich scheitern.

R.I.P.
2015-06-07, 11:06:35
Je nach Sparte kommt mir das schon einige Jahre so vor... Die großen Verbesserungen sehe ich auch nicht. Neben dem APU-Abfall müsste man mal wieder ordentliche CPUs liefern. Bei den GPUs gehört auch die ganze Strategie Richtung NV umgebaut. So lange der Big-Mid-Chip von NV schneller als die AMD Spitze ist kommen die aus dem Loch nie raus. Das Midrange ist dann total am Arsch. Die 960 steht quasi ohne Konkurrenz da.

Ganz genau und dann letztes OT meinerseits: Das einzige richtig überlegte Projekt heuer war Carizzo, obwohl noch überprüft werden muss, ob diese Projekt gegen Intels contravenue Stand halten kann. Die Prämissen sind mit den Launchpartnern gut, wir werden sehen

Troyan
2015-06-07, 11:17:14
Möchte bezüglich Directx12 noch etwas loswerden:

Wir unterscheiden zwischen resource binding Tiers (1,2,3):
Tier 1: Fermi
Tier 2: Kepler, Maxwell 1, Maxwell 2
Tier 3: AMD GCN 1.0 bis 1.2


:confused:

Wir können auch zwischen Tiled Ressources unterscheiden:
Tier 1: Fermi, Kepler, Maxwell v1 und GCN1.0
Tier 2: GCN1.1 und GCN1.2
Tier 3: Maxwell v2

:freak:

BlacKi
2015-06-07, 11:19:56
Mit Steuern wären das über 1000 Euro. Da kann man sich ja gleich eine Titan X holen. :D
naja 899 gegen 999. jetzt kommt es auch die speichermenge und performance an was das rundere produkt ist.

wer soviel geld in hardware steckt, der tut das in die schnellste karte und dann sollte sie nicht langsamer sein...

R.I.P.
2015-06-07, 11:22:59
:confused:

Wir können auch zwischen Tiled Ressources unterscheiden:
Tier 1: Fermi, Kepler, Maxwell v1 und GCN1.0
Tier 2: GCN1.1 und GCN1.2
Tier 3: Maxwell v2



Das kenne ich als feature level ;D Directx11-12.1

Thunder99
2015-06-07, 11:33:47
Ich finde es eher schade, dass AMD ihr Portfolio nicht wirklich erneuert. Fiji ist gut und schön, aber ich frage mich, warum man nur diese eine Karte mit HBM bringt - ich meine die Architektur ist ja da, warum also nicht z.B. auch einen Hawaii Verschnitt mit HBM machen? Ich habe halt das Gefühl, dass AMD ihr Desktop GPU Portfolio ziemlich vernachlässigt. Seitdem ich mir damals kurz nach Release eine HD7850 gekauft habe ist da irgendwie nicht viel passiert. Es kam mit Bonaire ein Lückenfüller, mit Hawaii einfach mal ein größerer Chip und Tonga ist in der gegebenen Form auch weder Fisch noch Fleisch und kann sich von Tahiti kaum merklich absetzen. Irgendwie wurde seit der 7000er Serie halt beständig alles Alte mit anderem Namen und anderen Taktraten mitgeschleppt - im Wesentlichen hat AMD nur alle paar Jahre mal einen noch größeren Chip auf den Markt geschmissen (erst Hawaii, jetzt Fiji)...

Ich würde meine HD7850 nun schon gerne ersetzen, aber leider herrscht bei AMD irgendwie Stillstand abseits der noch größeren Chips. Wieso wird das gesamte Portfolio nicht mal mit den neuesten GCN Features ausgestattet? Wieso kriegen nicht alle die von Tonga bekannte Delta Komprimierung? Wieso scheint die HBM Technik nur Fiji vorbehalten zu sein (würde bei einer 4GB Hawaii doch auch gut passen, gerade wo Hawaii ja doch in den Temperaturen einen Flaschenhals hatte - ohne die Hitze von den inzwischen ja wohl auch geplanten 8GB Speicher sollte der Chip deutlich effizienter performen können). Gerade wo der neue Fertigungsprozess nicht mehr weit entfernt ist sehe ich es halt nicht wirklich ein meine HD7850 durch eine Karte zu ersetzen, die den technologischen Stand von Ende 2011 hat. Man sollte doch meinen, dass es nach den knapp 4 Jahren da mal einen Fortschritt gäbe - leider betreibt AMD derzeit nur im High-End-Bereich Produktpflege...

Noch mag AMD mich ja noch eines besseren belehren, aber derzeit sieht es eben doch so aus, als würde einfach nur mit Fiji ein neuer Chip kommen und beim Rest bleibt es beim Alten bzw. vielleicht bringt man Tonga dann mal in ernstzunehmender Form auf den Markt was im Endeffekt aber auch nur den parallel existierenden Tahiti ersetzt. Gerade wo der neue Fertigungsprozess aber nicht mehr lange hin ist, weiß ich nicht, ob ich derzeit noch die Preise für einen vollen Tonga bezahlen will. Kommt natürlich auch darauf an, was AMD dann für Preise verlangen wird...

Vermute stark das ihnen einfach das Geld fehlt! Sie setzten auf inkrementelle Verbesserungen und Erweiterungen weil es in der derzeitigen Marktlage von ihnen besser ist. Tonga ersetzt Tahiti weil letztere vom Feature Set zu alt ist. Sonst ist technologisch Tonga der derzeitige modernste Chip.

Möge AMD mehr Marktanteile gewinnen damit sie wieder mehr Geld haben für mehrere neue Chips :)

Gipsel
2015-06-07, 11:34:27
:confused:

Wir können auch zwischen Tiled Ressources unterscheiden:
Tier 1: Fermi, Kepler, Maxwell v1 und GCN1.0
Tier 2: GCN1.1 und GCN1.2
Tier 3: Maxwell v2

:freak:
Wobei ich bis heute nicht verstanden habe, was bei den Tiled Resources Tier 2 bei GCN1.0 nicht gehen soll. Wenn man sich die ISA-Manuals ansieht, sollten auch bei GCN1.0 alle Features unterstützt werden, da gibt es schlicht keinen Unterschied zwischen den verschiedenen GCN-Iterationen. Keine Ahnung, warum das der Treiber anders meldet.

Leonidas
2015-06-07, 12:38:15
Ich verstehe zwar AMDs Absicht wieder an der Spitze mitzukämpfen, weil das für einen guten Ruf sorgt, der dann sicherlich auch Mid-Range-Käufer anspricht, aber man sollte dieses wichtige Segment dann auch nicht komplett vernachlässigen und mit 2011er Technologie verhungern lassen...


AMD macht es doppelt falsch. Zuerst hatte man eine Mainstream-Strategie. Die funktionierte nicht, weil der Glanz des Spitzenprodukts fehlte. Nun setzt man auf Leistungsspitze und vergißt dabei das Brot- und Butter-Geschäft.

Die Wahrheit liegt in der Mitte zwischen Börsianern und Enthusiasten: Beide Goals muß man anpeilen und erreichen. Sowohl das Spitzenprodukt für den guten Schein als auch die rundgeluschten Brot- und Butter-Produkte des Mainstream-Bereichs.

Korvaun
2015-06-07, 12:41:59
Dieses ganze DX12-level/tiers Gedöns ist doch nur entstanden weil alle Hersteller möglichst alle alten und neuen Karten als DX12-kompatibel bewerben wollen... jetzt haben sie es geschafft, aber ausser "Experten" blickt da keiner mehr durch. Und am Ende wird doch nur das benutzt was die aktuellen Konsolen auch können ;)

Mortalvision
2015-06-07, 12:42:20
Ist die 280x, obgleich älter, denn keine Konkurrenz zur 960?

dildo4u
2015-06-07, 12:50:27
Ist die 280x, obgleich älter, denn keine Konkurrenz zur 960?
Der direkte Gegenspieler ist die 285 was für die Kartenhersteller auch besser ist da sie so "nur" mit einer 256 Bit Karten gegen eine 128Bit antreten müssen.
Mit der 280X wurde noch mher Geld verloren da das ehemalige 384Bit High-End Karten waren in der Form der 7970.

http://www.computerbase.de/thema/grafikkarte/rangliste/

Leonidas
2015-06-07, 12:51:26
Funktionierender Link zu HWBattle:
http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=2463&ckattempt=2

Schafft das jemand (den interessanten Mittelteil) zu übersetzen? Google will da nur ein Bild erkennen ...

Update: Es ist auch nur ein Bild (http://www.hwbattle.com/data/editor/1506/517658b3d6690233ad769c1eae93048e_1433473360_7722.jpg). Komische Vögel, die wichtigen Infos schwer übersetzbar zu machen.

Unicous
2015-06-07, 13:19:38
Hier hat es jemand übersetzt, richtig schlau wird man aus der Übersetzung aber nicht (entweder schlecht übersetzt, oder schlecht zusammengefasst, oder im Original stand es schon so verworren drin)

https://forum.beyond3d.com/posts/1849078/

Hardware Battle has a report in Korean on AMD's 300 series and the Fury lineup. Strangely enough, the important information is in a picture file and I get an error when putting the site URL through Google and Bing translators. With the help of my parents, I was able to translate it (we are Korean). Our translation of the Fury portion of the report is below.

The most anticipated new product from AMD is Fury, and following what has been previously mentioned here, the Fury lineup will consist of three models. These models are Fury Nano, Fury XT, and Fury Pro.

The Fury series will first come in reference models and both water-cooled and air-cooled products will be released. Non-reference models will come to market as early as mid-August or as late as early September. For the next month or more, only reference models will be released.
As expected, the supply of reference models will be limited.
We believe that the AMD Fury series is sufficiently competitive with the TITAN X and the GTX 980 Ti.
AMD Fury will have a GPU and memory on top of a small interposer, so the concentrated heat from the interposer region looks unsatisfactory concerning the TDP, but in the reference models this problem is limited.
The heat from the cooler is of a high level (like the TITAN X), but the noise level is of no concern.

Botcruscher
2015-06-07, 13:23:48
Wieder nur Referenz Modelle?! Kann AMD endlich mal die passenden Leute entlassen?!? Aus Hawaii echt nichts gelernt.

Timbaloo
2015-06-07, 13:30:06
"AMD Fury will have a GPU and memory on top of a small interposer, so the concentrated heat from the interposer region looks unsatisfactory concerning the TDP"

Ich weiss nicht warum da einige so ein Problem darin sehen? Das einzige was ich mich immer frage ist wie sie es hinbekommen, dass RAM und GPU gleich hoch sind, damit der Kühlkörper plan aufsitzt.

fondness
2015-06-07, 13:36:15
Wieder nur Referenz Modelle?! Kann AMD endlich mal die passenden Leute entlassen?!? Aus Hawaii echt nichts gelernt.

Das ewige herum rauzen ohne auch nur irgendwas zu wissen wird schön langsam lächerlich. Wenn das Referenzmodell überzeugt why not, auch von der TITAN kamen erst sehr viel später erste non-Ref-Modelle mit strikten Auflagen, AFAIK nur Wakü erlaubt. Und die TITAN ist nicht gerade leise. Aber ich weiß bei AMD ist ja alles scheiße und draufhauen so lustig.

Flusher
2015-06-07, 13:36:28
Na da steht ja nur, dass es Referenzkarten mit WaKü als auch LuKü geben wird und Herstellerdesigns offenbar erst im August den Markt erreichen werden.

Die Performanceangaben sind wohl nur persönliche Meinungen und Einschätzungen des Autors.

Interessant ist auch, dass es wohl drei Fury Versionen geben soll. Was wohl mit Fury Nano gemeint ist? Evtl. eine Extra-Kompakte Version für HTPCs und Steam Machines?

Screemer
2015-06-07, 13:36:42
@timbaloo: Pads

Tamagothi
2015-06-07, 13:37:15
VRam und Gpu müssen ja nicht gleich hoch sein.

Man kann den Kühler so herstellen das er überall aufsitzt auch wenn da 1mm unterschied sind. Das wichtigste ist ja sowieso die GPU. Der Vram wird ja nicht so heiß falls der Kühler nicht perfekt sitzt.

Unicous
2015-06-07, 13:40:39
Die Übersetzung bzw. das Ausgangsmaterial lassen sehr viel Raum zu Interpretationen. Für mich hört sich das Ganze erstmal nach einem Nichtsatz an.

Da aber der Interposer auch aus Silizium besteht, ist die Leitfähigkeit auch entsprechend hoch. Das gesamte Package zu kühlen dürfte sich daher etwas schwierig gestalten, vllt. wollte man darauf hinaus.

Es stellt sich ja auch noch die Frage, ob z.B. bei der LQS-Version ein heatspreader drauf ist oder nicht. Hinzukommt, wie die Wärme nach hinten abgeführt werden kann, da man ja im Vergleich eine ungemein größere Fläche hat die gut (wärme-)leitfähig ist.

Leonidas
2015-06-07, 13:58:12
Faktisch ist die einzige relevante Info die der drei Modelle. Die 899$, die WCCFTech genannt haben, sind also von WCCFTech hinzufabuliert worden.

Danke für die Übersetzung.

Thunder99
2015-06-07, 14:25:40
Im Vergleich zu AMD brauchte nvidia Maxwell da Kepler nur 11.0 war! AMD hingegen kann bis auf GNC 1.0 alle Chips als DX12 in HW verkaufen. Ergo hat es sich ausgezahlt damals mehr zu verbauen und zu investieren. Dumm für AMD ist halt, das nvidia ihre Kosten komplett wieder drin haben durch den exzellenten Verkauf von Maxwell. AMD wäre dank vieler verblendeter nvidia Anhänger (die auch immer nur nvidia empfehlen statt sich kritisch mit beiden Produkten auseinanderzusetzen) auf den Kosten sitzen geblieben :(

AMD ist nicht perfekt, aber besser als man denkt. Hab es selber dank des GTX970 Debakel erlebt :)

Botcruscher
2015-06-07, 14:30:01
Das ewige herum rauzen ohne auch nur irgendwas zu wissen wird schön langsam lächerlich. Wenn das Referenzmodell überzeugt why not, auch von der TITAN kamen erst sehr viel später erste non-Ref-Modelle mit strikten Auflagen, AFAIK nur Wakü erlaubt. Und die TITAN ist nicht gerade leise. Aber ich weiß bei AMD ist ja alles scheiße und draufhauen so lustig.

Titan ist eine ganz andere Geschichte. Die Karte wird künstlich limitiert und NV kann sich das leisten. AMD limitiert durch seine Produktpolitik nur die Vielfalt und damit die eignen Verkäufe. Selbst ein gutes Referenzmodel kann überhaupt nicht in jeder Kategorie überzeugen. Der Umgang mit den Bordpartnern ist der größte selbst verschuldete Fehler von AMD in den letzten Jahren.

Sunrise
2015-06-07, 16:02:07
Selbst ein gutes Referenzmodel kann überhaupt nicht in jeder Kategorie überzeugen.
Wenn du von Blinki-Blinki und Bunti-Bunti-Designs sprichst, die kommen nach, so wie das auch bisher immer war. Bei der 980 Ti hatten die Boardpartner seit letztem Jahr Zeit und so richtig verfügbar sind die immernoch nicht. Der Unterschied ist also keiner, nur dass NV deutlich mehr Zeit hatte und dort angekündigt wurde wie der Weltmeister aber davon fast nichts lieferbar ist. Ist das jetzt besser? Ich denke nicht.

Und die Boardpartner werden es generell schwieriger haben, sich bei Interposer+HBMs ggü. der Referenz zu präsentieren, da leidet die Sinnhaftigkeit von Custom-Lösungen dann automatisch noch mehr. Das trifft aber nicht nur AMD.

Dass die Vergangenheit bei AMD nicht optimal war, hat mit der Gegenwart und der Zukunft aber nichts zu tun, es sei denn die Dinger sind nicht zu gebrauchen, was ich mal ganz stark anzweifle. Da es ja dieses Mal auch 3-Lüfter-Designs und Wakü geben wird, sieht das aber mal besser aus als bei Hawaii.

Dass der Markt in diesen Preisregionen auch Variation fordert ist ja kein Geheimnis, da wird dir sicher auch keiner widersprechen. Und das NV da einen super Job macht, sicher auch nicht.

uweskw
2015-06-07, 16:34:33
:confused:

Wir können auch zwischen Tiled Ressources unterscheiden:
Tier 1: Fermi, Kepler, Maxwell v1 und GCN1.0
Tier 2: GCN1.1 und GCN1.2
Tier 3: Maxwell v2

:freak:

Ich frag mich wofür wir unsere "Fachpresse" haben?
MMn. ist es deren Aufgabe solche Dinge für den Anwender transparent zu machen. Macht aber wohl mehr Spass sich zwei TitanX reinzustecken... oder sich die neuesten Feature-Videos reinzuziehen.
Dafür werden dann die Presseverlautbarungen kritiklos unters Volk gebracht.:freak:

greetz
US

reaperrr
2015-06-07, 16:48:03
Meine Spekulation zu den drei Fury Varianten:

Fury Pro: ~250W TDP, 56 CU, 4GB, Luftkühlung, Taktraten ~900MHz Chip, 500 MHz HBM
Fury XT: ~300W TDP, 64 CU, 4GB, sowohl Luft- als auch Wasser-gekühlte Varianten, Taktraten max. 1050 MHz Chip (Durchschnittstakt evtl. niedriger wg. Power/Temp-Target), 500 MHz HBM
Fury Nano: 375W TDP, 64 CU, 8GB (August), Referenz nur Wasser, 1150MHz max. Chiptakt, 625 MHz HBM

Positionierung: Fury Pro gegen 980Ref. (bessere Leistung) und 980 OC-Modelle, Fury XT über P/L-Verhältnis (da weniger Speicher und vermutl. leicht niedrigere Performance) gegen 980 Ti, Fury Nano gegen 980 Ti OC-Modelle u. Titan X.

Megatron
2015-06-07, 17:45:52
DP außen vor, sollte man schon bei 250W + 1GHz in Schlagdistanz zu TX liegen. Ich glaube nicht, das DP derart ineffizient sein KÖNNTE!, dass man damit 50% Mehrverbrauch hat.

BlacKi
2015-06-07, 17:46:25
Im Vergleich zu AMD brauchte nvidia Maxwell da Kepler nur 11.0 war! AMD hingegen kann bis auf GNC 1.0 alle Chips als DX12 in HW verkaufen.
maxwell war schon vor mantle auf dem markt, maxwell war eigentlich schon für 2013 geplant. und DX 12 erscheint erst in fast 2 monaten. davon mal abgesehen beherrscht kepler doch DX12 zum teil. nichts was jetzt der absolute untergang nvidias wäre wenn es maxwell nicht gäbe.

Ist die 280x, obgleich älter, denn keine Konkurrenz zur 960?

die 960 kostet weniger als die hälfte in der herstellung, nennst du das konkurenzfähig? da kannst du dir denken wieviel nvidia und wieviel amd gewinn macht.

wir haben jetzt mitte des jahres und die 300er serie, welche aus rebrands besteht, ist noch nichtmal draussen. ich glaube bis mitte 2016 wird man keine neue grafikchips von amd (ausser fiji) sehen.

4 jahre alte chips!!! was soll man da schönreden?

mironicus
2015-06-07, 17:55:41
4 jahre alte chips!!! was soll man da schönreden?

Ja... und? Immerhin werden dann noch Besitzer älterer Grafikkarten immer schön weiter unterstützt. Während GTX 680-Besitzer schon längst aufgerüstet haben, dürften Radeon 7970-Besitzer weitaus länger Freude an ihrer Karte haben. :freak:

fondness
2015-06-07, 17:59:37
4 jahre alte chips!!! was soll man da schönreden?

Das ist eben der Vorteil wenn man eine zukunftstaugliche Architektur bringt, oder was genau stört dich an Pitcain und kleiner konkret? Für das leistungsniveau von Pitcain/Cape Verde hat man auch nicht zu wenig Tesslationsleistung, Compute war CGN schon immer top. Alles über Pitcain wird maximal 1,5 Jahre alt sein in Form vom Hawaii. Tonga und Fiji sind eh neu.

Leonidas
2015-06-07, 18:21:04
Ohne die lange Laufzeit der 28nm-Fertigung würde es diese komische Situation nicht geben. AMD war einfach darauf nicht vorbereitet und hat wenig Bock, das gesamte Portfolio nur so zum Spaß nochmal in 28nm aufzulegen.

Diese Situation wird es auch wohl nicht mehr so schnell geben. In Zukunft werden die Chipfertiger wieder aller 2-3J eine neue Fertigung anbieten - unter Umständen nicht mehr mit den großen Vorteilen wie früher, aber die zeitlichen Abstände werden wieder eingehalten werden. Durch den neu aufgebauten Druck von Samsung können die anderen Chipfertiger gar nicht anders, als öfters mal was neues zu bringen (Konkurrenz belebt das Geschäft).

Menace
2015-06-07, 18:39:42
Wird das in Zukunft so ohne weiteres physikalisch möglich sein?

aufkrawall
2015-06-07, 18:40:57
Wir hätten längst 20nm GPUs, wenn TSMC das nicht nur für Mobile konzipiert hätte.

Tomahawk
2015-06-07, 18:42:13
Das ist eben der Vorteil wenn man eine zukunftstaugliche Architektur bringt
Na ja, gucke dir lieber die Verkaufszahlen an. Anscheinend sind die Produkte doch nicht mehr ganz konkurrenzfähig.

R.I.P.
2015-06-07, 18:49:44
Na ja, gucke dir lieber die Verkaufszahlen an. Anscheinend sind die Produkte doch nicht mehr ganz konkurrenzfähig.

Die Verkaufszahlen von Nvidia sind indirekt proportional zu dem IQ der Käufer ihrer Produkte (9xx Serie außen vor, außer der 970er Verarsche), das hat nichts mit Qualität der Technologie zu tun

StefanV
2015-06-07, 18:54:25
Na ja, gucke dir lieber die Verkaufszahlen an. Anscheinend sind die Produkte doch nicht mehr ganz konkurrenzfähig.
..was aber schlicht daran liegt, dass die ganzen unbedarften Nutzer grundsätzlich nVidia kaufen, da muss AMD schon deutlich besser sein, um gekauft zu werden...

-/\-CruNcher-/\-
2015-06-07, 18:57:02
Die Verkaufszahlen von Nvidia sind indirekt proportional zu dem IQ der Käufer ihrer Produkte (9xx Serie außen vor, außer der 970er Verarsche), das hat nichts mit Qualität der Technologie zu tun

Totaler blödsinn so eine Aussage muss schon extrem wehtun.

Wenigstens erkennen einige was AMD falsch macht, weil sie es eben von Nvidia zu spät übernommen haben nachdem die ihre Strategie eben AMD angepasst haben ;)

rentex
2015-06-07, 19:01:39
Genau. Bei NV stimmt halt das Marketing und die Produkte sind schnell (bei Release)! Was die Quali angeht, kann man streiten. Das Gesamtbild ist schlüssiger, da hat der Intellekt nichts damit zu tun. Es hilft nix Wegweisend zu sein, aber keine passenden Produkte zu haben. AMD muss daran wieder arbeiten und muss aggresiver werden. Ich wünsche AMD das wirklich.

Korvaun
2015-06-07, 19:03:16
Ob AMD gute oder schlecht Hardware hat, ob sie die "guten" sind oder der "bad boy" ala NV, ist am Ende egal wenn sie Pleite sind. Obs Ihnen passt oder nicht, die Produkte müssen hat für den Markt entwickelt werden, andernfalls muss halt ein spitzenmäßiges Marketing den Bedarf erzeugen, aber da hat AMD ja auch kleinere Probleme ;)

Die weitere Entwicklung der Fertigungstechnologie nach 14/16nm sehe ich eher kritisch. Ich glaube die Abstände werden nicht wieder wesentlich kürzer. Insbesondere die immer schlechter werdende Kosten/Nutzen-Rechnung ist da ein großes Problem... es geht ja schon jetzt bei 14&16nm los damit.

BlacKi
2015-06-07, 19:19:07
Ja... und? Immerhin werden dann noch Besitzer älterer Grafikkarten immer schön weiter unterstützt.

das wäre nicht der fall, wenn es bereits neue chips gäbe. das war von amd doch nicht so geplant! aus sicht der user sieht man eine andere welt, aus sicht vom hersteller ist 2014/15 ein durststrecke. tonga ist ja nur resteverwertung was von apple so abfällt.

directX konnte dank der xb1 schön an die amd chips angepasst werden, jetzt zu behaupten die chips sind so zukunftstauglich halte ich für falsch.

eine 680 mit 3g wäre genauso zukunftstauglich wie eine 7970.

Timbaloo
2015-06-07, 19:28:27
Die Verkaufszahlen von Nvidia sind indirekt proportional zu dem IQ der Käufer ihrer Produkte (9xx Serie außen vor, außer der 970er Verarsche), das hat nichts mit Qualität der Technologie zu tun
Dann kann man aus der Entwicklung der Marktanteile nur schliessen, dass die Menschheit zum Release von GM204 sprunghaft dümmer geworden ist.

Tamagothi
2015-06-07, 19:32:01
Dann kann man aus der Entwicklung der Marktanteile nur schliessen, dass die Menschheit zum Release von GM204 sprunghaft dümmer geworden ist.

Schau dir die GTX 970 :freak:

aufkrawall
2015-06-07, 19:34:22
Was sah man denn, als man sich die 970 zum Release anschaute?

Grestorn
2015-06-07, 19:43:51
Die Verkaufszahlen von Nvidia sind indirekt proportional zu dem IQ der Käufer ihrer Produkte (9xx Serie außen vor, außer der 970er Verarsche), das hat nichts mit Qualität der Technologie zu tun

Das würdest Du Dir gern so wünschen, gell? :)

Sunrise
2015-06-07, 19:48:20
Die weitere Entwicklung der Fertigungstechnologie nach 14/16nm sehe ich eher kritisch. Ich glaube die Abstände werden nicht wieder wesentlich kürzer. Insbesondere die immer schlechter werdende Kosten/Nutzen-Rechnung ist da ein großes Problem... es geht ja schon jetzt bei 14&16nm los damit.
Das ist IMHO sogar der kritischste Punkt für AMD. Im Optimalfall (den es nicht gibt), darf man es auf keinen Fall zulassen, NV hier zeitlich einen deutlich größeren Vorsprung auf den Sprung nach 16nm/14nm zu lassen. Damit das aber überhaupt erst möglich wird, muss man nicht nur gute GPUs bauen, sondern diese auch für die richtigen Märkte entsprechend vermarkten und vor allem und auch Fabrics für größere Installationen bauen, damit zumindest die High-End-GPUs effizient untereinander vernetzt werden können. Keine Ahnung was AMD dafür vorsieht, aber das wird bei immer mehr Rechenleistung sonst zu einem Problem.

NV kann die High-End-GPUs jetzt zukünftig zusätzlich in engerer Zusammenarbeit mit IBM in gigantische Installationen der Industrie integrieren und hat damit absolut kein Problem mehr, wie es auch bei GP100 passieren wird, die GPUs relativ früh rauszubringen, weil das die anfänglichen BringUp- und R&D-Kosten schon zum Großteil abfangen wird. Zusätzlich kommen dann angepasste Modelle (mit aber wahrscheinlich identischer GPU) in das restliche Pro-Angebot und schließlich höchstwahrscheinlich (hier gibt es auch noch eine andere Möglichkeit) in den Gaming-Markt.

AMD hat mit GCN zwar eine gute Architektur, aber es bedarf vor allem feste zukünftige Aufträge und Sicherheiten, damit man diese Kosten wieder zurückbekommen kann. Wenn NV ihnen aber mehr und mehr wegfrisst, dann wird es schwierig. Denn gerade bei High-End zählt, dass man die Produkte nicht erst ein Jahr nach NV (wo dann schon wieder Volta kommt) auch verkaufen kann und dafür muss man zusätzlich zur Leistung auch Mehrwert schaffen, den NV in bestimmten Märkten auch ganz klar liefert.

Was ist also die Lösung? Geld sparen und möglichst wenig neue GPUs rausbringen, dafür aber eine GPU bringen, die mehrere Märkte bedient. Man nimmt sich Fiji als Basis, bohrt das Featureset auf, integriert die weiteren Effizienverbesserungen, zusätzlich 96 CUs und 8-32GB HBM2. Untenrum muss man alles mit Zen-APUs und evtl. noch einer 64 ALU-Variante bedienen, viel mehr TapeOuts würde mich daher sehr stark überraschen. Das würde AMD aber weiterhin an der Spitze mitspielen lassen.

Nicht zu vergessen die Synergie zwischen Zen und GCN. Ein paar mehr marktrelevante Features wären gut, FreeSync war ein super Beispiel, davon werden wir fast alle profitieren, True Audio wäre in der Theorie gut, mit VR evtl. besser nutzbar, aber NV hat da leider ein ziemliches Arsenal an Gegentechnologien entwickelt, die hoffentlich den Markt nicht komplett abgraben.

R.I.P.
2015-06-07, 21:10:18
Trollversuch erfolgreich :)

Nvidia hat mit der 9xx Serie eine sehr gute GPU auf den Markt gebracht. Auf das Gamer Segment zugeschnitten. Persönlich kann ich Nvidia nicht ausstehen, weil ich deren Praktiken und Kundenverarsch nicht ausstehen kann. Was mich noch mehr schmerzt, ist das wenig kritische Vorgehen vieler Käufer, besonders jedoch der eigentlich besser informierten.

Persönlich freue ich mich auf das 2016 lineup von Amd. Wenn GF endlich mitspielt und 14nm Samsung termingerecht bringen kann, werden sie definitiv in Führung gehen...oder eben nicht, weil die Dummheit und Unwissenheit vieler eben einen Strich in die Rechnung machen wird. Das hat sehr wohl mit der Intelligenz der Personen zu tun :)

fondness
2015-06-07, 21:16:07
Das ist IMHO sogar der kritischste Punkt für AMD. Im Optimalfall (den es nicht gibt), darf man es auf keinen Fall zulassen, NV hier zeitlich einen deutlich größeren Vorsprung auf den Sprung nach 16nm/14nm zu lassen. Damit das aber überhaupt erst möglich wird, muss man nicht nur gute GPUs bauen, sondern diese auch für die richtigen Märkte entsprechend vermarkten und vor allem und auch Fabrics für größere Installationen bauen, damit zumindest die High-End-GPUs effizient untereinander vernetzt werden können. Keine Ahnung was AMD dafür vorsieht, aber das wird bei immer mehr Rechenleistung sonst zu einem Problem.

NV kann die High-End-GPUs jetzt zukünftig zusätzlich in engerer Zusammenarbeit mit IBM in gigantische Installationen der Industrie integrieren und hat damit absolut kein Problem mehr, wie es auch bei GP100 passieren wird, die GPUs relativ früh rauszubringen, weil das die anfänglichen BringUp- und R&D-Kosten schon zum Großteil abfangen wird. Zusätzlich kommen dann angepasste Modelle (mit aber wahrscheinlich identischer GPU) in das restliche Pro-Angebot und schließlich höchstwahrscheinlich (hier gibt es auch noch eine andere Möglichkeit) in den Gaming-Markt.

AMD hat mit GCN zwar eine gute Architektur, aber es bedarf vor allem feste zukünftige Aufträge und Sicherheiten, damit man diese Kosten wieder zurückbekommen kann. Wenn NV ihnen aber mehr und mehr wegfrisst, dann wird es schwierig. Denn gerade bei High-End zählt, dass man die Produkte nicht erst ein Jahr nach NV (wo dann schon wieder Volta kommt) auch verkaufen kann und dafür muss man zusätzlich zur Leistung auch Mehrwert schaffen, den NV in bestimmten Märkten auch ganz klar liefert.

Was ist also die Lösung? Geld sparen und möglichst wenig neue GPUs rausbringen, dafür aber eine GPU bringen, die mehrere Märkte bedient. Man nimmt sich Fiji als Basis, bohrt das Featureset auf, integriert die weiteren Effizienverbesserungen, zusätzlich 96 CUs und 8-32GB HBM2. Untenrum muss man alles mit Zen-APUs und evtl. noch einer 64 ALU-Variante bedienen, viel mehr TapeOuts würde mich daher sehr stark überraschen. Das würde AMD aber weiterhin an der Spitze mitspielen lassen.

Nicht zu vergessen die Synergie zwischen Zen und GCN. Ein paar mehr marktrelevante Features wären gut, FreeSync war ein super Beispiel, davon werden wir fast alle profitieren, True Audio wäre in der Theorie gut, mit VR evtl. besser nutzbar, aber NV hat da leider ein ziemliches Arsenal an Gegentechnologien entwickelt, die hoffentlich den Markt nicht komplett abgraben.

Für Gesamt-AMD ist der dezidierte GPU-Markt sekundär. Das ist ein Markt der im Jahr ~5 Mrd Umsatz generiert, der x86 CPU-Markt setzt im Jahr >100Mrd um. Wenn Zen überzeugt ist AMD aus dem Schneider, wenn nicht wird auch die GPU-Abteilung nicht reichen um AMD zu retten. Das weiß auch Lisa Su und hat es in letzter Zeit nicht nur einmal erwähnt. Daher braucht man auch nicht viel Phantasie um zu erahnen, wo die Ressourcen aktuell primär hinwandern.

-/\-CruNcher-/\-
2015-06-07, 21:19:41
Trollversuch erfolgreich :)

Nvidia hat mit der 9xx Serie eine sehr gute GPU auf den Markt gebracht. Auf das Gamer Segment zugeschnitten. Persönlich kann ich Nvidia nicht ausstehen, weil ich deren Praktiken und Kundenverarsch nicht ausstehen kann. Was mich noch mehr schmerzt, ist das wenig kritische Vorgehen vieler Käufer, besonders jedoch der eigentlich besser informierten.

Persönlich freue ich mich auf das 2016 lineup von Amd. Wenn GF endlich mitspielt und 14nm Samsung termingerecht bringen kann, werden sie definitiv in Führung gehen...oder eben nicht, weil die Dummheit und Unwissenheit vieler eben einen Strich in die Rechnung machen wird. Das hat sehr wohl mit der Intelligenz der Personen zu tun :)

AMD kann nie wieder in Führung gehen das ist Logisch nicht mehr möglich da müsste schon etwas bahnbrechendes passieren in ihrem R&D oder Intel einen enormen Fehler bauen.

Glaube auch das wollen sie garnicht sie wollen einfach nur mitschwimmen und das ist ja auch gut für uns alle wobei wenn AMD einen Zyklus vor Intel laufen würde währe es eine noch etwas entspanntere Lage und AMD könnte sich regenerieren ich würe als Intel AMD diese Chance geben einfach der Amerikanischen Wirtschaft wegen ;)

2 Starke Player sind besser als 1 Gigant für die USA jedenfalls auf zu Lange Zeit währe es besser wenn AMD mal wieder vorne steht ;)

dargo
2015-06-07, 21:25:27
Für Gesamt-AMD ist der dezidierte GPU-Markt sekundär. Das ist ein Markt der im Jahr ~5 Mrd Umsatz generiert, der x86 CPU-Markt setzt im Jahr >100Mrd um. Wenn Zen überzeugt ist AMD aus dem Schneider, wenn nicht wird auch die GPU-Abteilung nicht reichen um AMD zu retten. Das weiß auch Lisa Su und hat es in letzter Zeit nicht nur einmal erwähnt. Daher braucht man auch nicht viel Phantasie um zu erahnen, wo die Ressourcen aktuell primär hinwandern.
Ich bin echt auf das Jahr 2017 gespannt. Und zwar ob es dann von AMD Pläne für "fette" APUs gibt. Dank HBM sind diese erst möglich geworden. Natürlich sollte man mit Zen dann auch einen performanten und effizienten CPU-Part liefern.

fondness
2015-06-07, 21:26:57
Die fette APU steht für 2017 auf der Roadmap ja.

Sunrise
2015-06-07, 21:27:05
Für Gesamt-AMD ist der dezidierte GPU-Markt sekundär. Das ist ein Markt der im Jahr ~5 Mrd Umsatz generiert, der x86 CPU-Markt setzt im Jahr >100Mrd um. Wenn Zen überzeugt ist AMD aus dem Schneider, wenn nicht wird auch die GPU-Abteilung nicht reichen um AMD zu retten. Das weiß auch Lisa Su und hat es in letzter Zeit nicht nur einmal erwähnt. Daher braucht man auch nicht viel Phantasie um zu erahnen, wo die Ressourcen aktuell primär hinwandern.
Und das wird nicht einfach, denn selbst wenn Zen direkt Intel alt aussehen lassen würde, was unwahrscheinlich ist, dann kann AMD nicht direkt mit voller Marktdurchdringung bei Zen rechnen. Die Marktanteile bauen sich erst langsam wieder auf, weshalb man bei den GPUs parallel weiter laufen muss, damit sich beide Bereichen ergänzen können. Dass für AMD Zen wahrscheinlich die letzte Möglichkeit ist, direkt konkurrenzfähig zu sein, ist klar, aber nach dem Scheuklappenprinzip zu arbeiten wäre noch fataler, dann hat AMD zwar eine gute CPU, aber den Anschluss bei GPUs verloren, daher muss das immer weiter auf Sparflamme laufen, daher ja meine Vorschläge von wenigen, aber dafür für viele Märkte einsetzbaren GPUs.

Das hat wohl auch mit der Einschätzung von Lisa zu tun, dass man in naher Zukunft nur schwer neue Markanteile hinzugewinnen können wird, da man einfach zuwenig Neues im preiskritischen Bereich liefern kann, aufgrund von Budget-Limitierungen. Sobald aber Zen Traktion gewinnt, kann man da sicher wieder deutlich mehr Budget locker machen. Denn bei High-End-GPUs ist AMD nach wie vor spitze.

fondness
2015-06-07, 21:43:10
AMD war jahrelang bei Mid- und Lowend-GPUs objektiv besser was Effizienz/Preis betraf. Es war nur egal, denn das Prestige staubte NV mit den High-End-GPUs ab und verkaufte damit auch im Midrage und Lowend selbst altes Zeug sehr gut. Das weiß auch Nvidia, nicht umsonst hat man mit GM200 alles in die Waagschale geworfen. Ich denke daher es spielt für die Masse kaum eine Rolle ob da jetzt ein drei Jahre alter Pitcain oder Cap Verde verkauft wird oder nicht. AMD braucht vor allem Image, deshalb auch der Schwenk Richtung High-End. Lisa hat im übrigen mehrmals betont das man im 2. Halbjahr "share gain opportunities" im GPU-Markt sieht, ich weiß also nicht was du meinst.

BTW, XFX Radeon R9 390X, ebenfalls mit 8GB GDDR5 und gibt Dirt Rally dazu:
http://videocardz.com/56145/xfx-radeon-r9-390x-pictured

dargo
2015-06-07, 21:57:30
BTW, XFX Radeon R9 390X, ebenfalls mit 8GB GDDR5 und gibt Dirt Rally dazu:
http://videocardz.com/56145/xfx-radeon-r9-390x-pictured
Wollte schon sagen sieht aus wie der Kühler der R9 290(X). Aber das Ding hat 7 Heatpipes. :eek: War das bei Hawaii auch schon so?

fondness
2015-06-07, 21:57:57
Wollte schon sagen sieht aus wie der Kühler der R9 290(X). Aber das Ding hat 7 Heatpipes. :eek: War das bei Hawaii auch schon so?

Ist auf jeden Fall ein neuer Kühler, das mit den Heat-Pipes ka.

Tesseract
2015-06-07, 22:00:59
AMD war jahrelang bei Mid- und Lowend-GPUs objektiv besser was Effizienz/Preis betraf. Es war nur egal, denn das Prestige staubte NV mit den High-End-GPUs ab und verkaufte damit auch im Midrage und Lowend selbst altes Zeug sehr gut.

image ist aber nicht nur das flaggschiff, image ist auch die generelle softwarequalität bzw. problemlosigkeit und da ist nvidia nunmal seit jahren besser aufgestellt. sowas setzt sich ebenfalls in den köpfen der leute fest bzw. wird ständig wieder aufgefrischt wenn in den diversen online-communities die frequenz der probleme mit AMD-karten sichbar höher ist.

ihr versucht es immer so darzustellen als wären die leute alle dumm oder manipuliert aber AMD hat an seiner marktstellung auch wesentlich mitschuld.

Botcruscher
2015-06-07, 22:07:08
Ich bin echt auf das Jahr 2017 gespannt. Und zwar ob es dann von AMD Pläne für "fette" APUs gibt. Dank HBM sind diese erst möglich geworden. Natürlich sollte man mit Zen dann auch einen performanten und effizienten CPU-Part liefern.

Und wer soll die extra Kaufen? Am Ende bleibt da eine winzig kleine Zielgruppe von Notebookkäufern. Alle anderen sind mit der Kombi billigst iGPU und wahlweise ordentlicher Grafikkarte deutlich besser bedient. Selbst ein Gewinn um Faktor 3 ist nicht mehr wert als ein Achselzucken. Irgend welches HSA Zeugs kommt eh nicht über den kleinsten gemeinsamen Nenner hinaus.

PS: Ich kann mich mit der Treiberqualität über beide nicht beklagen.

w0mbat
2015-06-07, 22:07:24
Also wenn ich meinen Kumpel und seine GTX 770 mit meiner HD 7870 vergleiche ist das eindeutige Fazit, dass Nvidia Qualitätsproblem mit ihren Treibern hat

Die Treiber von AMD arbeiten immer reibungslos, mein Kumpelt musste mehrmals alte Treiber wieder aufspielen, weil es Probleme gab. Dass Nvidia einer bessere SOftwarequalität hat ist einfach nur falsch, seit ein paar Jahren ist es genau anders herum.

Sunrise
2015-06-07, 22:12:07
Lisa hat im übrigen mehrmals betont das man im 2. Halbjahr "share gain opportunities" im GPU-Markt sieht, ich weiß also nicht was du meinst.
Welchen Teil meinst du denn? Dass man nur schwer neue Marktanteile hinzugewinnen wird? Das war vielleicht von mir etwas überinterpretiert, aber beim FAD hatte man das konkretisiert. Mehr als Hoffnung kam da bei mir auch nicht an. Da man aber endlich mal wieder ein komplettes LineUp inkl. High-End vorstellt, ist das denke ich auch realistisch. Maxwell ist aber stark, vor allem die 980 Ti, und das wusste man zu dem Zeitpunkt nicht, das sind alles mehr oder weniger vorsichtige Spekulationen.

BTW, XFX Radeon R9 390X, ebenfalls mit 8GB GDDR5 und gibt Dirt Rally dazu:
http://videocardz.com/56145/xfx-radeon-r9-390x-pictured
XFX hatte auch schon mal schönere Designs.

StefanV
2015-06-07, 22:12:26
Die Treiber von AMD arbeiten immer reibungslos, mein Kumpelt musste mehrmals alte Treiber wieder aufspielen, weil es Probleme gab. Dass Nvidia einer bessere SOftwarequalität hat ist einfach nur falsch, seit ein paar Jahren ist es genau anders herum.
Richtig, gibt da z.T. auch richtige Knaller bei den nVidia Treibern.
Wir erinnern uns ja sicher noch dunkel an die Treiber, die die Karte bei WoW überhitzen ließen...

Aber die Leute glauben halt ganz ganz fest dran.
Wie in der Kirche halt...

dargo
2015-06-07, 22:13:54
Und wer soll die extra Kaufen? Am Ende bleibt da eine winzig kleine Zielgruppe von Notebookkäufern.
Eine ~300W APU in einem Notebook? :ulol:

Ich kann mir da schon paar nette Sachen mit so einer APU am PC vorstellen. Nicht zuletzt dank auch jetzt der kommenden, passenden API. 16GB HBM2, eine AIO-Kühlung und ab geht die Post.

image ist aber nicht nur das flaggschiff, image ist auch die generelle softwarequalität bzw. problemlosigkeit und da ist nvidia nunmal seit jahren besser aufgestellt.
Das Märchen der besseren Treiber von NVidia wird wohl nie aussterben.

4Fighting
2015-06-07, 22:17:31
image ist aber nicht nur das flaggschiff, image ist auch die generelle softwarequalität bzw. problemlosigkeit

you only have one chance to make a first impression...

94°C Turbinenkühler als top-Notch Lösung? Sowas bleibt leider in den Köpfen hängen.

der NV-Ref-Kühler könnte aber btw auch mal ein Update vertragen.;)

Tesseract
2015-06-07, 22:21:40
Das Märchen der besseren Treiber von NVidia wird wohl nie aussterben.
weil es kein märchen ist - aber war vollkommen klar, dass jetzt wieder die üblichen verdächtigen mit schaum vor dem mund angelaufen kommen und behaupten "genau das gegenteil" sei der fall und dann auch noch mit nichtsaussagenden einzelschicksalen argumentieren.

Timbaloo
2015-06-07, 22:23:08
Und wer soll die extra Kaufen?
Ich. Also wenn die GPU auf Performance-Niveau (also aktuell GM204 bzw. Hawaii) ist und wie dargo schon gesagt hat Xen ein ordentliches Teil wird.

Wäre doch total geil, mini-ITX-Board mit so einem Teil drauf, fetter Kühler (oder gescheite WaKü (bin kein AIO-Freund)) drauf und immernoch einen Slot frei für eine Erweiterungskarte. Wäre genau mein Ding.

PS: Solange so ein Teil nicht andere Nachteile mit sich bringen würde (Effizienz z.B.).

Botcruscher
2015-06-07, 22:26:06
Eine ~300W APU in einem Notebook? :ulol:
Desktopreplacement. Sonst braucht eh keiner "mobil" Grafikleistung.
Ich kann mir da schon paar nette Sachen mit so einer APU am PC vorstellen. Nicht zuletzt dank auch jetzt der kommenden, passenden API. 16GB HBM2, eine AIO-Kühlung und ab geht die Post.
Ich kann mir dafür keinen Käufer vorstellen. Für Spieler dank der Upgrade zyklen zwischen GPU und CPU total uninteressant. Dazu wird die Kombi nie mit einer richtigen GPU mithalten. Bleibt womöglich noch eine Randgruppe im Servermarkt.

Ich. Also wenn die GPU auf Performance-Niveau (also aktuell GM204 bzw. Hawaii) ist und wie dargo schon gesagt hat Xen ein ordentliches Teil wird. 2017 darf es etwas schneller sein.

Wäre doch total geil, mini-ITX-Board mit so einem Teil drauf, fetter Kühler (oder gescheite WaKü (bin kein AIO-Freund)) drauf und immernoch einen Slot frei für eine Erweiterungskarte. Wäre genau mein Ding.

Der Vorteil zu einer extra Karte soll ein freier Slot sein?

Screemer
2015-06-07, 22:26:14
Ist auf jeden Fall ein neuer Kühler, das mit den Heat-Pipes ka.
jup der xfx double d kühler hatte auch auf der 290/x 7 heatpipes:

http://www.fudzilla.com/images/stories/Reviews/Graphics/AMD/Volcanic_Islands/R290X/XFX/5.jpg

der auf der linken. rechts ist die double x 280.

hilft aber auch nix. der kühler ist totaler rotz. ich hab ne 290dd black und da wird vrm1 gern mal >100°C "warm". sieht man auch in diesem review recht schön: http://www.legitreviews.com/xfx-radeon-r9-290-double-dissipation-video-card-review_138612/12

fondness
2015-06-07, 22:32:38
Ich kann mir dafür keinen Käufer vorstellen. Für Spieler dank der Upgrade zyklen zwischen GPU und CPU total uninteressant. Dazu wird die Kombi nie mit einer richtigen GPU mithalten. Bleibt womöglich noch eine Randgruppe im Servermarkt.

2017 darf es etwas schneller sein.


CPUs sind heute verdammt klein, man würde nicht viel Die-Size verlieren durch so einen Quad-Core-CPU on Die.


Der Vorteil zu einer extra Karte soll der freier Slot sein?

Der gemeinsame Speicher.

Flusher
2015-06-07, 22:38:39
eine 680 mit 3g wäre genauso zukunftstauglich wie eine 7970.

Guck dir mal an wo die 7970 gegenüber der 680 aktuell steht. Anno 2013 hat die Presse die GTX 680 in den Himmel gelobt, weil sie als Performance Chip 10 % schneller war als die 7970 - dass die 680 auch noch Monate später erschienen ist, hat offenbar keinen gejuckt.

Heute ist die 7970 locker 10 % VOR der 680.

Timbaloo
2015-06-07, 22:39:27
2017 darf es etwas schneller sein.
Deswegen schrieb ich ja "aktuell ...". Also in 2017 dann ~GP104-Niveau.

Der Vorteil zu einer extra Karte soll der freier Slot sein?
Kompaktere Systeme, leisere Kühlung, Synergien durch enge Verdrahtung von CPU und GPU, Kostenreduktion, ...

-/\-CruNcher-/\-
2015-06-07, 22:40:01
Also wenn ich meinen Kumpel und seine GTX 770 mit meiner HD 7870 vergleiche ist das eindeutige Fazit, dass Nvidia Qualitätsproblem mit ihren Treibern hat

Die Treiber von AMD arbeiten immer reibungslos, mein Kumpelt musste mehrmals alte Treiber wieder aufspielen, weil es Probleme gab. Dass Nvidia einer bessere SOftwarequalität hat ist einfach nur falsch, seit ein paar Jahren ist es genau anders herum.

Das will ich endlich selber sehen fakt ist fluchen noch genug damals war es überhaupt nicht mehr auszuhalten sonst wär ich wohl niemals zu Nvidia ;)

Die die sich wirklich 360° gedreht haben sind weder AMD noch Nvidia sondern Intel die haben einen heftigen change hingelegt :)

Thunder99
2015-06-07, 23:02:23
maxwell war schon vor mantle auf dem markt, maxwell war eigentlich schon für 2013 geplant. und DX 12 erscheint erst in fast 2 monaten. davon mal abgesehen beherrscht kepler doch DX12 zum teil. nichts was jetzt der absolute untergang nvidias wäre wenn es maxwell nicht gäbe.



die 960 kostet weniger als die hälfte in der herstellung, nennst du das konkurenzfähig? da kannst du dir denken wieviel nvidia und wieviel amd gewinn macht.

wir haben jetzt mitte des jahres und die 300er serie, welche aus rebrands besteht, ist noch nichtmal draussen. ich glaube bis mitte 2016 wird man keine neue grafikchips von amd (ausser fiji) sehen.

4 jahre alte chips!!! was soll man da schönreden?
Nein, definitiv nicht!!! Nur DX11.0!!! Kein DX12_0 oder 12.0/1 in HW

Thunder99
2015-06-07, 23:17:10
image ist aber nicht nur das flaggschiff, image ist auch die generelle softwarequalität bzw. problemlosigkeit und da ist nvidia nunmal seit jahren besser aufgestellt. sowas setzt sich ebenfalls in den köpfen der leute fest bzw. wird ständig wieder aufgefrischt wenn in den diversen online-communities die frequenz der probleme mit AMD-karten sichbar höher ist.

ihr versucht es immer so darzustellen als wären die leute alle dumm oder manipuliert aber AMD hat an seiner marktstellung auch wesentlich mitschuld.
Und diese sind halt gewissermaßen "dumm" wenn sie denken was damals schlecht ist ist heute auch schlecht :(. Das ist bei weitem nicht so was ich selbst erlebt habe. Klar ist das die Treiber nach wie vor nicht perfekt sind (kein forcieren der VSync Option im Treiber bei Witcher 1 :freak:) aber sonst wesentlich besser sind als zu Zeiten wo ich kurz eine HD7950 hatte :)

Was ich hierbei kritisiere ist das blinde kaufen eines nvidia Produktes anstelle von wirklichem auseinandersetzten was für einen besser ist. Und ehrlich nvidia macht nur das nötigste anstelle für echten Fortschritt (siehe vehementes DX11_0 bei ihren Grafikchips bis Maxwell 1.0...)

Arcanoxer
2015-06-08, 00:43:29
Was ich hierbei kritisiere ist das blinde kaufen eines nvidia Produktes anstelle von wirklichem auseinandersetzten was für einen besser ist.Schon mal Aktuelle Linux Benchmarks gesehen?
Eine R290x ist auf dem Level einer GTX750Ti...
Da kann man selbst Blind nichts falsch machen, so lange es keine Radeon ist.

Und dann ist der "Speicherkrüppel" GTX970 auch noch schneller als eine R290x -unter Linux und Windows.
Mit der Energieeffizienz fange ich am besten gar nicht erst an.

Btw - so manche Floskel in den thread sollten lieber unkommentiert bleiben. :rolleyes:

maguumo
2015-06-08, 00:48:45
Für welchen Teil der Leute die sich solche Gaming Karten kaufen ist die Performance unter Linux interessant? Ich denke mit 1% übertreibt man da noch gewaltig. Das ändert sich vielleicht mal mit Steam Machines, aber bis dahin sieht die Situation womöglich wieder völlig anders aus.

Die 970 und die unter Windows 290X sind so ziemlich auf dem gleichen Performance Niveau. Muss man sich dann eben überlegen ob einem die ~50-70W zusätzlicher Verbrauch oder die mögliche Sollbruchstelle mehr stört.

Arcanoxer
2015-06-08, 00:59:38
Für welchen Teil der Leute die sich solche Gaming Karten kaufen ist die Performance unter Linux interessant?
Da ist AMD total außer Konkurrenz und anfang Herbst soll das auf einmal besser werden?
Die haben mit den Windows Treiber ja schon genug zu tun. Vor wieviel Monaten ist doch gleich die letzte nicht-Beta vom Catalyst/Omega erschienen? 6?

-/\-CruNcher-/\-
2015-06-08, 00:59:44
Und diese sind halt gewissermaßen "dumm" wenn sie denken was damals schlecht ist ist heute auch schlecht :(. Das ist bei weitem nicht so was ich selbst erlebt habe. Klar ist das die Treiber nach wie vor nicht perfekt sind (kein forcieren der VSync Option im Treiber bei Witcher 1 :freak:) aber sonst wesentlich besser sind als zu Zeiten wo ich kurz eine HD7950 hatte :)

Was ich hierbei kritisiere ist das blinde kaufen eines nvidia Produktes anstelle von wirklichem auseinandersetzten was für einen besser ist. Und ehrlich nvidia macht nur das nötigste anstelle für echten Fortschritt (siehe vehementes DX11_0 bei ihren Grafikchips bis Maxwell 1.0...)

Sorry aber diese Auseinandersetzung stand bis Hawaii überhaupt nicht zur debate und erst Tonga zeigt das es sich anfängt zu lohnen jetzt langsam zu vergleichen die 285X war aber vollkommen zu Spät :)

Werd mich persönlich auch wieder mit AMD auseinandersetzen aber erst mit einem vernünftigen Preis/Leistungs/Verbrauchs Ergebniss was sich jetzt langsam ankündigt abseits von Fury allerdings ;)

Werd die nächste Performance Karte einfach so aus neugier Kaufen ;)

maguumo
2015-06-08, 01:08:05
Da ist AMD total außer Konkurrenz und anfang Herbst soll das auf einmal besser werden?
Die haben mit den Windows Treiber ja schon genug zu tun. Vor wieviel Monaten ist doch gleich die letzte nicht-Beta vom Catalyst/Omega erschienen? 6?
Was heißt Anfang Herbst? Das sollte besser werden sobald SteamOS ordentlich Traktion gewinnt, falls das der Fall ist werden die das sicherlich irgendwie in den Griff bekommen, vielleicht treiben sie dann endlich mal ihre unified open source driver Initiative weiter vorwärts. Jetzt darüber zu streiten ist sowieso Sinnfrei, in der momentanen Marktsituation sind bessere Linux Treiber einfach irrelevant.

Stand doch hier schon, was soll denn jeden Monat ein neuer WHQL Treiber bringen? Mal abgesehen davon das die Performance auch ohne ständige Treiberupdates stimmt sagt die WHQL Zertifizierung so gut wie nichts aus. Rate mal mit was damals die Nvidia Treiber die Lüfter abgeschaltet haben zertifiziert waren...

-/\-CruNcher-/\-
2015-06-08, 01:10:18
Was heißt Anfang Herbst? Das sollte besser werden sobald SteamOS ordentlich Traktion gewinnt, falls das der Fall ist werden die das sicherlich irgendwie in den Griff bekommen, vielleicht treiben sie dann endlich mal ihre unified open source driver Initiative weiter vorwärts. Jetzt darüber zu streiten ist sowieso Sinnfrei, in der momentanen Marktsituation sind bessere Linux Treiber einfach irrelevant.

Stand doch hier schon, was soll denn jeden Monat ein neuer WHQL Treiber bringen? Mal abgesehen davon das die Performance auch ohne ständige Treiberupdates stimmt sagt die WHQL Zertifizierung so gut wie nichts aus. Rate mal mit was damals die Nvidia Treiber die Lüfter abgeschaltet haben zertifiziert waren...

Richtig die NVapi Kommunikation testet Microsoft nicht das ist Nvidias Bier und das war damals ein heftiger patzer ;)

Natürlich sagt WHQL viel aus vor allem seit NT 6 bei NT 5 war das vielleicht noch nicht so der Fall aber seit NT 6 ist man sehr strikt geworden und im Debuging eine ecke weiter die tests wurden extrem erweitert vor allen bei der Stabilität/Sicherheit auch DRM passt man sehr genau auf bei den 3rd Parties :)

Rendering probleme können dagegen immer durchflutschen einfach zu viele variablen da kommt es dann mehr auf das QM bei Nvidia und AMD und deren Support struktur an und vor allem dem Treiber Team ;)

iuno
2015-06-08, 04:27:45
Schon mal Aktuelle Linux Benchmarks gesehen?
Eine R290x ist auf dem Level einer GTX750Ti...
Da kann man selbst Blind nichts falsch machen, so lange es keine Radeon ist.

Und dann ist der "Speicherkrüppel" GTX970 auch noch schneller als eine R290x -unter Linux und Windows.
Mit der Energieeffizienz fange ich am besten gar nicht erst an.

Btw - so manche Floskel in den thread sollten lieber unkommentiert bleiben. :rolleyes:
Troll nicht rum hier, unter Linux liegt eine GM107 nicht gleichauf mit Hawaii. Davon abgesehen interessiert das hier wirklich keinen und ich sage das als Linux-User. Außer für Games tue ich mir kein Windows an. Es ist aber Blödsinn, jetzt darüber zu diskutieren. Linux ist für Gaming völlig uninteressant, da die Performance beschissen ist (auch mit Nvidia!) und es eh kaum Spiele gibt. Mit viel Glück kann sich das mit Vulkan ändern, wobei ich da schon wieder wenige Hoffnungen habe. Das ist aber ein anderes Thema das dann neu betrachtet werden muss. Auch was der Wegschmiss vom proprietären Kernel-Modul und die Zusammenarbeit für den freien Treiber so bringt bleibt noch spannend.
Davon abgesehen ist die Generalisierung "Linux: Nvidia Top, AMD Flop" Blödsinn. Schau mal OpenCL an.

Aber das ist alles OT und nur blabla. Hat hier drin eigentlich nichts verloren.


Was haltet ihr von der angeblichen "Fury Nano"? Ich finde den Namen nicht ganz glücklich gewählt. Das impliziert mMn. eher eine kleinere und gleichzeitig leistungsschwächere Variante, wobei ja genau das Gegenteil der Fall ist.

OBrian
2015-06-08, 04:54:48
nee, "Nano" wird erstmal nur mit besonders geringen Abmessungen assoziiert, nicht mit einer Leistungsstufe. Und klein ist die ja offensichtlich, für "mini-ITX-on-steroids"-Kisten optimal. Über die Performance ist ja gar nichts gesagt, die "Nano"-Version könnte tatsächlich schwächer sein, um am Verbrauch einiges abzuschälen, Specs stehen ja nicht fest. Eine Wakü wäre bei dieser kurzen Platine so oder so nötig, wenn man keine 5-Slot-Kühlung bauen will.

dargo
2015-06-08, 08:35:10
weil es kein märchen ist...
Natürlich ist es ein Märchen. Nvidia Treiber sind absolut in nichts besser, besonders für den 08/15 Spieler der nicht im Inspector rumfrickelt. Ich kenne beide Lager gut. Das einzige was ich positiv NV ankreiden kann ist die teils deutliche Mehrleistung im CPU-Limit @DX11.x. Das gibt es aber erst seit paar Monaten und nicht Jahren.


Ich kann mir dafür keinen Käufer vorstellen.

Und ich genau das Gegenteil. Gerade die sogenannten "Aldi-PCs" würden davon enorm profitieren. Denn dann gäbe es nicht solche Unfälle wie ein aktueller i7 Prozessor mit einer GTX750 kombiniert. Die Gamer APUs könnte man schön in drei Segmente einteilen. Mainstream, Performance und High-End. Immer eine passende CPU zur GPU.


Für Spieler dank der Upgrade zyklen zwischen GPU und CPU total uninteressant. Dazu wird die Kombi nie mit einer richtigen GPU mithalten.

Du hast offenbar noch nie was von Vorteilen des gemeinsamen, schnellen Speichers und HSA gehört? Und bei HBM2 reden wir von >1TB/s. Ein Beispiel von vielen mit einem poppeligen Kaveri der natürlich extrem durch seine Bandbreite limitiert ist:
http://www.techpowerup.com/forums/threads/amd-kaveri-review-focused-on-hsa-features.197158/

Arcanoxer
2015-06-08, 08:37:43
Troll nicht rum hier, unter Linux liegt eine GM107 nicht gleichauf mit Hawaii.
Verbreite mal lieber kein bullshit wovon du offensichtlich keine Ahnung hast.
Big Graphics Card Comparison Of Metro Redux Games On Linux (http://www.phoronix.com/scan.php?page=article&item=metro-redux-march&num=2)

Davon abgesehen interessiert das hier wirklich keinen und ich sage das als Linux-User. Außer für Games tue ich mir kein Windows an. Es ist aber Blödsinn, jetzt darüber zu diskutieren. Linux ist für Gaming völlig uninteressant, da die Performance beschissen ist (auch mit Nvidia!)
Das passt hier ausgezeichnet rein und mich interessiert es.
Ich zocke nur Games unter Windows wenn es die (noch) nicht für Linux gibt und die laufen nicht "beschissen" um deine Worte zu benutzen.
Einige laufen sogar besser als unter Windows. L4D2 z.B.

und es eh kaum Spiele gibt...
Weit über 1000 Games nach ein Jahr, das hat zuvor wohl keine andere Platform geschafft.
Alleine meine Privatbibliothek hat über 240 Games.

Wenn AMD meint das alles gekonnt zu ignorieren, werden sie früher oder später dafür teuer bezahlen.
Denn wer den Schaden hat, braucht fuer den Spott nicht zu sorgen. ;)

tm0975
2015-06-08, 08:46:18
ersten interessiert das thema linux hier niemanden, hier gehts um aktuelle amd-gpus. zweitens sind deine beispiele weder representativ, von hat linux eine relevante bedeutung für den gaming-pc. davon wird seit 15 jahren geredet, geklappt hat es bis heute nicht. und von deinen 1000 games kennt man wieviel %? wahrscheinlich < 1 ...

zum thema. ich kann nur hoffen, dass amd das high end modell mit wasserkühlung nicht fury nano nennen wird. das klingt einfach nur albern.

Arcanoxer
2015-06-08, 08:49:45
ersten interessiert das thema linux hier niemanden...Denk mal drüber nach warum das in ein AMD thread so ist... :rolleyes:

Dawn on Titan
2015-06-08, 08:56:12
Wenn Linux relevant wird, wird AMD den Treiber schon anpassen.

HOT
2015-06-08, 09:07:03
Mit Vulkan werden die Karten eh neu gemischt unter Linux. Jetzt darauf rumzureiten bringt nix.
Sicher, NV hat den besten Linux-Support, Intel so lala und AMD eher bescheiden, das ist nix neues und für die Fury schwer uninteressant.

Screemer
2015-06-08, 09:12:51
es passt hier halt überhaupt nicht rein, denn mehr ot geht so gut wie gar nicht. du kannst dich ja schon mal vorab über den bischissenen linux-treiber für fiji aufregen. das wäre dann zum topic passend.

HOT
2015-06-08, 09:15:56
Zumal Omega Tier2 kommt und schon Omega Tier1 den Linux-Support deutlich verbessert hat. Man kann Rom eben nicht an einem Tag erbauen.

Kartenlehrling
2015-06-08, 09:17:23
@Arcanoxer
Ich weiß garnicht wieso du hier so eine Welle schlägst du beweist es jeden Tag neu,
das du nie eine AMD Grafikkarte kaufen wirst/würdes, somit ist das bei Dir nur Trollen auf Hochkultur.

MilesEdgeworth
2015-06-08, 09:41:49
@HOT:
Das der Intel-Treibersupport unter Linux so lala ist kann ich jetzt aber nicht bestätigen. Die Intel GPUs laufen einfach top. Keinerlei Treiberinstallation oder sonst etwas nötig. Ich wage sogar zu behaupten, dass Intel die besten Opensource Treiber liefert.
Die Nvidia Treiber unter Linux sollen sich auch ins negative entwickelt haben, wobei ich dazu nichts mehr parat habe.

Mit dem Kernel 4.2 sollen dann auch Tonga, Fiji und Carrizo ohne Catalyst unterstützt werden. http://phoronix.com/scan.php?page=news_item&px=Linux-4.2-DRM-AMDGPU-VirtIO

Pauschale Performance-Aussagen kann man unter Linux so oder so nur schlecht machen, dazu variieren die Systeme einfach viel zu sehr.

Grumbart
2015-06-08, 09:44:26
Spekulationsthread....
Gibt es eigentlich Informationen dazu wie das Portfolio gelauncht wird? Also macht die Fury den Anfang, dann zeitversetzt die kleineren Modelle - oder wird alles zeitgleich gelauncht?
Werden Tonga und Hawaii nur rebrandet, oder gibt es auch einen Refresh?

N0Thing
2015-06-08, 09:45:38
weil es kein märchen ist - aber war vollkommen klar, dass jetzt wieder die üblichen verdächtigen mit schaum vor dem mund angelaufen kommen und behaupten "genau das gegenteil" sei der fall und dann auch noch mit nichtsaussagenden einzelschicksalen argumentieren.

Dein Beispiel war auch nicht gerade von wissenschaftlicher Qualität geprägt. ;)
Wenn ich mir das Feedback zu beiden Treiberreihen hier im Forum angucke, dann erscheint mir die Qualität für den 08/15 Anwender ausgeglichen zu sein, Fehler und Bugs finden sich bei beiden Herstellern. Dank der Profile und dem Inspector ist Nvidia für Enthusiasten sicher im Vorteil, aber das kann kein Grund dafür sein, dass der Durchschnittskunde keine AMD-Karte kaufen würde.

Was AMD gut tun würde, wäre ein komplettes Lineup an Grafikkarten mit dem aktuellsten Techlevel samt aggressiverem Energiemanagement und Anwendungsprofile, wie man sie von Nvidia kennt. Das sollte zum einen in Benchmarks einen guten Eindruck machen und zum anderen was fürs Image bringen. Fiji alleine wird da, egal ob er an eine Titan X heran kommt oder nicht, nicht viel ändern.

Thunder99
2015-06-08, 09:45:50
Schon mal Aktuelle Linux Benchmarks gesehen?
Eine R290x ist auf dem Level einer GTX750Ti...
Da kann man selbst Blind nichts falsch machen, so lange es keine Radeon ist.

Und dann ist der "Speicherkrüppel" GTX970 auch noch schneller als eine R290x -unter Linux und Windows.
Mit der Energieeffizienz fange ich am besten gar nicht erst an.

Btw - so manche Floskel in den thread sollten lieber unkommentiert bleiben. :rolleyes:

Was interessiert einen Gamer Linux :rolleyes:? Und nebenbei ist eine GTX970 nicht immer schneller als eine R9 290x. Schaue dir mal aktuelle Tests an wo die R9 ,290x mit Custom Kühler gebencht wurde ;). Und das die GTX weniger Strom verbraucht ist nichts besonders. Wäre der gleiche Energiehunger wie bei der 780 gewesen wäre das schlecht gewesen. Lebe halt weiter in deine grüne Welt ohne kritisch zu sein. Wenn doch dann passt es wenn du für dein Anwendungnsgebiet eine nvidia besser ist :)

N0Thing
2015-06-08, 09:47:25
Werden Tonga und Hawaii nur rebrandet, oder gibt es auch einen Refresh?

Bisher weiß man nur was von rebrands, gehofft wird auf einen kompletten Tonga als Ersatz für Tahiti.

Grumbart
2015-06-08, 09:49:05
Schade, die Spekulationen um die Die Shots hatten in mir die Hoffnung auf refresh geweckt.

HOT
2015-06-08, 09:55:35
Na Hawaii muss aber mindestens ein neues Package haben, oder eine neue Rev, sonst würd der den höheren Speichertakt nicht packen.
Auch die Takte an sich, >1050 war für Hawaii immer ein Problem, für die 1080MHz Lightening musste MSI ziemlich tief in die Trickkiste greifen. Also Refresh schon, aber eben kein gänzlich neuer Chip.

Thunder99
2015-06-08, 10:05:32
Wenn sie es überarbeitet haben sollten wie wahrscheinlich ist es, dass sie auch das Feature Set aktualisiert haben? Ergo VSR @ 4k , DX12_1 ect

Flusher
2015-06-08, 10:45:09
Und dann ist der "Speicherkrüppel" GTX970 auch noch schneller als eine R290x -unter Linux und Windows.


Seit wann unter Windows?

Thunder99
2015-06-08, 10:49:07
In seiner Welt :D. Klar sind einige Games schneller bei der GTX, aber es gibt auch genug Spiele wo die AMD die Nase vorn hat ;)

Und wen interessiert Linux? Da bekleckern sich beide nicht mit Ruhm. Auch wenn er 250+ Spiele auf Linux hat werden davon weniger als eine Handvoll halbwegs aktuelle Titel sein

Loeschzwerg
2015-06-08, 10:56:48
Und wen interessiert Linux?

Kann man auch zur DP Thematik sagen und trotzdem wird es immer wieder ausgegraben ^^

Thunder99
2015-06-08, 11:01:12
Kann aber seine Kritik schon verstehen. Ist halt eher Nebensache das Treiber unter Linux performant sind. Immerhin hat AMD letzten den 15.5 für Linux released.

VSR @ 4k für alle 300er Karten wäre halt echt nice. Da hat nvidia derzeit echt die Nase vorn

Schaffe89
2015-06-08, 11:02:14
weil es kein märchen ist - aber war vollkommen klar, dass jetzt wieder die üblichen verdächtigen mit schaum vor dem mund angelaufen kommen und behaupten "genau das gegenteil" sei der fall und dann auch noch mit nichtsaussagenden einzelschicksalen argumentieren.

Sagt der Nvidia Fan Tesseract, der pauschal nie ein gutes Wort an AMD lässt.
Wie soll man dich mit sowas eigentlich ernst nehmen?

Ich nutze seit Jahren AMD und Nvidia und da gibt es nun wirklich keinen Unterschied.
Das was NV besser kann sind extrafeatures wie 3D, aber das nutzt fast keine Sau, von daher.
AA Bits in 4K unnötig.
Das was mich juckt wäre ein Tesselationsschalter bei NV und bei AMD die max. Ausbaustufe von Downsampling, aber das sind dann Sonderwünsche.

Schaffe89
2015-06-08, 11:05:00
Kann aber seine Kritik schon verstehen. Ist halt eher Nebensache das Treiber unter Linux performant sind. Immerhin hat AMD letzten den 15.5 für Linux released.

VSR @ 4k für alle 300er Karten wäre halt echt nice. Da hat nvidia derzeit echt die Nase vorn

Es wurde doch erst hier im 3D ein Test verlinkt wo gebencht wurde.
Da gab es kaum einen Unterschied zwischen Windows Performance und Linux AMD Performance. Insofern einfach nur übertriebene Meinungsmache, nichts weiter.

Isen
2015-06-08, 11:05:28
@HOT,

dem Speicher eine eigene Stromversorgung zu geben, weil Hawaii eine gemeinsame nicht mag, nennst du " tiefe Trickkiste " :D?

Nachteil: Weiteren 6Pin dazu. Vorteil: Kannst auch nen 1300er Takt fahren ;-)
Nächster Nachteil der eigenen Versorgung: Kriegst den Speichertakt aber nicht auf das Niveau angehoben, damit die 1300 Core Takt auch besser auf die Straße zu bekommen sind, also muss man sich mit den 1200-1250 Core begnügen.

Arcanoxer
2015-06-08, 11:27:01
Seit wann unter Windows?
Schon immer. Far Cry 4, GTAV, Witcher 3, Praktisch alle AAA Blockbuster.

Dawn on Titan
2015-06-08, 11:28:24
Na Hawaii muss aber mindestens ein neues Package haben, oder eine neue Rev, sonst würd der den höheren Speichertakt nicht packen.
Auch die Takte an sich, >1050 war für Hawaii immer ein Problem, für die 1080MHz Lightening musste MSI ziemlich tief in die Trickkiste greifen. Also Refresh schon, aber eben kein gänzlich neuer Chip.

Die OC Versionen werden sich kaum verändern, die Referenz taktet nun höher.

Die OCs dürften sich bei 1070mhz Einpendeln, die Top Karten gegen 1100mhz. Aber alles kommt mit einem Preis.

Schaffe89
2015-06-08, 11:31:48
Schon immer. Far Cry 4, GTAV, Witcher 3, Praktisch alle AAA Blockbuster.

Weder GTAV, noch The Witcher laufen auf AMD schlechter, the Witcher eher besser.
Far CRy 4 lief auch nicht wirklich schlechter.
Keine Ahnung was du dir da zusammreimst, aber du bist schlecht informtiert, definitiv.

Kannst ja mal die NV Performance in DayZ und Wolfenstein Old Blood gegenchecken, wo ne TitanX gegen eine r9 290x verliert.
Schon immer war AMD besser in solchen Blockbustern, blablabla.

iuno
2015-06-08, 11:54:40
Verbreite mal lieber kein bullshit wovon du offensichtlich keine Ahnung hast.
Big Graphics Card Comparison Of Metro Redux Games On Linux (http://www.phoronix.com/scan.php?page=article&item=metro-redux-march&num=2)
Toll, das ist ein Spiel, cherrypicking vom Feinsten. Warum nimmst du nicht den aktuellsten Test von Phoronix, wo dieses Spiel auch vorkommt? Dort sieht man, dass die Sache schon bei Last Light ganz anders aussieht. Hawaii PRO liegt dort sonst locker 50% über GM107.
Dort wird übrigens noch nicht der Catalyst 15.5 benutzt, der am selben Tag wie der Test erschienen ist.

Das passt hier ausgezeichnet rein und mich interessiert es.
Ich zocke nur Games unter Windows wenn es die (noch) nicht für Linux gibt und die laufen nicht "beschissen" um deine Worte zu benutzen.
Einige laufen sogar besser als unter Windows. L4D2 z.B.
Und was genau hat das mit Pirate Islands Spekulation zu tun?
Und ich spiele unter Windows, weil ich es sowieso für die meisten Games von mir brauche und mir den Blödsinn nicht antun will. Ein System fürs Gaming, eins für den Rest, so einfach ist das.
l4d2 ist im Übrigen die große Ausnahme und die Mehrperformance ist sehr gering. Bei CS:GO, was immerhin die selbe Engine benutzt sieht es z.B. schon wieder ganz anders aus. Die halbe Framerate unter Linux ist keine Seltenheit.

Weit über 1000 Games nach ein Jahr, das hat zuvor wohl keine andere Platform geschafft.
Alleine meine Privatbibliothek hat über 240 Games.

Wenn AMD meint das alles gekonnt zu ignorieren, werden sie früher oder später dafür teuer bezahlen.
Denn wer den Schaden hat, braucht fuer den Spott nicht zu sorgen. ;)
Das freut mich für dich. Ich persönlich habe keinen auf den Kram und die Zustimmung hier im Thread sollte dir zu denken geben. Wir können uns dann gerne im Arctic Islands Spekulationsthread darüber unterhalten, wenn bis dahin Vulkan zu breiter Zustimmung unter den Entwicklern geschafft hat und dann auch über die Auswirkungen von amdgpu sprechen.

Schon immer. Far Cry 4, GTAV, Witcher 3, Praktisch alle AAA Blockbuster.
Du hast es wohl perfektioniert, mit zweierlei Maß zu messen. Das sind übrigens genau alles die Spiele, die es für Linux nicht gibt.



btt: CB (http://www.computerbase.de/2015-06/radeon-r9-390x-bilder-und-spezifikationen/) spricht übrigens von einem Paperlaunch. Die Fiji-Karten sollen nicht zum 16. Juni verfügbar sein - auch nicht für Tester.
Zum 16. Juni wird der Schleier zumindest ein wenig gelüftet, allerdings werden dort nach aktuellem Wissensstand nur die grundlegenden Eckdaten bekanntgegeben, während echte Tests erst später folgen – so wie beim Hawaii-Start vor knapp zwei Jahren.
Bei Hawaii ging es dann bis zum Test noch einen Monat

Arcanoxer
2015-06-08, 11:57:16
Weder GTAV, noch The Witcher laufen auf AMD schlechter, the Witcher eher besser.
Far CRy 4 lief auch nicht wirklich schlechter.
Keine Ahnung was du dir da zusammreimst, aber du bist schlecht informtiert, definitiv.
Ich beziehe mich auf die PCGH Benchmarks.
Und da war keins der von mir aufgezählten Spiele auf einer R290x schnellers als auf einer GTX970.

Beweis:

Witcher 3 (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/)
GTAV (http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/)
Far Cry 4 (http://www.pcgameshardware.de/Far-Cry-4-PC-256888/Specials/Technik-Test-Benchmark-1143026/)

Aber immer erstmal los meckern und "das stimmt nicht" brüllen.

iuno
2015-06-08, 12:02:20
970 und 290X sind bei FHD meist Kopf an Kopf, bei höheren Auflösungen liegt Hawaii vorn. Je nach Test unterscheiden sich die Ergebnisse, bei CB sieht es schon wieder anders aus. Hat mit dem Thema hier aber absolut nichts zu tun

Unicous
2015-06-08, 12:05:19
Thema verfehlt. Setzen. 6.


Nach derzeitigen Informationen (z.B. Lesermail und Anandtech) basiert die M375 auf den alten GCN 1.0 Cape Verde Chip (vorgestellt als Radeon HD 7770 mit 640 Shader und 128 Bit Speicherbus). Dadurch wäre sie sehr ähnlich zur AMD Radeon R9 M270 (725 MHz) bzw AMD Radeon R9 M275 (925 MHz). Laut unseren Informationen von AMD könnte die Grafikkarte jedoch auch schon bereits auf einen aktuellen GCN 1.2 / 2.0 Chip (Tonga Derivat) basieren.

http://www.notebookcheck.com/AMD-Radeon-R9-M370X.142762.0.html

Gpu-Z erkennt es als Cape Verde (Lesermail-Link von oben)

http://i.imgur.com/drxycq2.png

fondness
2015-06-08, 12:09:57
R7 370 geleaket:

http://videocardz.com/56154/amd-radeon-r7-370-leaked

http://s14.postimg.org/8vbnxzrdt/AMD_Radeon_R7_370_Performance1.jpg (http://postimage.org/)

Leonidas
2015-06-08, 12:16:19
Wird das in Zukunft so ohne weiteres physikalisch möglich sein?


Ja. Indem man die Vorteile der neuen Fertigungen reduziert. Nicht mehr 100% mehr Transistoren in derselben Fläche, sondern vielleicht nur noch 50%.

Macht sich besser, als 4-5J auf eine neue Fertigungs-Generation zu warten.




Spekulationsthread....
Gibt es eigentlich Informationen dazu wie das Portfolio gelauncht wird? Also macht die Fury den Anfang, dann zeitversetzt die kleineren Modelle - oder wird alles zeitgleich gelauncht?
Werden Tonga und Hawaii nur rebrandet, oder gibt es auch einen Refresh?


Offizielle Vorstellung für alles am 16. Juni. Die ganzen Rebrandings wird man wohl eher unter den Teppich zu kehren versuchen, dafür kommen jene sofort in den Markt. Bei Fury besteht die große Chance, das jene am 16. Juni nur paper-gelauncht wird und das es deren Tests erst rund eine Woche später gibt.

iuno
2015-06-08, 12:18:30
R7 370 geleaket:

http://videocardz.com/56154/amd-radeon-r7-370-leaked
20% zur 750 Ti klingen mir nicht nach 270, erst recht nicht 270X, das ist mMn. eher Richtung 265 oder nicht? Das sind immerhin AMD-Angaben.
Das neue Design gefällt mir. Hoffentlich sind die Kühler auch besser, nicht nur deren Optik:rolleyes:

mironicus
2015-06-08, 12:23:32
Laut dem alten Computerbasetest ist eine R270 ca. 24% schneller als eine 750 Ti. Eine R265 ca. 16%.
http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/

Arcanoxer
2015-06-08, 12:24:15
Radeon R9 390X : Weitere Bilder und Spezifikationen zur Hawaii-"Neuauflage" (http://www.computerbase.de/2015-06/radeon-r9-390x-bilder-und-spezifikationen/)

Die 390x ist praktisch nur die 8GB Version der 290x.
Von 20 MHz höheren Chiptakt mal abgesehn.

Und über den Sinn und Unsinn von 8GB auf einer 290x/390x kann man auch streiten.
Was die wohl kosten soll? Und vor allen, wer ist die Zielgruppe... :uponder:

fondness
2015-06-08, 12:27:00
Referenz werden 1050/3000 statt 1000/2500 bei der 290X sein, plus 8Gb Standard.

iuno
2015-06-08, 12:32:33
Laut dem alten Computerbasetest ist eine R270 ca. 24% schneller als eine 750 Ti. Eine R265 ca. 16%.
http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/
Ja, kommt auf das Setting an. Eine 270X liegt auch gerne mal 40% vor der 750 Ti, machen rein rechnerisch immer noch etwa 36% für eine 270. Das ist deutlich zu viel, als dass AMD als Hersteller auf den Slides nur +20% angeben würde.

Verstehe nicht, warum man bei Hawaii mit dem Speicher so weit hoch gehen soll. Da besteht doch nicht der riesen Bedarf und es sollte doch immerhin einige Watt kosten, natürlich auch bzgl. des SI?
Jemand mit 290X könnte das ja evtl. mal Testen. Meine mit Elpida macht das nicht mit.

HOT
2015-06-08, 12:33:27
Referenz werden 1050/3000 statt 1000/2500 bei der 290X sein, plus 8Gb Standard.
So in etwa würd ich das auch sehen. Neues PCB, neues Package, anderer Name, gleiches Die. Also eigentlich exakt wie Pitcairn -> Curacau.
Bisher sieht es ja mehr nach Lineup-Ergänzung aus:
370 -> Pitcairn
270X -> Curacau
285 -> TongaPro 2GB Retail (Rename zu 380 für OEM)
380 -> TongaPro 4GB Retail
380X -> Tonga XT 4GB oder TongaXT(Antigua) 6GB? (später, evtl. im August)
290 -> HawaiiPro 4GB
390 -> HawaiiPro(Grenada) 8GB
290X -> HawaiiXT 4GB
390X -> HawaiiXT(Grenada) 8GB

Tahiti fällt komplett raus, der kleine Curacau fällt raus, Rest bleibt im Wesentlichen wie gehabt.

dargo
2015-06-08, 12:41:44
Und über den Sinn und Unsinn von 8GB auf einer 290x/390x kann man auch streiten.

Genauso wie über die 12GB der Titan X.

Arcanoxer
2015-06-08, 12:46:11
Genauso wie über die 12GB der Titan X.
Titan X ist für alle die das beste haben wollen/müssen, egal was es kostet.
In die Kategorie fällt eine 390x ja nun nicht wirklich. ;)

Shaft
2015-06-08, 12:49:43
Ich bin auf die Marktpreise gespannt.