PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48 49 50 51 52 53 54 55 56

fondness
2015-06-19, 17:37:28
Wie wahrscheinlich ist dass die Fury dank Custom-Designs der Fury X @stock gefährlich wird?

Unrealistisch, IMO wird man kaum eine bessere Kühlung bekommen wie die Fury X Referenzkühlung und die normale Fury ist sicher teildeaktiviert und niedriger getaktet. Klar könnten Custom-Design vielleicht mit viel Takt und Spannung eventuell annähernd gleich ziehen, aber das wird einen hohen Preis haben was Lautstärke und Leistungsaufnahme betrifft.

Lurtz
2015-06-19, 17:41:57
Schon klar, aber in eigenen Benchmarks kann man das ja irgendwie hinbiegen.
Im Endeffekt sagt AMD hier ganz deutlich, dass man Intel Chips kaufen muss wenn man die Karten nutzen will. Und das find ich schon bemerkenswert.
Ist doch nichts neues dass sich AMD aus dem Highend-CPU-Bereich zurückgezogen hat und Grafikkarten bencht man nunmal mit Highend-CPUs.

akuji13
2015-06-19, 17:42:30
1010rpm, 1050MHz und grad mal 38°C? :eek:

Könnte Menü-bedingt sein.
Da sinkt gerade mit Wasser die GPU Temp zügig.

Allerdings gibt AMD ja ingame ~50° vor, unrealistisch ists also nicht wenn das Spiel nicht extrem fordert.

Sunrise
2015-06-19, 17:44:37
1010rpm, 1050MHz und grad mal 38°C? :eek:
Da du ja jetzt auch ne Frame Rate Target Control hast, kannst du da einfach die maximalen Hz deines Monitors eingeben und du verbläst auch nicht unnötig Leistung. Und somit leisere und kühlere Karte mit deutlich weniger Verbrauch durch die Bank. Ist jetzt nicht AMD exklusiv, aber zusammen mit der AiO wird das eine Traumkombi.

aufkrawall
2015-06-19, 17:46:06
Macht mal halblang, es ist nur das Menü vom alten Dota 2-Gammel in 1080p (ob Source 2 oder nicht ist da auch egal).

Raff
2015-06-19, 17:50:29
Keine AiO mit Single-Radiator hält eine GPU unter 40 °C, wenn es wirklich lastig wird. ;)

MfG,
Raff

maguumo
2015-06-19, 17:51:37
Keine AiO mit Single-Radiator hält eine GPU unter 40 °C, wenn es wirklich lastig wird. ;)

MfG,
Raff

Kommt auf die Lufttemperatur an. In Kamtschatka bestimmt ;)

foenfrisur
2015-06-19, 17:51:50
https://www.youtube.com/watch?v=f4uY7W6Qk5A

hier hat man realistischere werte der lüfter bei 3000rpm ;)

nicht so übertrieben wie eine turbine im anderen video bei 7V des 5400er lüfters.
bei halber leistung sind sie extrem leise und haben dennoch gut druck für den radiator.

sind mit die besten lüfter für radiatoren die AMD da rausgesucht hat. chapeau dafür.

mfg

edit:

https://www.youtube.com/watch?v=vPpD1k1iSVc

fondness
2015-06-19, 17:53:36
sind mit die besten lüfter für radiatoren die AMD da rausgesucht hat. chapeau dafür.


Eben und noch dazu sind die Dinger schweineteuer, AMD hat hier also sicher nicht am Lüfter gespart.

Deshalb ist ein Lüftertausch außer zu Modzwecken eigentlich auch unnötig, etwas besserer wird man kaum bekommen.

foenfrisur
2015-06-19, 17:55:08
https://www.youtube.com/watch?v=vPpD1k1iSVc

hier auch krass, wie leise mit 8 lüftern.

mfg

OBrian
2015-06-19, 18:05:52
hmm, nichtssagend, wenn in so einem Video nicht auch die Lautstärke von irgendwas bekanntem mit aufgenommen wird. Lautstärkemessungen sind sowieso fast das schwerste überhaupt, kommt gefühlt kurz vor Neutrinozählen.

Ich glaub aber auch so, daß die leise sind.

fondness
2015-06-19, 18:09:53
Ich befürchte schlimmes wenn ich mir das ansehe:

http://s16.postimg.org/tc4rvyb11/390x_390_internal_4_K.png (http://postimg.org/image/zd2gt0xn5/full/)

http://www.forbes.com/sites/jasonevangelho/2015/06/18/amd-radeon-390x-video-card-edges-out-nvidia-gtx-980-in-4k-gaming/

DrFreaK666
2015-06-19, 18:12:42
Ich befürchte schlimmes wenn ich mir das ansehe:

http://s16.postimg.org/tc4rvyb11/390x_390_internal_4_K.png (http://postimg.org/image/zd2gt0xn5/full/)

http://www.forbes.com/sites/jasonevangelho/2015/06/18/amd-radeon-390x-video-card-edges-out-nvidia-gtx-980-in-4k-gaming/

Ja. Wäre nicht so geschickt. Aber da Radeons stark sind in höheren Auflösungen...

R.I.P.
2015-06-19, 18:18:24
Ich befürchte schlimmes wenn ich mir das ansehe:

http://s16.postimg.org/tc4rvyb11/390x_390_internal_4_K.png (http://postimg.org/image/zd2gt0xn5/full/)

http://www.forbes.com/sites/jasonevangelho/2015/06/18/amd-radeon-390x-video-card-edges-out-nvidia-gtx-980-in-4k-gaming/

Hmm,kannst du mir erklären wieso schlimm? Finde den Zusammenhang nicht..

foenfrisur
2015-06-19, 18:19:32
das fury in fhd nicht mehr ganz so gut dasteht?

ist doch banane. was gibt es da schlimmes zu befürchten...??
dürfte minimal sein, wenn überhaupt.

mfg

crux2005
2015-06-19, 18:20:46
Hmm,kannst du mir erklären wieso schlimm? Finde den Zusammenhang nicht..

In den AMD Benchmarks ist die R9 390X vor GTX 980. In den meisten Reviews ist dem nicht so. Also wir das mit Fury X vs. GTX 980 Ti ein Kopf an Kopf rennen sein.
Ist halt die Sache mit Cherry picked Benchmark Ergebnissen.

fondness
2015-06-19, 18:21:02
Hmm,kannst du mir erklären wieso schlimm? Finde den Zusammenhang nicht..

Die Fury X liegt in den AMD benchs knapper vor der 980Ti wie die 390X vor der GTX980 liegt. Nun weiß man aber das die 390X eher nicht vor der GTX980 liegt...

maguumo
2015-06-19, 18:21:51
Die 390X ist doch den Reviews nach auch in 4K selten vor einer 980. Ich denke darauf spielt er an. Wenn die Ergebnisse aus dem Review Guide der Fury X ähnlich geschönt sind wird man die 980Ti eventuell nicht schlagen können.

EDIT: zu spät...

Timbaloo
2015-06-19, 18:27:20
Ob Fury nun 2-3% schneller oder langsamer als 980ti ist ist doch wirklich reichliche Latte, oder?

Schnoesel
2015-06-19, 18:32:42
Wollte es grade sagen. Wenn einem langweilig ist kann man sich immer noch über belanglose Vorteile im niedrigen einstelligen Prozentbereich unterhalten.

GTX 980ti und Fury X werden in der gleichen Leistungsklasse sein. Ob hier oder dort mal ein paar % mehr oder weniger who cares.

dildo4u
2015-06-19, 18:33:07
Die 390X ist doch den Reviews nach auch in 4K selten vor einer 980. Ich denke darauf spielt er an. Wenn die Ergebnisse aus dem Review Guide der Fury X ähnlich geschönt sind wird man die 980Ti eventuell nicht schlagen können.


Jup ich schätze mal es ist extrem Eng siehe den 4k 3D Mark Test und die Custom 980TI werden die Karte deutlich überholen.Vermutlich ist der 3D Mark Wert der ehrlichste da man dort nicht an den Setting's drehen kann.

http://abload.de/img/amd-radeon-r9-fury-x-f0uzx.png

980 TI G1 Nvidia hat massig Raum gelassen Titan X killer zu bauen.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_ti_g1_gaming_soc_review,15.html

maguumo
2015-06-19, 18:33:49
Die schnellste Karte zu haben ist ein Imagevorteil. Und beim gleichen Preis wie die 980Ti müsste man sich wohl auch Leistungsmäßig etwas absetzen um ein paar vermeintliche Nachteile auszugleichen. Naja, mal schauen...

Schnitzl
2015-06-19, 18:36:22
Der zweite Absatz war nicht auf dich persönlich bezogen, sondern auf diejenigen, die mal schönreden, mal kritisieren, je nachdem welcher Hersteller gerade am Werk ist und sich nicht wegen der Sache an und für sich zu Wort melden.
Macht nix, ich versuche hier sowieso nichts persönlich zu nehmen :)

dieses "Frame Rate Target Control" - find ich schonmal super.
es hiess hier dass das bereits möglich ist, aber nur mit extra Tool? (Nachbrenner?)

Mr. Lolman
2015-06-19, 18:42:50
Die Fury X liegt in den AMD benchs knapper vor der 980Ti wie die 390X vor der GTX980 liegt. Nun weiß man aber das die 390X eher nicht vor der GTX980 liegt...

Natürlich sind die AMD-Werte cherrypicked, aber deswegen nicht unbedingt falsch. Es kommt halt sehr aufs jeweilige Spiel, den Benchmark und eben auf die Auflösung (4k) draufan:

Alien Isolation: http://www.overclock3d.net/reviews/gpu_displays/msi_r9_390x_gaming_8g_review/22
Batman: http://www.maximumpc.com/sapphire-amd-tri-x-r9-390x-review/
BF: http://www.hardocp.com/article/2015/06/18/msi_r9_390x_gaming_8g_video_card_review/8
Civilization: http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/13.html
Farcry4: http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/17.html
Hitman: http://www.guru3d.com/articles_pages/msi_radeon_r9_390x_gaming_8g_oc_review,24.html
Ryse: http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/21.html
Sleeping Dogs: http://www.techspot.com/review/1019-radeon-r9-390x-390-380/page5.html

Schnoesel
2015-06-19, 18:45:00
Oder schlicht auch auf die gebenchte Szene, weiß auch gar nicht warum man sich über Messtoleranzen streiten muss.

Tamagothi
2015-06-19, 18:56:36
Nvidia macht es nicht anders. Wenn es aber AMD macht ist es schlecht?:confused:

Außerdem sind viele Benchmarks für die Tonne da man niemals 4k mit 22 fps spielen würde :P

Die Benchmarks von AMD sind natürlich auch schrott.

mironicus
2015-06-19, 18:59:53
Die Karten sind immer noch zu lahm für 4K.

maguumo
2015-06-19, 18:59:58
Es ging doch nicht darum das es schlecht ist, eher darum was man daraus auf die Performance der Fury X schließen kann.

Schnoesel
2015-06-19, 19:01:37
Kann man doch. Ca. gleiche Leistungsklasse wie GTX 980ti. Reicht das nicht? Die üblichen Benches geben auch nur die Wahrheit über einen kurzen Zeitraum, mit einem bestimmten System, mit bestimmten Settings und in einer bestimmten Szene wieder.

dargo
2015-06-19, 19:02:09
HAHA netter Hint @Golem :D

http://s30.postimg.org/st9qtg4gx/Dota2_x64_DX11.jpg (http://postimage.org/)

http://www.golem.de/news/dota-2-reborn-beta-valves-source-2-engine-unterstuetzt-nun-directx-11-1506-114769.html
Meh... 1010RPM @38°C, das ist doch für eine GPU fast Kälteschock. :tongue: Ich rieche hier schon verschenktes Potential. ;( Aber danke für den netten Hinweis. Endlich mal einer aus der Masse den kein 3DFurz zuerst interessiert.

Tamagothi
2015-06-19, 19:07:29
Es ging doch nicht darum das es schlecht ist, eher darum was man daraus auf die Performance der Fury X schließen kann.

manche denken zu viel :ucrazy4:

Meh... 1010RPM @38°C, das ist doch für eine GPU fast Kälteschock.

meine R9 290X hat max 60° @ 0 dp ^^

R.I.P.
2015-06-19, 19:20:13
Danke für die Antworten. Für mich ist sowieso di Nano am Interessantesten. Deshalb sind Benchmarks bei dieser Generation für mich so oder so uninteressant :)

DrFreaK666
2015-06-19, 19:28:18
Die Karten sind immer noch zu lahm für 4K.

Nicht jeder spielt GTA V und The witcher 3... 😉

-=Popeye=-
2015-06-19, 19:38:01
Die Karten sind immer noch zu lahm für 4K.

Alles eine Frage der Settings es muss nicht immer ULTRA + massig AA sein. ;)

derguru
2015-06-19, 19:43:56
hhmm GPU-Z zeigt 128 ROPs an :freak:

wtf? also doch 128:confused:
Jup ich schätze mal es ist extrem Eng siehe den 4k 3D Mark Test und die Custom 980TI werden die Karte deutlich überholen.Vermutlich ist der 3D Mark Wert der ehrlichste da man dort nicht an den Setting's drehen kann.

http://abload.de/img/amd-radeon-r9-fury-x-f0uzx.png

980 TI G1 Nvidia hat massig Raum gelassen Titan X killer zu bauen.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_ti_g1_gaming_soc_review,15.html
bin mit oc mit einer titan x bei ~4800 in den settings, auf die oc werte der fury bin ich gespannt, eigentlich muss da was gehen bei so einem potenten kühler.

Nakai
2015-06-19, 20:06:37
GPU-Z liest BS aus.

AMD hat 64 ROPs bestätigt.

Ansonsten ist das Hierarchische Design auch ziemlicher BS, vor allem beim HBM-, L2-Cache-Teil.

Also Reviews abwarten.

LadyWhirlwind
2015-06-19, 20:18:49
Hat GPU-Z nicht eine interne Datenbank wo es sich die Infos herholt? Afaik liest GPU-Z nicht wirklich was aus, es bestimmt nur den Chip und zeigt die Infos dann an.

Vor dem offiziellen Release sind die Infos natürlich gern mal falsch.

Nakai
2015-06-19, 20:23:32
Hat GPU-Z nicht eine interne Datenbank wo es sich die Infos herholt? Afaik liest GPU-Z nicht wirklich was aus, es bestimmt nur den Chip und zeigt die Infos dann an.


Jup.

Ich finde es schon sehr komisch, dass man nur 64ROPs verbaut hat. Womöglich sind diese etwas aufgebohrt. Mit nur 8 MControllers muss jeder Controller 4 Channels ansprechen können, um alle HBM-Kanäle anzusprechen.

OBrian
2015-06-19, 22:49:26
Danke für die Antworten. Für mich ist sowieso di Nano am Interessantesten. Deshalb sind Benchmarks bei dieser Generation für mich so oder so uninteressant :)Ich hoffe ja ernsthaft, daß die Nano ziemlich viel an Leistung einbüßt ggü. ihren Fury-Kollegen. Denn das würde einerseits bedeuten, daß die 4 GB eher zur Performance passen, soll heißen ich brauche nicht mehr RAM, weil die Leistung für höhere Settings eh nicht ausreicht. Dank DCC sollten die 4 GB ja auch "gehaltvoller" sein als 4 GB auf einer grob gleichschnellen Hawaii. Und andererseits ist der Preis eine Funktion der Performance, d.h. würde geringere Performance grundsätzlich auch einen niedrigeren Preis bedeuten.

Wird aber bestimmt trotzdem reichlich teuer. :(

Screemer
2015-06-19, 23:01:39
Dank DCC sollten die 4 GB ja auch "gehaltvoller" sein als 4 GB auf einer grob gleichschnellen Hawaii.
dcc ist doch bei hbm im verlgeich zu gddr völlig sinnfrei. das spart einfach nur bandbreite und gerade das hat hbm zur genüge. speicher an sich spart es erst mal gar nicht. warum man lieber dcc bei fury verbastelt hat und nicht modernere features wie hdmi2.0, neuere vce, oä. kann mir nicht vorstellen das sowas mehr transitoren verbraucht als dcc.

maguumo
2015-06-19, 23:08:06
dcc ist doch bei hbm im verlgeich zu gddr völlig sinnfrei. das spart einfach nur bandbreite und gerade das hat hbm zur genüge. speicher an sich spart es erst mal gar nicht. warum man lieber dcc bei fury verbastelt hat und nicht modernere features wie hdmi2.0, neuere vce, oä. kann mir nicht vorstellen das sowas mehr transitoren verbraucht als dcc.
Das die Karte ohne HDMI 2.0 kommt hängt wohl eher nicht vom Transistorbudget ab. DCC war bereit, warum also nicht auch verwenden..

Timbaloo
2015-06-19, 23:15:46
Auch mit HBM hat man ja nicht unendlich viel Bandbreite, DCC wird sicher weniger bringen als mit DDR5, aber man hat halt in gewissen Situationen immernoch einen Vorteil gegenüber nicht-DCC. Also warum nicht?

maguumo
2015-06-19, 23:43:57
Wieso sollte es weniger bringen als mit GDDR5?

Screemer
2015-06-19, 23:58:01
es bringt natürlich genau so viel. 40% "mehr" bandbreite, zumindest war in den 285er präsentation von dem prozentsatz die rede. allerdings ist der untschied halt 256bit zu 4096bit breiter speicheranbindung. letztere dürfte verglichen mit den alten 384bit/256bit interfaces der alten karten wohl kaum noch limitieren. vielleicht ist jetzt klarer was ich meine.

w0mbat
2015-06-20, 01:39:05
40% mehr von 512GB/s ist deutlich besser als 40% mehr von 320GB/s, also ganz im Gegenteil zu deiner Aussage.

ilibilly
2015-06-20, 01:45:01
es bringt natürlich genau so viel. 40% "mehr" bandbreite, zumindest war in den 285er präsentation von dem prozentsatz die rede. allerdings ist der untschied halt 256bit zu 4096bit breiter speicheranbindung. letztere dürfte verglichen mit den alten 384bit/256bit interfaces der alten karten wohl kaum noch limitieren. vielleicht ist jetzt klarer was ich meine.

Hmm ,ist es nicht eigentlich egal ob 256bit oder 4096bit, wenn der Durchsatz gleich ist bringt die Breite der Schnittstelle dennoch einen Vorteil?

M@TRIX™
2015-06-20, 01:46:06
AMD Radeon R9 Fury X Demoed at 12K Resolution, 60 FPS in Dirt Rally Eyefinity Setup
(http://wccftech.com/amd-fury-x-tested-12k-60fps/)

Screemer
2015-06-20, 02:01:21
Hmm ,ist es nicht eigentlich egal ob 256bit oder 4096bit, wenn der Durchsatz gleich ist bringt die Breite der Schnittstelle dennoch einen Vorteil?
512 GB/s hbm vs. 320 GB/s 290x vs. 176 GB/s 285. dcc ist auch nur für den framebuffer gut. für normalen zugriff auf texturen o.a. im vram bringt es nix. so hatte ich es zumindest verstanden.

mczak
2015-06-20, 04:42:50
512 GB/s hbm vs. 320 GB/s 290x vs. 176 GB/s 285. dcc ist auch nur für den framebuffer gut. für normalen zugriff auf texturen o.a. im vram bringt es nix.
Definiere "normaler Zugriff auf Texturen". Wenn du in einen komprimierten FB renderst kannst du den danach auch als Textur verwenden. Und das hoffentlich ohne den vorher manuell via Spezial-Blit dekomprimieren zu müssen. Genau das ist nämlich bei AMD für komprimierte Z und Farbpuffer (bei msaa gibt's ja schon lange Kompression) der Fall bis mindestens (und inklusive) GCN 1.1, offensichtlich war die Logik dafür nur in den ROPs vorhanden. Da ist dann die bandbreitensparende Technik plötzlich ein Bandbreitenfresser... Nvidia hatte da soviel ich weiss mindestens seit Fermi einen Riesenvorteil (der ROP-Cache ist irgendwie in den normalen L2 integriert, kein Problem die FBC (oder Z/MSAA)-komprimierten Texturen direkt im Sampler zu nutzen).
Bei Tonga soll das ja jetzt auch ohne vorherige Dekomprimierung gehen. Weiss aber nach wie vor nicht ob jetzt einfach die Dekomprimierungslogik sowohl in den ROPs wie den TMUs ist oder ab man das nun so gebaut hat dass sowohl die ROPs wie auch die TMUs die nutzen können... Ich schätze aber das spart je nach Fall auch eine ganze Menge Bandbreite auch ohne die neue FBC in Betracht zu ziehen - Dekomprimierblits fressen natürlich massiv Bandbreite, ganz abgesehen davon dass der Texturzugriff dann ja auch auf unkomprimierte Daten erfolgt (bei z.B. fp16 mit 4xMSAA nicht ganz ohne...).

-/\-CruNcher-/\-
2015-06-20, 07:20:11
Benches vom Hersteller sind Wertlos und reine fps Werte sagen nix darüber aus wie Derbe die Microruckler sind wenn der Vram ausgeht.Die guten Seiten Testen Heute mit Frametimes z.b pcper.


Gutes Beispiel die fps sehen hier ok aus für die 780 mit 3GB,die Frametimes sagen was komplett anderes.

http://www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite

Ja aber viele verstehen die relationen nicht hier z.b ist es compute was kepler hier nicht packt gegen AMD bei der (HDAO,DOF) Compute implementation und deswegen die Frametimes crashen ;)

Das kann man aber von Reviewern einfach nicht wirklich erwarten das sie diese verstehn ;)

Dieses AO und DOF wurde für die Konsolen und speziel GCN hin optimiert.

Da hört man dann immer wieder VRAM ist schuld ist ja auch der einfachste schuldige den man sich immer wieder aus den Fingern saugt ;)

rentex
2015-06-20, 07:42:46
Dann bitten wir um Aufklärung.

-/\-CruNcher-/\-
2015-06-20, 08:03:50
Wozu ich werd mir die Nano kaufen meine eigenen tests durchführen und dann seh ich persönlich weiter der rest den die Reviwer da immer verzapfen interessiert mich nicht die Bohne die haben ein Kommerzieles verkaufsinteresse (sich selbst) ich nicht also bewerte ich mir die sachen selbst und lasse sie nicht von irgendwelchen handlangern bewerten ;)

Deren balken gehen mir schon lange am Arsch vorbei bei der GTX 970 war es relativ einfach zu erkennen wie effizient GM204 ist (vor allem die Compute Optimierungen) hier sind Nvidia und AMD aber wirklich wieder nah bei einander gekommen (endlich), das will ich für mich selber testen und nicht von irgendwelchen Pro Redakteuren die die Software mit der sie Arbeiten und ihre bottlenecks nicht kennen.

Hier hat vor allem THG absolut herausgestochen mit ihrer expertise gegenüber allen anderen deren Daten waren extrem von Vorteil, es gab zwar auch hier und da probleme mit der test methodik aber das konnte man gut im nachhinein relativieren :)

Auch beteilige ich mich ungern an solchen idiotischen schwanzvergleichen die hier von den Fanboys teils abgezogen werden untereinander.

Su hat gesagt sie haben es geschaft Effizient zu werden das wird die Nano beweisen müssen Fury X ist da absolut uninteressant die Hit Karte ist die Nano (150W) mit ihrem 2.0x Perf/Watt improvement das Pred wird ;)

Raff
2015-06-20, 08:54:28
Warum ist die Fury X aus Effizienzsicht uninteressant? Die AiO-Wakü trägt schließlich einen großen Teil zur Effizienz bei, denn ein kalter Chip läuft effizienter als ein heißer. Das ist ein sehr effektiver "Cheat", den auch Hawaii damals gut hätte vertragen können. ;) Oder redest du von der Effizienz in Sachen Auslastung? Die steht auf einem anderen Blatt und es darf wegen des geleakten Blockdiagramms bezweifelt werden, dass hier Rekorde fallen.

MfG,
Raff

dargo
2015-06-20, 09:03:31
Ja aber viele verstehen die relationen nicht hier z.b ist es compute was kepler hier nicht packt gegen AMD bei der (HDAO,DOF) Compute implementation und deswegen die Frametimes crashen ;)

Das ergibt keinen Sinn. Maxwell hat keine Compute Schwäche mehr und dennoch sind die Frametimes auf einer 970 miserabel.
http://abload.de/image.php?img=bioshock_inf_vsync_ofioo9f.png

Zum Vergleich Hawaii.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52013&d=1432561006

Der Spike in der Mitte ist Szenenwechsel. Nvidia hat in B:I ein ganz spezielles Problem im Treiber. Mit Compute kann das nichts zu tun haben.

M4xw0lf
2015-06-20, 09:34:38
AMD Radeon R9 Fury X Demoed at 12K Resolution, 60 FPS in Dirt Rally Eyefinity Setup
(http://wccftech.com/amd-fury-x-tested-12k-60fps/)
AMD informed us that two Radeon R9 290X’s or a Radeon R9 295×2 get around 45-50 FPS on this exact setup.
Read more at http://www.legitreviews.com/12k-gaming-with-one-amd-radeon-r9-fury-x-graphics-card_166585#lBm6cjWeHCxbTtoy.99
Wot? :uconf:

R.I.P.
2015-06-20, 09:41:32
Warum ist die Fury X aus Effizienzsicht uninteressant? Die AiO-Wakü trägt schließlich einen großen Teil zur Effizienz bei, denn ein kalter Chip läuft effizienter als ein heißer. Das ist ein sehr effektiver "Cheat", den auch Hawaii damals gut hätte vertragen können. ;) Oder redest du von der Effizienz in Sachen Auslastung? Die steht auf einem anderen Blatt und es darf wegen des geleakten Blockdiagramms bezweifelt werden, dass hier Rekorde fallen.

MfG,
Raff

Da ihr bereits sicherlich mehr über Fury wisst, weil alle wichtigen Redaktionen ein sample erhalten haben, nehme ich richtigerweise an, dass bei der Auslastung nicht viel geändert worden ist. Finde den HBM Testlauf vin AMD trotz der fehlenden Punkte wie HDMI 2.0 absolut genial. Eine Generation vor Nvidia und Erfahrung mit HBM und Treiber dafür.
Ich habe schon geschrieben, was 2015 mMn für Amd ist, ein Jahr, dass überstanden werden muss. Mit den Designwins von Carrizo und Fury und den Konsolen werden sie es schaffen.

Ich benutze noch FHD beim Monitor, weil IPS uninteressant ist und nur VA Panele für mich in Frage kommen. Auch achte ich auf den Preis und ein Samsung 29SE790C und der größere 34 Zoll Bruder kommen erst in Frage, wenn der Preis im Marktdurchschnitt liegen wird. 4k ist mein Samsung Fernseher, bei 80cm Abstand vom Monitor ist mir die Schrift zu klein, ohne skalieren zu müssen.

Die Nano ist das was ich brauche: ultracoole Effizienz mit Waküblock noch optimaler vielleicht und mehr Leistung als ich jemals brauchen werde für FHD und 21:9 Auflösung später. Könnte das Nvidia auch? Bestimmt, aber im Moment ist nur AMD auf dem Markt, oder bald.

dargo
2015-06-20, 09:41:32
Wot? :uconf:
Haha... habe nur gewartet bis es dem ersten auffällt. :biggrin: Weiß einer wie gut das CF Profil in dem Spiel ist?

user77
2015-06-20, 09:59:52
Haha... habe nur gewartet bis es dem ersten auffällt. :biggrin: Weiß einer wie gut das CF Profil in dem Spiel ist?

das habe ich gefunden:

Better crossfire support Please!
I'm running a 4790k, 16gigs ddr3 1866 and 2 R9 290 Tri-x cards.

In the Benchmark, with 1 card, I get 51 fps minimum and 64 fps average. With Crossfire, i get 45 fps minimum and 105 fps average. Crossfire seems to not run as smoothly as a single card. is there any way to get minimum fps above 60 with crossfire?

it seems to dip very low during the benchmark sometimes in cockpit view,

(del676)
2015-06-20, 10:01:49
Der fahrt aber sicher nicht mit 12k, und schon garnicht mit AMD internen Treibern.
Selbst wenn eine 290x in 4k 64fps average bekommt, in 12k sinds sicher keine 45. ;)
Also wird 290x CF bei dem AMD Bench schon funktioniert haben.

dargo
2015-06-20, 10:09:52
das habe ich gefunden:
Hmm... würde bedeuten, dass CF in dem Spiel bei den avgs. mit +64% skaliert. Wenn ich weiter rechne bedeutet das, dass die R9 Fury X in diesem Spiel knapp doppelt so schnell ist wie R9 290X. :eek: Dabei berücksichtige ich die 50fps der R9 295X2, nicht die 45fps (bei 45fps wären es knapp +120% für Fiji). Das klingt irgendwie zu gut. :cool:

Edit:
Schwer da was genaueres abzuleiten. Hier skaliert CF bei 8xMSAA @1440p mit nur 47% bei den avgs.
https://www.youtube.com/watch?v=w1stxZf-EgI

Eventuell schon leichtes CPU-Limit?

Wäre dennoch ein exzellentes Ergebnis für Fiji. Mit den neuen Daten wäre Fiji dann 76-96% schneller in dem Spiel als die R9 290X.

Edit 2:
Hier skaliert CF mit 54% bei den avgs in 4k.
https://www.youtube.com/watch?v=rdzNy87JGZ8

fondness
2015-06-20, 10:13:58
Auch mit HBM hat man ja nicht unendlich viel Bandbreite, DCC wird sicher weniger bringen als mit DDR5, aber man hat halt in gewissen Situationen immernoch einen Vorteil gegenüber nicht-DCC. Also warum nicht?

Der Vorteil von DCC ist vor allem auch die Stromersparnis.

Dawn on Titan
2015-06-20, 10:15:30
HBM Power

fondness
2015-06-20, 10:27:10
Warum ist die Fury X aus Effizienzsicht uninteressant? Die AiO-Wakü trägt schließlich einen großen Teil zur Effizienz bei, denn ein kalter Chip läuft effizienter als ein heißer. Das ist ein sehr effektiver "Cheat", den auch Hawaii damals gut hätte vertragen können. ;) Oder redest du von der Effizienz in Sachen Auslastung? Die steht auf einem anderen Blatt und es darf wegen des geleakten Blockdiagramms bezweifelt werden, dass hier Rekorde fallen.

MfG,
Raff

Das hat bei Hawaii auch niemanden gestört dass das Ding deshalb so viel verbraucht hat, weil es mit einer viel zu schwachen Kühlung bei 95°C dahin bruzelte. Jetzt bei Fury drauf anzuspringen hätte was von Doppelmoral. Man kauft eben die gesamte Karten, das gilt besonders bei der Fury X und der TITAN, weil es da eh keine Custom-Designs gibt.

Troyan
2015-06-20, 10:34:08
Wenn die Effizienz nur durch die Wasserkühlung möglich ist, dann ist dies ein Vorbote für alle anderen Versionen. Eine Fury mit Luftkühlung wird dann bei 75°C knapp 300W brauchen. Das wären 80W mehr als eine GTX9800TI für die gleiche Leistung - wohl gemerkt, dass AMD nicht stärker die GPU beschneidet.

ChaosTM
2015-06-20, 10:36:24
Die 290er braucht einfach Wasser oder einen gscheiten Aftermarket Kühler - dann macht sie auch Spass.

2x 290x Leistung bei sehr hohen Auflösungen halte ich für möglich. Dirt läuft immerhin mit 3/4 der Pixelmenge von echtem 8K.
Das ganze 12k zu nennen, ist natürlich fragwürdig.

mironicus
2015-06-20, 11:25:40
Stellt euch vor, ihr habt die Fiji bestellt und wartet sehnsüchtig darauf... doch das Paket kommt nicht, weil der Händler nur per DHL versendet. :D

Wisst ihr bei welchen Händlern man andere Versandoptionen wählen kann (UPS etc.)?

Hübie
2015-06-20, 11:27:27
Dann würde ich eben zu einem Laden strunzen :rolleyes:

Raff
2015-06-20, 11:31:03
Du meinst: vor eine DHL-Filiale strunzen/brunsen? :ulol:

MfG,
Raff

dargo
2015-06-20, 11:49:46
Das ganze 12k zu nennen, ist natürlich fragwürdig.
Das verstehe ich auch nicht so ganz. Man kann doch nicht einfach 4k *3 nehmen wenn die vertikale Achse bei 2160 Pixel gleich bleibt. Marketing halt.

Hübie
2015-06-20, 11:50:27
X-D alternating possibilities...

Also Mindfactory is nich soo weit (Bremen->Wilhelmshaven), Atelco, K&M und noch so kleinere Klitschen sind hier.

Hübie
2015-06-20, 11:55:20
Das verstehe ich auch nicht so ganz. Man kann doch nicht einfach 4k *3 nehmen wenn die vertikale Achse bei 2160 Pixel gleich bleibt. Marketing halt.

Es sind 24,9 Mio Pixel. Darauf kann man sich ja einigen. Aber in dem wtf-Artikel wird viel geschrieben, nix gesagt, also fürn Arsch. Kann ja mid detail level sein und wir wissen es nicht.

Edit: sry 4 dbp

Screemer
2015-06-20, 12:00:09
Es sind 24,9 Mio Pixel. Darauf kann man sich ja einigen. Aber in dem wtf-Artikel wird viel geschrieben, nix gesagt, also fürn Arsch. Kann ja mid detail level sein und wir wissen es nicht.

Edit: sry 4 dbpdas kommt von legit reviews. Was ich lustig finde ist wie dreist wtf eigentlich den kompletten teaser klaut und unter eigenem Namen postet. Na wenigstens setzrnnsie nen link zu legit.

Hübie
2015-06-20, 12:02:12
Quelle und link sind ja drin. Das scheint zu reichen. Bei wtf-Tech ists aber immer so dass man einen ellenlangen Text liest, aber am Ende nur eine Info hat die dann auch noch dreifach ausgelegt werden kann. Also einfach schenken, dann spart man Zeit.
Bei legitreviews häng ich nie rum also kann ich nix zu deren kontinuierlicher Verblödung ggü. wtf-tech sagen.

dargo
2015-06-20, 12:03:06
Es sind 24,9 Mio Pixel. Darauf kann man sich ja einigen. Aber in dem wtf-Artikel wird viel geschrieben, nix gesagt, also fürn Arsch. Kann ja mid detail level sein und wir wissen es nicht.

Welche Details ist in dem Zusammenhang völlig unwichtig. Es geht um den direkten Vergleich zur R9 295x2 die mit gleichen Details betrieben wurde.

Nightspider
2015-06-20, 12:09:54
Das verstehe ich auch nicht so ganz. Man kann doch nicht einfach 4k *3 nehmen wenn die vertikale Achse bei 2160 Pixel gleich bleibt. Marketing halt.


Jepp. Bei echtem 12K stürzt sogar eine Titan X ab nach einer Weile. War zumindest bei meinem Kumpel so.

Hübie
2015-06-20, 12:14:58
Welche Details ist in dem Zusammenhang völlig unwichtig. Es geht um den direkten Vergleich zur R9 295x2 die mit gleichen Details betrieben wurde.

Quark. Allein Treiber oder Tesselation kann stark das Ergebnis verzerren. Seit wann arbeitest DU so ungenau? :rolleyes:

Nakai
2015-06-20, 12:18:40
Warum ist die Fury X aus Effizienzsicht uninteressant? Die AiO-Wakü trägt schließlich einen großen Teil zur Effizienz bei, denn ein kalter Chip läuft effizienter als ein heißer. Das ist ein sehr effektiver "Cheat", den auch Hawaii damals gut hätte vertragen können. ;) Oder redest du von der Effizienz in Sachen Auslastung? Die steht auf einem anderen Blatt und es darf wegen des geleakten Blockdiagramms bezweifelt werden, dass hier Rekorde fallen.

MfG,
Raff

Da hat AMD bei Hawaii richtigen Bockmist gebaut. Das Streben eines leisen Kühlsystems hat eben zu den hohen Temperaturen beigetragen. Mit 93°C als Temp-Limit lag man runde 20~30°C über NV-Pendants. Das sind schon mal ein paar Watts extra Verbrauch. Was AMD das getan hat, war wirklich lächerlich. Das galt natürlich nicht für Partnerkarten.

Fiji braucht HBM und eine WaKü für diese Leistungsregionen. Erstmal wird durch HBM das Package deutlich heißer, bzw. die W/Fläche ist deutlich größer also die Fläche ist kleiner. Da braucht es schon eine WaKü für. Da kann NV so sehr rummecker, eine Grafikkarte braucht eine LuKü, etc. Wir werden in Zukunft deutlich mehr WaKü-Grafikkarten sehen. HBM im Highend-Bereich erfordert das schon irgendwie. Durch die WaKü spart man sich auch ein einige Watts ein. Energie-effizienztechnisch ist Fiji kein Wunder. HBM-Speicher sollte aber doch einiges ändern, wenn es um die Leistungseffizienz geht. Immerhin hat der Speicher eine Bandbreite von 500GB/s+. Das ist mehr als die Bandbreite zum L2-Cache als bei vielen anderen Chips.

Kartenlehrling
2015-06-20, 12:22:34
Damit macht man auch keine gute Presse ...
20.06.2015 um 11:30 Uhr:
Die relativ bekannte Technikseite Kitguru beklagt in einem Bericht, dass AMD ihr ein Sample der Radeon Fury X verweigere.
Aufgrund begrenzter Sample-Zahlen wolle man die Karten lieber Reviewern mit einer positiveren Ansicht über AMD zukommen lassen,
so die angebliche Begründung.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-Fury-X-AMD-schliesst-Tester-aus-1162578/

Spasstiger
2015-06-20, 12:24:26
(UHD) 8K ist definiert als 7680 Pixel * 4320 Pixel, das sind 33 Megapixel. Sehr schade, dass diese Definition jetzt so verwässert wird, indem man eine Auflösung mit 25 Megapixeln, also weniger Pixeln als bei 8K, mit 12K bezeichnet.

Screemer
2015-06-20, 12:25:11
Wenn ein sogenannter Journalist so ein Video bringt, gebe ich ihm auch nichts zum testen.

https://vimeo.com/130535984
Blediator hat es da sehr gut auf den Punkt gebracht. Warum man das nach 2 tagen noch mal zu der Neuigkeit verwursten muss verstehe ich auch nicht. Ist doch reiner klickbait.

Falsch war schlicht das zu kommunizieren. NV hätte hält einfach nicht bemustert.

Knuddelbearli
2015-06-20, 12:25:28
tja NV beliefert einfach kritische Seiten wie ht4u nicht mehr regelmäßig und kein Schwein interessierst. AMD macht es transparent und bekommt dafür jetzt haue.

Abgesehen davon war kitguru nicht eine von den Seiten die massiv AMD Pressematerial geleakt hat?

Screemer
2015-06-20, 12:26:50
Abgesehen davon war kitguru nicht eine von den Seiten die massiv AMD Pressematerial geleakt hat?

Das außerdem.

Nakai
2015-06-20, 12:27:34
Damit macht man auch keine gute Presse ...


http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-Fury-X-AMD-schliesst-Tester-aus-1162578/

http://www.kitguru.net/components/graphic-cards/zardon/amd-fiji-hbm-and-product-rebadging/

Nichts gegen Kitguru, ich kenne diese Seite nur vom Hören und Sagen, aber wie "dumm" kann man sein, so ein Video zu drehen? Da werden Gerüchte und Probleme als Fakten dargestellt. Aber es hätte andere Seite eher erwischen sollen.

€:
tja NV beliefert einfach kritische Seiten wie ht4u nicht mehr regelmäßig und kein Schwein interessierst. AMD macht es transparent und bekommt dafür jetzt haue.

Abgesehen davon war kitguru nicht eine von den Seiten die massiv AMD Pressematerial geleakt hat?

Ja stimmt, da gabs damals auch einen Fall.:freak:

Timbaloo
2015-06-20, 12:32:06
Erstmal wird durch HBM das Package deutlich heißer, bzw. die W/Fläche ist deutlich größer also die Fläche ist kleiner.
Warum wird W/Fläche größer?

mironicus
2015-06-20, 12:32:18
Wer nicht lieb ist, kriegt keine Lutscher mehr. :D

Hübie
2015-06-20, 12:38:24
(UHD) 8K ist definiert als 7680 Pixel * 4320 Pixel, das sind 33 Megapixel. Sehr schade, dass diese Definition jetzt so verwässert wird, indem man eine Auflösung mit 25 Megapixeln, also weniger Pixeln als bei 8K, mit 12K bezeichnet.

Es gibt keine offizielle Definition. 12k = 12 kilo = 12 Tausend = 3 * 3840 auf der x-Achse. Also rein rechnerisch und objektiv legitim. Megapixel-Angabe ist dagegen nicht so werbewirksam, wenn jemand rechnen kann ;) 12k klingt einfach wahnsinnig viel. :rolleyes:

dargo
2015-06-20, 12:49:39
Quark. Allein Treiber oder Tesselation kann stark das Ergebnis verzerren. Seit wann arbeitest DU so ungenau? :rolleyes:
Das ist die alte Egoengine. Wird da überhaupt was tesselliert?

dildo4u
2015-06-20, 12:56:27
Das ist die alte Egoengine. Wird da überhaupt was tesselliert?
https://youtu.be/cSdqiqcdDa0

Nakai
2015-06-20, 12:57:25
Warum wird W/Fläche größer?

Weil der Speicher ins Package wandert. Außerdem wird das gesamte PCB-Design kleiner. Fiji wird ähnlich viel verbraten, wie Hawaii. Eine WaKü für den highest-part Fiji ist gar nicht mal so verkehrt.

Spasstiger
2015-06-20, 12:58:05
Es gibt keine offizielle Definition.
Die Eckdaten sind in einer industrieweit anerkannten und bestätigten ITU-Spezifikation festgehalten: ITU-R BT.2020-1 (https://www.itu.int/dms_pubrec/itu-r/rec/bt/R-REC-BT.2020-1-201406-I!!PDF-E.pdf).
Seitens dem DVB-Consortium, über das sich die Industrie auf TV-Übertragungsstandards verständigt, wird für die in ITU spezifizierten Auflösung ein Sprachgebrauch von 4k für 3840*2160 Pixeln und 8k für 7680*4320 Pixeln propagiert: https://www.dvb.org/resources/public/whitepapers/beyond_hd_white_book_dttv_de.pdf.
Arg viel näher kann man einer Definition nicht mehr kommen.

Triple-4K wäre eine faire Sprechweise für das AMD-"12K".

http://www.kitguru.net/components/graphic-cards/zardon/amd-fiji-hbm-and-product-rebadging/

Nichts gegen Kitguru, ich kenne diese Seite nur vom Hören und Sagen, aber wie "dumm" kann man sein, so ein Video zu drehen? Da werden Gerüchte und Probleme als Fakten dargestellt. Aber es hätte andere Seite eher erwischen sollen.
In meinen Augen wird hier lediglich dieselbe berechtigte Skepsis zum Ausdruck gebracht, die ich ebenfalls im Thread geäußert habe, obwohl ich beileibe kein AMD-Hasser bin - alle meine Grafikkarten der letzten 13 Jahre waren Radeons.

dargo
2015-06-20, 13:10:28
https://youtu.be/cSdqiqcdDa0
Das ist doch nicht das gleiche Spiel. Zudem war die Tessellation in Dirt 2 total harmlos. Naja... egal. Warten wir mal erste Benchmarks ab.

Ätznatron
2015-06-20, 13:13:45
Nein, 12K kann schon korrekt sein:

Die Bezeichnungen "4k" und "8k" lassen sich von der horizontalen Auflösung mit circa 4000 bzw. 8000 Pixeln ableiten.


Siehe Seite 21 in dem Whitebook: Beyond HD.

Die vertikale Auflösung fließt da also nicht mit ein.

edit: zumindest ist die Sache nicht so eindeutig.

Timbaloo
2015-06-20, 13:14:38
Weil der Speicher ins Package wandert.
Aber dadurch dass der Speicher ins Package wandert wird das Package ja wieder größer. Und W/Fläche würde aufs gesamte Package gesehen nur größer werden wenn die W/Fläche von HBM größer ist als die W/Fläche der GPU, was man denke ich ausschliessen kann.

InsaneDruid
2015-06-20, 13:21:00
Nein, 12K kann schon korrekt sein:




Siehe Seite 21 in dem Whitebook: Beyond HD.

Die vertikale Auflösung fließt da also nicht mit ein.

edit: zumindest ist die Sache nicht so eindeutig.

Hübsch selektiv zitiert.

Direkt darüber:
"Der Begriff Ultra HD bezeichnet ein digitales Videoformat. Dieses wurde vom NHK Science & Technology Research Laboratories, dem Forschungszentrum des öffentlichen-rechtlichen Programmveranstalters NHK in Japan
entwickelt und als zukünftiges Fernsehformat mit folgenden Auflösungen vorgeschlagen:
3.840x2.160 Pixel (sog. 4K-Format)
7.680x4.320 Pixel (sog. 8K-Format)"

Direkt danach:
"Die Standardisierungsgremien ITU sowie SMPTE haben beide Auflösungen übernommen und mit weiteren
Parametern unter dem Begriff Ultra High Definition Television (UHDTV) standardisiert. Hierbei verwendet die
ITU den Begriff UHDTV für beide Auflösungen. Die SMPTE unterscheidet dagegen zwischen UHDTV 1
(3.840x2.160) und UHDTV 2 (7.680x4.320)."


Weiter auf Seite 43:
"UHD-1 Von der ITU gewählte Bezeichnung für Ultra HD-Signale mit einer Bildauf
lösung von 3.840x2.160. Es wird auch die Bezeichnung 4K verwendet.

UHD-2 Von der ITU gewählte Bezeichnung für Ultra HD-Signale mit einer Bildauf
lösung von 7.680x4.320. Es wird auch die Bezeichnung 8K verwendet."


Und natürlich fließt die vertikale Auflösung in die Bezeichnung ein, da von einem Seitenverhältnis von 16:9 ausgegangen wird. Unter dieser Prämisse reicht die Angabe einer Seite.

EDIT: hier das passende Zitat von Seite 23:
"Am 18. Oktober 2012 hat sich die CEA (Consumer Electronics Association) für den Begriff „Ultra High Definition
(Ultra HD)“ ausgesprochen. Zudem wurden grundlegende Anforderungen an Ultra HD-fähige Displays und
Projektoren festgelegt. Diese müssen mindestens 8 Millionen aktive Pixel sowie 3.840 Pixel in der Horizontalen
und 2.160 Pixel in der Vertikalen darstellen können und über ein Seitenverhältnis von 16:9 verfügen. Sie sollen
außerdem mindestens einen digitalen Eingang zur Unterstützung der Übertragung von Inhalten im UHTDV 1-
Format bei voller Auflösung von 3.840x2.160 Pixeln besitzen."

Nightspider
2015-06-20, 13:26:11
Sagt mal wann ist mit Tests von Fiji zu rechnen? HardwareLuxx hat ja gestern auch schon seine Fury X bekommen und Golem hat ja auch schon ein Testsample.

@yeeha: Könnt ihr die Fury X mal bitte zusätzlich mit einem zweiten Lüfter testen? Damit würdet ihr bestimmt auch herausstechen aus anderen Tests. ;)

fondness
2015-06-20, 13:26:30
Am 24.

Raff
2015-06-20, 13:27:07
Ihr bemerkt sicher die gigantische Zeitspanne für die Tester. *seufz*

@yeeha: Könnt ihr die Fury X mal bitte zusätzlich mit einem zweiten Lüfter testen? Damit würdet ihr bestimmt auch herausstechen aus anderen Tests. ;)

Dann wird sie nur lauter. ;)

MfG,
Raff

fondness
2015-06-20, 13:27:53
Wieviel ist denn "üblich"? Das ist immerhin fast eine Woche.

Raff
2015-06-20, 13:29:48
Üblich ist etwas, aber nicht viel mehr. Je "anders" ein Chip, desto mehr Zeit braucht man. Etwas im Stile einer 980 Ti kann man nach der TX in wenigen Tagen abfrühstücken, aber etwas technisch derart Neues wie Fiji lässt sich kaum in diesem Zeitrahmen durchtesten, ohne auf Schlaf zu verzichten oder alles an Manpower zu rekutieren, was man auftreiben kann.

MfG,
Raff

fondness
2015-06-20, 13:32:29
Dann spart euch das durchwühlen durch theoretische Details, wir wollen vor allem Benchmarks^^
Das ganze HBM-Zeug wurde im Grunde eh schon veröffentlicht.

Ätznatron
2015-06-20, 13:34:42
Du meinst also, man solle die Defintion dann auch analog für das nicht definierte 12k übernehmen?

Knuddelbearli
2015-06-20, 13:35:17
Üblich ist etwas, aber nicht viel mehr. Je "anders" ein Chip, desto mehr Zeit braucht man. Etwas im Stile einer 980 Ti kann man nach der TX in wenigen Tagen abfrühstücken, aber etwas technisch derart Neues wie Fiji lässt sich kaum in diesem Zeitrahmen durchtesten, ohne auf Schlaf zu verzichten oder alles an Manpower zu rekutieren, was man auftreiben kann.

MfG,
Raff

dafür postest du hier aber ziemlich viel :rolleyes: :freak:

Raff
2015-06-20, 13:36:08
dafür postest du hier aber ziemlich viel :rolleyes: :freak:

Ich habe den Marathon bereits hinter mir und mache nach einer ziemlich abartigen Woche erst mal "Wochenende". :tongue: Feintuning und feature creep folgen.

MfG,
Raff

Nightspider
2015-06-20, 13:37:19
Dann wird sie nur lauter. ;)

Ach und deswegen machen das so viele WaKü Besitzer? :freak:

Das ist Quatsch. Zwei langsam drehende Lüfter bringen mehr als ein schnell drehender Lüfter.

Also im Idealfall hast du besssere Temps bei niedrigerer Lautstärke. :)

M4xw0lf
2015-06-20, 13:38:06
Dann spart euch das durchwühlen durch theoretische Details, wir wollen vor allem Benchmarks^^
Das ganze HBM-Zeug wurde im Grunde eh schon veröffentlicht.
Nix da, ich will die volle Nerdpackung! :usweet:

Auch wichtig: schaffen die ganzen Ergebnisse auch schon ins neue Heft? Von mir aus darf es dafür gerne wieder ein paar Tage später kommen... ;)

fondness
2015-06-20, 13:38:25
Ach und deswegen machen das so viele WaKü Besitzer? :freak:

Das ist Quatsch. Zwei langsam drehende Lüfter bringen mehr als ein schnell drehender Lüfter.

Also im Idealfall hast du besssere Temps bei niedrigerer Lautstärke. :)


Es müssen allerdings beide Lüfter gleich schnell drehen damit das funktioniert, das könnte ein Problem sein wenn der eine Lüfter von der Karte geregelt wird und der andere nicht.

dildo4u
2015-06-20, 13:38:58
Manche vergessen heir das die Reviewer zusätzlich noch die ganzen Rebrand's testen mussten.

fondness
2015-06-20, 13:40:25
Manche vergessen heir das die Reviewer zusätzlich noch die ganzen Rebrand's testen mussten.

Die Reviews der 300er Serie sind seit Donnerstag draußen, bleiben 6 Tage für Fury X. In 6 Tagen kann man IMO schon einiges testen, gerade wenn man schon vorgefertigte Benchmarkparcours hat.

M4xw0lf
2015-06-20, 13:40:41
Manche vergessen heir das die Reviewer zusätzlich noch die ganzen Rebrand's testen mussten.
Was heißt hier müssen. Die Prioritäten dürften hier eindeutig anders liegen.

Raff
2015-06-20, 13:41:31
Auch wichtig: schaffen die ganzen Ergebnisse auch schon ins neue Heft? Von mir aus darf es dafür gerne wieder ein paar Tage später kommen... ;)

Na was glaubst du, warum ich grad so fertig bin und mit etwas Spamming entspanne? ;) Alles drin, ohne Lag. Puha.

MfG,
Raff

Nightspider
2015-06-20, 13:42:45
Es müssen allerdings beide Lüfter gleich schnell drehen damit das funktioniert, das könnte ein Problem sein wenn der eine Lüfter von der Karte geregelt wird und der andere nicht.

Nicht exakt, da sich der Luftstrom durch den Widerstand eh langsamer bewegt.

PS: Sowas könnte man auch auf den Radiator schnallen.

http://www.mindfactory.de/product_info.php/InLine-120mm-Luefteradapter-fuer-200mm-Luefter-transparent--36020-_799728.html

;D

M4xw0lf
2015-06-20, 13:43:33
Na was glaubst du, warum ich grad so fertig bin und mit etwas Spamming entspanne? ;) Alles drin, ohne Lag. Puha.

MfG,
Raff
:umassa:
Sehr schön ^^

hasebaer
2015-06-20, 13:45:33
Das ist doch nicht das gleiche Spiel.

Spielt keine Rolle.

Es ist ein Vorgänger und nutzt schon in der älteren Version Tessellation (EGO v1), da wird Dirt Rally mit EGO v3 deutlich mehr Tessellation nutzen und Hawaii war zwar etwas besser in Sachen Tessellation als Tahiti, aber schwächelte immernoch im Vergleich zu Kepler und Maxwell.

Wenn Fiji hier überarbeitet wurde, und Dirt Rally viel Tessellation nutzt, oder man gar den Tessellationfaktor absichtlich hoch gezogen hat (PR Stunt), dann würde es erklären warum ein Fiji Chip, zwei Hawaiis zu Frühstück verpuzt.

Es fehlt hier der Vergleich zu einem Geforce Gegenstück.

dildo4u
2015-06-20, 13:47:16
Was heißt hier müssen. Die Prioritäten dürften hier eindeutig anders liegen.
Kann Jeder so sehen wie er will ich find's für den Konsumenten fast wichtiger vor den Rebrand's zu warnen als Werbung für AMD neues High-End zu machen.Die Masse kauft eh nich im 700€ Bereich ein daher ist der Test der Rebrands deutlich relevanter für die Masse der GPU Käufer.

aufkrawall
2015-06-20, 13:49:30
Vor AMD-Rebrands warnt der dildo, vor der Krüppel-970 nicht. nuff said?

Dawn on Titan
2015-06-20, 13:50:24
Wieso warnen, die R3X0 Serie ist ein rundum überzeugendes Angebot.

Raff
2015-06-20, 13:50:54
"Warnen" ist etwas übertrieben. Ich würd's eher hinweisen nennen, dass nicht alles aus der Hard-, sondern auch ein Teil aus der Software kommt. Die Hardware abseits der GPUs ist durchaus neu, ich hatte in den letzten Tagen zumindest viele Neuheiten in der Hand. Sapphire R9 380 Nitro mit Tonga Pro OC und 4 GiB: gar nicht übel – sofern man nicht so ein Turbo-Nerd ist wie wir hier. ;)

MfG,
Raff

dildo4u
2015-06-20, 13:51:11
Vor AMD-Rebrands warnt der dildo, vor der Krüppel-970 nicht. nuff said?
Es geht nich darum was ich mache sondern was die Aufgabe der Test Seiten ist und dort gabs massiv Artikel zum V-Ram der 970.

fondness
2015-06-20, 13:54:43
Manche tun hier so als wäre Rebrands etwas das man aus Prinzip nicht kaufen darf. Solange die Produkte überzeugen ist es doch völlig egal wie das Ding heißt. Das die Chips nicht neu sind ist eh kein Geheimnis und muss natürlich erwähnt werden, keine Frage. Zumal es eben wie schon erwähnt eben doch Änderungen im Detail gab, wenn auch nicht am Chip selbst.

robbitop
2015-06-20, 13:55:59
2 serielle Lüfter erhöhen den statischen Druck. Je nach Arbeitspunkt auf der Druck/Volumenstrom Kennlinie ist das entweder sehr sinnvoll oder eben nicht. Bei viel Druckverlust, bricht der Volumenstrom stark ein. Dann bringt ein zweiter serieller Lüfter sehr viel. Ist der Druckverlust nicht sehr hoch, bringt es fast nichts.

In der Praxis ist Push-Pull relevant für langsam drehende Lüfter. Mit 300...500 RPM ist der Druck nicht besonders hoch der erzeugt wird. Ein Radiator und ggf. ein Staubfilter führen dann schnell zu so hohen Druckverlusten, dass der Volumenstrom sehr gering ist.

Bei 1000 RPM und darüber ist der erzeugte Druck hoch genug, dass kaum Volumenstrom verloren geht.

Ob es also für Fijii Sinn ergibt hängt also von der Lüfterdrehzahl ab.

Menace
2015-06-20, 13:57:32
Sapphire R9 380 Nitro mit Tonga Pro OC und 4 GiB: gar nicht übel – sofern man nicht so ein Turbo-Nerd ist wie wir hier. ;)


Hört sich interessant an.

dargo
2015-06-20, 13:59:39
Vor AMD-Rebrands warnt der dildo, vor der Krüppel-970 nicht. nuff said?
Du bringst es auf den Punkt. ;D

Disco_STFU
2015-06-20, 14:21:48
Ich versteh dildo sowieso nicht. Immer und überall total Anti AMD aber dann Playstation Fanboy, die von einem AMD SoC angetrieben wird. :freak:

Das muss ihn doch innerlich zerreißen. :rolleyes:

y33H@
2015-06-20, 14:39:09
Könnt ihr die Fury X mal bitte zusätzlich mit einem zweiten Lüfter testen? Damit würdet ihr bestimmt auch herausstechen aus anderen Tests.Theoretisch ja, wenn man die Karte zerbastelt und ein bisschen lötet. Ich nutze die Zeit vorerst für wichtigere Messungen.

Wieviel ist denn "üblich"? Das ist immerhin fast eine Woche.Nö, die allermeisten haben wegen dem zweitägigen Tech Day erst Donnerstag angefangen und dann ohne WE nur knapp 3T.

Üblich ist etwas, aber nicht viel mehr. Je "anders" ein Chip, desto mehr Zeit braucht man. Etwas im Stile einer 980 Ti kann man nach der TX in wenigen Tagen abfrühstücken, aber etwas technisch derart Neues wie Fiji lässt sich kaum in diesem Zeitrahmen durchtesten, ohne auf Schlaf zu verzichten oder alles an Manpower zu rekutieren, was man auftreiben kann.Ich habe den Marathon bereits hinter mir und mache nach einer ziemlich abartigen Woche erst mal "Wochenende". Feintuning und feature creep folgen.Raff bringt es auf den Punkt.

Manche vergessen heir das die Reviewer zusätzlich noch die ganzen Rebrand's testen mussten.Müssen nicht, aber der Vollständigkeit halber wollen.

Nightspider
2015-06-20, 14:41:47
Theoretisch ja, wenn man die Karte zerbastelt und ein bisschen lötet. Ich nutze die Zeit vorerst für wichtigere Messungen.

Wat? :confused:

Oder man klemmt einfach einen zweiten Lüfter hinter den Radiator!?

You must be new here...;)

PS: Wo bleibt der Artikel zu Star Citizen? -_-

InsaneDruid
2015-06-20, 14:51:18
Ich denke "zweiter lüfter" wurde als "mit anderen Lüftern" verstanden.

Und da wäre löten angesagt, um die Regelung der Karte zu erhalten.

Nakai
2015-06-20, 14:52:14
Aber dadurch dass der Speicher ins Package wandert wird das Package ja wieder größer. Und W/Fläche würde aufs gesamte Package gesehen nur größer werden wenn die W/Fläche von HBM größer ist als die W/Fläche der GPU, was man denke ich ausschliessen kann.

Die Hotspots liegen näher zusammen. HBM-Speicher hat ein niedrigeres Temperatur-Limit. Aus Spaß wird AMD keine WaKü verbaut haben. Das hat schon seinen Sinn. Ich erwarte von Fij einen sehr ähnlichen Verbrauch zu Hawaii.

Flusher
2015-06-20, 14:56:00
Das ist die alte Egoengine. Wird da überhaupt was tesselliert?

Dirt (oder Dirt 2) war afaik eins der ersten Spiele mit Tesselation

y33H@
2015-06-20, 14:57:27
Oder man klemmt einfach einen zweiten Lüfter hinter den Radiator!?Den ich dann wieder extern regeln darf ... ja, ginge freilich mit zB einem Noctua NF-P12 oder NF-F12 mit (U)LNA. Zugegeben hat sich AMD bereits für ein sehr gutes Lüftermodell entschieden.

Dirt (oder Dirt 2) war afaik eins der ersten Spiele mit TesselationDirt 2, ja - September 2009, passend zum Launch der HD 5870. Und Battleforge bekam zuvor noch nen Patch für SSAO via Compute Shader und D3D11.

basix
2015-06-20, 15:00:35
Die Hotspots liegen näher zusammen. HBM-Speicher hat ein niedrigeres Temperatur-Limit. Aus Spaß wird AMD keine WaKü verbaut haben. Das hat schon seinen Sinn. Ich erwarte von Fij einen sehr ähnlichen Verbrauch zu Hawaii.

Das schon. Aber du musst auch im Hinterkopf behalten, dass

Die Leistungsaufnahme gleich bleibt wie bei Hawaii
Die GPU aber wesentlich grösser ist als bei Hawaii
Die Wärme über den Interposer relativ gut auch auf die HBMs abgeleitet wird, was die Kühlfäche nochmals vergrössert


Ich denke also nicht, dass Fiji schwieriger zu kühlen ist als Hawaii. Eher einfacher. Das einzige Manko kann wie du bereits sagst evtl. die niedrige Tjmax des HBMs sein

ilibilly
2015-06-20, 15:02:06
Bin auch schon gespannt auf die OC Qualitäten,einige Customer ti'gehn ja Richtung 1400-1500
Fiji dürfte mit dem potenten kühler auch gut abgehen,sollte also Richtung 1400 machbar sein.

Botcruscher
2015-06-20, 15:05:42
Da zweifel ich mal die Taktfreude an. Die Architektur ist einfach nicht drauf ausgelegt.

aufkrawall
2015-06-20, 15:06:57
Lässt sich imho schwer vorhersagen. Kein 512 Bit Interface und DP kennt man nicht.

Nightspider
2015-06-20, 15:07:48
Den ich dann wieder extern regeln darf ... ja, ginge freilich mit zB einem Noctua NF-P12 oder NF-F12 mit (U)LNA. Zugegeben hat sich AMD bereits für ein sehr gutes Lüftermodell entschieden.

Falls man an den Lüfteranschluss ran kommt könnte man ja einfach einen Splitter dran machen.

http://ecx.images-amazon.com/images/I/31kFa27wtNL.jpg

So wie es klang kann man ja wohl auch das Gehäuse später abschrauben ohne Garantie zu verlieren. :)

Nakai
2015-06-20, 15:08:07
Das schon. Aber du musst auch im Hinterkopf behalten, dass

Die Leistungsaufnahme gleich bleibt wie bei Hawaii
Die GPU aber wesentlich grösser ist als bei Hawaii
Die Wärme über den Interposer relativ gut auch auf die HBMs abgeleitet wird, was die Kühlfäche nochmals vergrössert


Ich denke also nicht, dass Fiji schwieriger zu kühlen ist als Hawaii. Eher einfacher. Das einzige Manko kann wie du bereits sagst evtl. die niedrige Tjmax des HBMs sein

Ich erwarte, dass die Gesamtleistungsaufnahme identisch ist. Man muss das auch in Kontext sehen. Nicht nur die Speicherchips verbraten Strom, sondern auch die PHYs und die MCs auf der GPU. Diese verbrauchen nun deutlich weniger, weswegen die SP-Anzahl stark erhöht werden kann. Wenn man nun 50W auf dem Chip spart, dann können diese in SPs transformiert werden. Summa summarum sollten die W/mm² auf dem Die wohl so wie Hawaii sein, tendenziell etwas besser. Es ist immer noch die gleiche/nahezu gleiche Architektur. Man schlichtet die TDP um.

Flusher
2015-06-20, 15:20:04
Wat? :confused:

Oder man klemmt einfach einen zweiten Lüfter hinter den Radiator!?

You must be new here...;)

PS: Wo bleibt der Artikel zu Star Citizen? -_-

Macht das überhaupt Sinn, wenn der zweite Lüfter nicht gleich geregelt wird?

Falls man an den Lüfteranschluss ran kommt könnte man ja einfach einen Splitter dran machen.

http://ecx.images-amazon.com/images/I/31kFa27wtNL.jpg

So wie es klang kann man ja wohl auch das Gehäuse später abschrauben ohne Garantie zu verlieren. :)


Ich hoffe doch, dass der PWM geregelt ist - dazu brauchst du einen 4-PIN Anschluss.

Korvaun
2015-06-20, 15:25:58
Ich habe den Marathon bereits hinter mir und mache nach einer ziemlich abartigen Woche erst mal "Wochenende". :tongue: Feintuning und feature creep folgen.

MfG,
Raff

Ja waaas? Wochenende? Ihr habt das heisseste Stück unreleaste Grafikhardware 2015 in Händen und macht Wochenende?
Duchtesten bis Mittwoch ist angesagt, noch dazu wo das Wetter eher kühl&nass ist, genau richtig für Hardwaretester :)


Was anderes, gibts schon ne Ansage bezüglich Launchverfügbarkeit und evtl. Nachlieferungen? Also eher Richtung äußert knapp und keine Nachlieferungen in Sicht oder "der Markt wird geflutet mit FuryX"?

mironicus
2015-06-20, 15:34:25
Fiji dürfte mit dem potenten kühler auch gut abgehen,sollte also Richtung 1400 machbar sein.

Ich bin etwas verhalten: Irgendwas um 12xx MHz erwarte ich eher, etwa 20% mehr, die auch stabil und kühl laufen.

basix
2015-06-20, 15:47:38
Ich bin etwas verhalten: Irgendwas um 12xx MHz erwarte ich eher, etwa 20% mehr, die auch stabil und kühl laufen.

AMD hat sicher ein Dual BIOS mit "10 TFLOPs Turbo Modus" implementiert :D Dann wären wir bei 1221 MHz :biggrin:

dargo
2015-06-20, 15:52:23
Falls man an den Lüfteranschluss ran kommt könnte man ja einfach einen Splitter dran machen.

http://ecx.images-amazon.com/images/I/31kFa27wtNL.jpg

So wie es klang kann man ja wohl auch das Gehäuse später abschrauben ohne Garantie zu verlieren. :)
Ich frage mich gerade ob man diese gelochte Platte nicht einfach abschrauben kann und somit Zugang zum Lüfteranschluss am PCB bekommt. Allerdings könnte auch auf einer dieser Schrauben ein Garantiesiegel kleben.

Tamagothi
2015-06-20, 15:56:44
Also wenn Fijii genau so gut taktbar ist wie Hawaii dann gehen auch locker 1250+ :D

Meine R9 290x geht ohne irgendwas großartig zu machen auf 1250 Mhz.

M4xw0lf
2015-06-20, 15:57:23
Ich bin etwas verhalten: Irgendwas um 12xx MHz erwarte ich eher, etwa 20% mehr, die auch stabil und kühl laufen.
Den Erfahrungen mit Hawaii zufolge dürfte das schon das Limit sein, ob stabil und kühl muss man da erst noch sehen.

Also wenn Fijii genau so gut taktbar ist wie Hawaii dann gehen auch locker 1250+ :D

Meine R9 290x geht ohne irgendwas großartig zu machen auf 1250 Mhz.
Dann hast du wohl ein ziemlich gutes Exemplar :)

aufkrawall
2015-06-20, 16:06:29
Dann hast du wohl ein ziemlich gutes Exemplar :)
Oder er erzählt ziemlichen Mist.

fondness
2015-06-20, 16:07:56
Naja alles außer Hawaii schafft schon die 1200Mhz. Tahiti gab es ja sogar in Form der Toxic mit 1200 Mhz default. Viel mehr als das erwarte ich allerdings auch nicht, vielleicht ein bisschen mehr wegen der niedrigen Temps.

aufkrawall
2015-06-20, 16:09:06
Ja, das ist richtig. Deswegen stimmt Botcrushers Aussage so nicht.
Aber Hawaii ist da halt die riesen Ausnahme.

dargo
2015-06-20, 16:09:48
Wenns um OC geht dann würde ich mich eher an Tonga als an Hawaii orientieren. Allerdings müsste man die guten Tongas von Apple nehmen.

aufkrawall
2015-06-20, 16:11:36
Tonga hat kein HBM und weniger DP als Hawaii.

mironicus
2015-06-20, 16:13:45
Jetzt fragt man sich nur:
Fury X + OC vs GTX 980 Ti + OC

Es wird keine Custom-Versionen der Fury X geben, das Referenzdesign steht in Konkurrenz mit allen Custom-Modellen der 980 Ti.
Die Fury X muss all diese Karten hinter sich lassen können, sonst wäre der identische Preis nicht gerechtfertigt. :)

Tamagothi
2015-06-20, 16:14:23
Oder er erzählt ziemlichen Mist.

1250 MHz gehen bei Hawaii da macht halt nur das Speicher die grätsche ;) -> Speicher auf 1150 MHz runter und es geht.


Fijii -> HBM -> Problem gelöst.


Ps. Noch dazu habe ich ja nur eine Referenz Karte aber unter Wasser

aufkrawall
2015-06-20, 16:17:34
Wurde das mal untersucht? Ich lese es zum ersten Mal.
Abgesehen davon hättest du die GPU dann ziemlich ins Bandbreitenlimit getaktet, was natürlich höheren Coretakt häufiger stabil erscheinen lässt.

Ich denke nicht, dass man momentan seriöse Prognosen über die Taktbarkeit von Fiji machen kann. Zu viele Unbekannte, es ist ein völlig neuer und teilweise neuartiger Chip.

Tesseract
2015-06-20, 16:23:28
1250 MHz gehen bei Hawaii da macht halt nur das Speicher die grätsche ;) -> Speicher auf 1150 MHz runter und es geht.

kann ich nicht bestätigen. meine geht bis etwa ~1150MHz am core, egal ob der speicher auf 1400 oder 1000 läuft.

DrFreaK666
2015-06-20, 16:25:55
Hoffentlich gibt es mehr Software-Spielereien als einen FPS-Limiter (den ich nicht brauche). 4x4-VSR wäre super, BQ ist mir wichtiger als hohe FPS :)

Sunrise
2015-06-20, 16:30:28
Man kann sich allenfalls an GCN generell orientieren und das ist architekturbedingt ein ziemliches Monster und scheint ordentlich Watt zu fressen, wenn man über einen gewissen Sweetspot beim vCore und dem Takt geht, was AMD auch bei Hawaii getan hat. Die neue nano wird genau das Gegenteil sein.

Als "Ausgleich" gibt es jetzt bei Fiji bzw. Fury X aber einen viel viel größeren 596mm² Die, einen doppelten Tonga ohne GDDR5 und AiO. Das sind zuviele Variablen um daraus etwas ableiten zu können.

Bei der Fury X mit 1050MHz default sollten 10 TFLOPs (1221MHz) aber locker drin sein und das wäre bereits verdammt gut. Das sollte auch noch problemlos ohne ohrenbetäubenden Lärm möglich sein (sind ja nur 15% OC).

Solange die AiO aber nicht am Limit läuft kann man damit locker 400W abführen und das Board ist darauf ja auch ausgelegt. Wann aber der Chip dicht macht (mehr und mehr vCore helfen nicht) wissen wir nicht. Das kann nur eine ganze Menge an kaufbare Karten zeigen, bei Review-Samples muss man ja leider auch aufpassen, da man hier problemlos für ein Dutzend Karten binnen könnte.

Tamagothi
2015-06-20, 16:31:20
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52281&stc=1&d=1434810652


Ich hoffe das mit Fijii mehr geht :biggrin:

dargo
2015-06-20, 16:35:57
Tonga hat kein HBM und weniger DP als Hawaii.
Und was möchtest du mir damit sagen? Hawaii hat auch kein HBM und zu DP von Fiji wissen wir noch gar nichts.

Jetzt fragt man sich nur:
Fury X + OC vs GTX 980 Ti + OC

Es wird keine Custom-Versionen der Fury X geben, das Referenzdesign steht in Konkurrenz mit allen Custom-Modellen der 980 Ti.
Die Fury X muss all diese Karten hinter sich lassen können, sonst wäre der identische Preis nicht gerechtfertigt. :)
Dir ist aber schon klar, dass die guten Customs bei über 750€ liegen und die Hybrid Lösungen über 800€ kosten?

Zudem... was bringt mir eine 980TI wenn ich mir einen Freesync Bildschirm kaufen möchte? Gar nichts.

Screemer
2015-06-20, 16:43:48
Ich denke "zweiter lüfter" wurde als "mit anderen Lüftern" verstanden.

Und da wäre löten angesagt, um die Regelung der Karte zu erhalten.

Hä?

www.frozencpu.com/products/19933/cab-1521/Mini_4-Pin_GPU_to_2_x_4-Pin_PWM_Fan_Adapter.html

Gibt es auch als single Adapter an den man dann nen y-pwm-afapter basteln kann. Nutz ich seit meiner 7950. der war damals glaub ich von gelid.

DrFreaK666
2015-06-20, 16:47:06
Brauche ich eventuell ein neues Netzteil, oder braucht die Fury X in etwa genauso viel wie Palit GTX780 Super Jetstream?

Screemer
2015-06-20, 16:48:04
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52281&stc=1&d=1434810652

Ich hoffe das mit Fijii mehr geht :biggrin:
Die ist aber unter Wasser. Das sind doch ganz andere Voraussetzungen als zB aufkrawall ansetzt. Wenn Hawaii kühl gehalten wird, dann taktet der auch.

Botcruscher
2015-06-20, 16:57:47
Ja, das ist richtig. Deswegen stimmt Botcrushers Aussage so nicht.
Aber Hawaii ist da halt die riesen Ausnahme.

Ich sagte Zweifel. Die meisten Hawaii haben doch nicht mal die 1100 ohne mehr Spannung gesehen.

dargo
2015-06-20, 17:00:00
Hä?

www.frozencpu.com/products/19933/cab-1521/Mini_4-Pin_GPU_to_2_x_4-Pin_PWM_Fan_Adapter.html

Gibt es auch als single Adapter an den man dann nen y-pwm-afapter basteln kann. Nutz ich seit meiner 7950. der war damals glaub ich von gelid.
Das nützt dir alles nichts wenn du keinen Zugang zum Lüfterstecker hast. Ist es so schwer zu verstehen? Schau dir doch die Bilder von Fury X nochmal genauer an. Wo siehst du da den Stecker außerhalb der Karte?

mironicus
2015-06-20, 17:02:17
Zudem... was bringt mir eine 980TI wenn ich mir einen Freesync Bildschirm kaufen möchte? Gar nichts.

Was bringt dir eine Fury X wenn du dir einen großen 4K-Fernseher kaufen möchtest? Auch nichts. :freak:

Bei Freesync-Monitoren ist die VRR herstellerabhängig, bei NVidia brauchst du nicht darauf zu achten. Bei dem von mir getesteten Samsung liegt die VRR (wird nicht kommuniziert!) nur zwischen 45 und 60! :frown:

HDMI 2.0 (4K60), GSync (kein Tearing) > HDMI 1.4 (4K30), Freesync (Tearing außerhalb des VRR-Bereichs).

Nightspider
2015-06-20, 17:03:50
Ich hoffe doch, dass der PWM geregelt ist - dazu brauchst du einen 4-PIN Anschluss.

Gibts ja auch vierpolig zu kaufen. ;)

Das nützt dir alles nichts wenn du keinen Zugang zum Lüfterstecker hast. Ist es so schwer zu verstehen? Schau dir doch die Bilder von Fury X nochmal genauer an. Wo siehst du da den Stecker außerhalb der Karte?

Dargo hör auf rumzuzicken. Der hat gar nicht mit dir gesprochen. IST DAS SO SCHWER ZU VERSTEHEN? :rolleyes:

Gott schon alleine diese Frage..... :rolleyes:

Und das man das Case eventuell auch ohne Garantie-Verlust abmachen kann war schon Gegenstand der Diskussion vor 2-3 Seiten.

dargo
2015-06-20, 17:09:38
Was bringt dir eine Fury X wenn du dir einen großen 4K-Fernseher kaufen möchtest? Auch nichts. :freak:

Was soll ich mit einem 4k TV, Diashows genießen? Interessant was du so alles über meine Kaufentscheidungen weißt. Und wenn du schon damit kommst... wo hast du einen 4k TV mit G-Sync? :rolleyes:


Bei Freesync-Monitoren ist die VRR herstellerabhängig, bei NVidia brauchst du nicht darauf zu achten.
Du denkst etwas kurzsichtig. Ich werde mich sicherlich nicht an Nvidia mit einem Bildschirm binden damit ich bei der nächsten Graka nochmal paar Hundert Euro Aufpreis für vergleichbare Leistung draufzahlen kann. Zudem werde ich einen Teufel tun und die proprietäre Scheiße von Nvidia finanziell unterstützen solange AMD konkurrenzfähig ist. Freesync ist ein offener Standard den auch bald Intel unterstützen wird. Solange Nvidia nicht offiziell bestätigt, dass alles ab Maxwell v2 aufwärts adaptiv Sync unterstützen wird solange werde ich Nvidia meiden.


Dargo hör auf rumzuzicken. Der hat gar nicht mit dir gesprochen. IST DAS SO SCHWER ZU VERSTEHEN? :rolleyes:

Gott schon alleine diese Frage..... :rolleyes:

Und das man das Case eventuell auch ohne Garantie-Verlust abmachen kann war schon Gegenstand der Diskussion vor 2-3 Seiten.
Wenn nicht immer dein eventuell wäre. :rolleyes:

Screemer
2015-06-20, 17:14:17
Das nützt dir alles nichts wenn du keinen Zugang zum Lüfterstecker hast. Ist es so schwer zu verstehen? Schau dir doch die Bilder von Fury X nochmal genauer an. Wo siehst du da den Stecker außerhalb der Karte?
Den hab ich bei anderen Karten auch nicht. Der Verbau muss natürlich runter. Aber komm die paar schrauben stellen ja jetzt nicht das Problem dar. Für mich braucht das nicht aber warum die rumlötwn mussten für 2 Lüfter erschließt sich mir nicht. Für mich hat AMD beim Lüfter ne gute Wahl getroffen.


Der Stecker sitzt ganzen hinten auf der Platine und somit ist der Lüfter ja nicht verlötet.

www.ozone3d.net/public/jegx/201506/amd-radeon-r9-fury-x-board-02.jpg

Nightspider
2015-06-20, 17:15:39
Wenn nicht immer dein eventuell wäre. :rolleyes:

Das überlesen die anderen Teilnehmer hier bestimmt genauso wenig wie du.
Deswegen musst du sie ja nicht immer so abgehoben darauf hinweisen.

dargo
2015-06-20, 17:17:01
Den hab ich bei anderen Karten auch nicht. Der Verbau muss natürlich runter. Aber komm die paar schrauben stellen ja jetzt nicht das Problem dar.
Doch... das ist ein riesen Problem wenn die Garantie dadurch erlischt. Warten wir einfach mal ab wie die Sachlage dann tatsächlich ist wenn man den Lüfter wechseln will und das Gehäuse geöffnet werden muss.

Schnoesel
2015-06-20, 17:19:26
Ich würde ja erstmal abwarten ob der verbaute Lüfter nicht bereits erste Wahl ist ... danach kann man sich immer noch Gedanken machen. Bei mir muss das Zeuch eh runter ;D

mironicus
2015-06-20, 17:23:44
Was soll ich mit einem 4k TV, Diashows genießen? Interessant was du so alles über meine Kaufentscheidungen weißt. Und wenn du schon damit kommst... wo hast du einen 4k TV mit G-Sync? :rolleyes:

Ich bin nur deiner selbstbezogenen Frage (was soll ich damit, eh?) gefolgt... :freak:

Du denkst etwas kurzsichtig. Ich werde mich sicherlich nicht an Nvidia mit einem Bildschirm binden damit ich bei der nächsten Graka nochmal paar Hundert Euro Aufpreis für vergleichbare Leistung draufzahlen kann.

Du gehst mit dem Kauf eines Freesync-Monitors auch eine Herstellerbindung ein solange es nicht von anderen unterstützt wird. Wirklich frei wärst du momentan nur mit einem normalen Monitor. Ich verzichte auf dieses Feature, es ist nicht mehr so wichtig für mich, da die Umsetzung momentan nicht zufriedenstellend ist.

Screemer
2015-06-20, 17:25:48
Doch... das ist ein riesen Problem wenn die Garantie dadurch erlischt. Warten wir einfach mal ab wie die Sachlage dann tatsächlich ist wenn man den Lüfter wechseln will und das Gehäuse geöffnet werden muss.
Dargo bitte. Es ging darum dass eine Redaktion einen zusatztest mit 2 Lüftern oder anderen Lüftern machen könnte um sich von anderen reviews abusetzen. Es gibt einfach leute die sich für alternativen interessieren und reviewer, die ein Alleinstellungsmerkmal suchen. Die basteln das cover doch sowieso runter. Dann muss man auch nix löten. Sonst dürfte keine Redaktion die Karten bis aufs PCB zerlegen,gegeschweige denn aftermarketkühler testen. Es war schlicht eine Anregung für Marc oder Raffael/Völker, dürfen andere sicherlich auch aufgreifen.

Du konstruierst daraus einen grantieverlust für Käufer. Jeder der willig ist nen anderen Lüfter oder einen aftermarketkühler auf seine GPU zu schnallen ist sich des potentiellen garantieverlusts bewusst.

dargo
2015-06-20, 17:25:59
Du gehst mit dem Kauf eines Freesync-Monitors auch eine Herstellerbindung ein solange es nicht von anderen unterstützt wird. Wirklich frei wärst du momentan nur mit einem normalen Monitor.
:confused:

Du kannst doch einfach Freesync deaktivieren. Dann hast du einen ganz normalen Bildschirm, eben ohne adaptiv Sync.

Ich verzichte auf dieses Feature, es ist nicht mehr so wichtig für mich, da die Umsetzung momentan nicht zufriedenstellend ist.
Ist dein gutes Recht. Ich werde keinen Bildschirm mehr ohne VRR kaufen. Und solange ich diesen Bildschirm nicht habe solange warte ich mit der Graka und dem Gaming. Mir geht die Übergangszeit zu DX12 eh auf die Nüsse, von daher alles jut. Ich habs nicht so eilig.

Troyan
2015-06-20, 17:31:55
Bei Freesync-Monitoren ist die VRR herstellerabhängig, bei NVidia brauchst du nicht darauf zu achten. Bei dem von mir getesteten Samsung liegt die VRR (wird nicht kommuniziert!) nur zwischen 45 und 60! :frown:


Warte, was?! 45FPS ist die minimale Grenze? :eek:

AngelDust 32
2015-06-20, 17:39:52
http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/35811-amd-erwaegt-aufspaltung.html

"Daher wird erwägt, die 2006 zugekaufte Grafiksparte wieder abzuspalten."

DrFreaK666
2015-06-20, 17:45:48
http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/35811-amd-erwaegt-aufspaltung.html

"Daher wird erwägt, die 2006 zugekaufte Grafiksparte wieder abzuspalten."

Hast du den Artikel auch gelesen?

samm
2015-06-20, 17:51:55
Warte, was?! 45FPS ist die minimale Grenze? :eek:Von micronius' Samsung, ja. Auch die GSync-Monitore haben eine physische Mindestgrenze, die wird einfach nicht kommuniziert (resp. als "30 Hz" oder "faktisch irrelevant wegen framedoubling" kolportiert), z.B. die laut PCPer ca. 37Hz, afair, beim Swift.

Hast du den Artikel auch gelesen?Der Artikel ist ja eine nette Zusammenfassung, aber mal wieder geniale Überschrift für den ersten kurzen, auf einem Gerücht basierten Absatz, worin gerade der zitierte Satz keinen Konjunktiv enthält... xD

aufkrawall
2015-06-20, 17:52:11
Ich sagte Zweifel. Die meisten Hawaii haben doch nicht mal die 1100 ohne mehr Spannung gesehen.
Du sprachst allerdings von "Architektur", was mehr als Hawaii impliziert.
Hawaii ist bisher schon eine negative Ausnahme.

M4xw0lf
2015-06-20, 18:06:28
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52281&stc=1&d=1434810652


Ich hoffe das mit Fijii mehr geht :biggrin:
But can it run The Witcher 3? :freak:

BlacKi
2015-06-20, 18:33:14
http://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/AMD-denkt-ueber-Aufspaltung-nach-1162589/

vl heißt fiji bald ATI R9 Fury X^^

dargo
2015-06-20, 18:35:25
Wurde hier nicht spekuliert Fiji würde kein HDMI 2.0 unterstützen? Wie kommt es, dass Grenada HDMI 2.0 unterstützt und Fiji dann nicht?
http://www.msi.com/product/vga/R9-390-GAMING-8G.html#hero-specification

Ergibt irgendwie wenig Sinn. Oder sind die Angaben von MSI fehlerhaft?

uweskw
2015-06-20, 18:35:48
Jetzt fragt man sich nur:
Fury X + Max OC vs GTX 980 Ti + Max OC

.......


This!
Das ist was mich interessiert. Das ganze hinterlegt mit Lautstärke, Verbrauch und Temperaturen.

greetz
US

Topha
2015-06-20, 18:37:19
http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/35811-amd-erwaegt-aufspaltung.html

"Daher wird erwägt, die 2006 zugekaufte Grafiksparte wieder abzuspalten."

Klar, nachdem man jahrelang Fusion, APU, HSA etc eingeführt und durchgepeitscht hat gibt man die Grafiksparte einfach ab/auf...

Halte ich für Hirnrissig die Idee (ob sie jetzt von AMD kommt oder einem wildgewordenen Gerüchtestreuer sei mal dahingestellt)

Wurde hier nicht spekuliert Fiji würde kein HDMI 2.0 unterstützen? Wie kommt es, dass Grenada HDMI 2.0 unterstützt und Fiji dann nicht?
http://www.msi.com/product/vga/R9-390-GAMING-8G.html#hero-specification

Ergibt irgendwie wenig Sinn. Oder sind die Angaben von MSI fehlerhaft?

Laut 3DCenter Launch Analyse Artikel unterstützt Grenada nur 1.4 ...

captain_drink
2015-06-20, 18:39:40
Oder sind die Angaben von MSI fehlerhaft?

So ist es.

dargo
2015-06-20, 18:41:08
Bah... das sind aber schon grobe Patzer von MSI. :freak:

Ph0b0ss
2015-06-20, 18:42:22
Die ist aber unter Wasser. Das sind doch ganz andere Voraussetzungen als zB aufkrawall ansetzt. Wenn Hawaii kühl gehalten wird, dann taktet der auch.

Meine 290 schafft selbst unter Wasser bei ~50°C GPU mit +100mv (1,32V Idle - ~1,24V Last) nur maximal 1160Mhz fehlerfrei bei Crysis 3 und GTA 5. Für 1200Mhz reichen nichtmal +150mv!

maguumo
2015-06-20, 18:45:49
Meine 290 mit Raijintek Morpheus (max. ~60°C) macht knapp unter 1100MHz dicht. Chiplotterie halt...

ChaosTM
2015-06-20, 18:47:41
Meine ginge bis 1220 aber dann stößt selbst der Accelero an seine Grenzen und der Verbrauch steigt um über 100 Watt.
1200 ist nicht "vernünftig", sprich unter 350 Watt, machbar..

Unicous
2015-06-20, 19:04:52
Fury X besteht übrigens komplett aus Metall. Nickel und mit Soft Touch Beschichtung überzogenes Aluminium. Hatte ich mir schon gedacht, weiß nicht ob ich den Gedanken aber hier geäußert hatte.

Quelle: PCPer podcast (https://www.youtube.com/watch?v=upPFD0qJE5w) (Ken Addison 38:35 min)

AngelDust 32
2015-06-20, 19:09:05
Hast du den Artikel auch gelesen?

Ja. Und wo fehlt es an deinem Leseverständnis ? :ududen:

M4xw0lf
2015-06-20, 19:27:29
Wurde hier nicht spekuliert Fiji würde kein HDMI 2.0 unterstützen?
Das wurde von einem AMD-Mitarbeiter so gesagt. Twitter oder irgendein anderes Forum wars.

Tamagothi
2015-06-20, 19:35:51
But can it run The Witcher 3? :freak:

Einen 3D Mark hatte ich mal gemacht und lief fehlerfrei durch. Witcher 3 nicht getestet.

Aber mit 1200/1500 läuft Witcher 3 Problemlos und das nur mit +63mV :cool: (mehrere Stunden so gespielt)

M4xw0lf
2015-06-20, 19:37:36
Einen 3D Mark hatte ich mal gemacht und lief fehlerfrei durch. Witcher 3 nicht getestet.

Aber mit 1200/1500 läuft Witcher 3 Problemlos und das nur mit +63mV :cool: (mehrere Stunden so gespielt)
Nett, nett.

DrFreaK666
2015-06-20, 19:51:37
Ja. Und wo fehlt es an deinem Leseverständnis ? :ududen:

Da steht nichts konkretes und es ist nur leicht ontopic 😉

nagus
2015-06-20, 19:59:40
Also wenn Fijii genau so gut taktbar ist wie Hawaii dann gehen auch locker 1250+ :D

Meine R9 290x geht ohne irgendwas großartig zu machen auf 1250 Mhz.

da bist du aber vermutlich einer von wenigen. meine msi 290x geht bis 1070. 1100 ist definitiv zu viel für meine (dafür ist sie ziemlich leise... hat mich überrascht).

fondness
2015-06-20, 20:12:23
Einige interessanten Architekturdetails und gegenüberstellungen zu Fiji:
http://techreport.com/review/28499/amd-radeon-fury-x-architecture-revealed

Fiji's big shader array has more extensive power gating than prior GCN parts, so portions of the shader units not currently in use will be turned off more aggressively in order to avoid wasted energy. The Fiji team imported the dynamic voltage and frequency scaling algorithm (usually branded PowerTune in AMD's GPUs) from the APU side of the business, too. As a result, the GPU now avoids seeking the maximum possible clock frequency in cases where the workload doesn't require it.

Furthermore, AMD has changed how it chooses the voltage and frequency operating points for its GPUs. The new method introduces some card-to-card variability, which AMD has avoided in the past, but it allows for more efficiency overall. (I believe Nvidia's GPU Boost first adopted some tolerance of card-to-card variability in the Kepler generation.) AMD Graphics CTO Raja Koduri told us AMD was willing to accept this change in part because it realized variability was part and parcel of the modern PC ecosystem, given sheer variety of cases and cooling solutions and the like.

The reason why Fiji isn't any larger, he said, is that AMD was up against a size limitation: the interposer that sits beneath the GPU and the DRAM stacks is fabricated just like a chip, and as a result, the interposer can only be as large as the reticle used in the photolithography process. (Larger interposers might be possible with multiple exposures, but they'd likely not be cost-effective.) In an HBM solution, the GPU has to be small enough to allow space on the interposer for the HBM stacks. Koduri explained that Fiji is very close to its maximum possible size, within something like four square millimeters.

He also noted that the question of workloads—how the GPU is used by game developers—is key to the performance question. Fiji has a lot more shader computing power than the GM200. Some workloads are better suited for Fiji's balance resources, while others are not. That fact will likely add fuel to the disputes around vendor-specific optimizations in games, as I've already noted.

Nakai
2015-06-20, 20:26:40
Einige interessanten Architekturdetails und gegenüberstellungen zu Fiji:
http://techreport.com/review/28499/amd-radeon-fury-x-architecture-revealed

Wenn das stimmt, sehr nett.^^ Damit wäre man nochmal ein Stück effektiver. An Maxwell werden die Verbesserungen nicht heran reichen, aber dennoch.

fondness
2015-06-20, 20:27:35
Nachdem er das direkt von Raja Koduri hat muss es stimmen.

mironicus
2015-06-20, 20:29:10
da bist du aber vermutlich einer von wenigen. meine msi 290x geht bis 1070. 1100 ist definitiv zu viel für meine (dafür ist sie ziemlich leise... hat mich überrascht).

Das wird bei Fiji wohl auch nicht anders sein. Einige Glücklicke knacken vielleicht die 1300, einige schaffen nur knapp über 1200... bei 400 Watt Verbrauch. :freak:

dildo4u
2015-06-20, 20:31:01
Interresant also hätte GM200 gar nicht mit HBM auf den Interposer gepasst selbst wenn Nvidia das wollte sie müssen auf neue Fertigung warten.

Schnoesel
2015-06-20, 20:37:53
Ja Hawaii geht vergleichswise schlecht zu takten. Selbst mit Wakü ist bei meiner bei 1160/1500 Schluss aber da muss dann auch 100mv draufgeben. Kein vergleich zu Tahiti pro die ging bis 1100 Coreclock ohne Vcore-Erhöhung und das bei 850 Standardtakt. Also ich hoffe auf besseres OC Potential als Hawaii. Tonga ging glaub ich auch nicht schlecht?!

Interresant also hätte GM200 gar nicht mit HBM auf den Interposer gepasst selbst wenn Nvidia das wollte sie müssen auf neue Fertigung warten.

Naja möglich schon aber sehr teuer, beim Preis der Titan X eventuell sogar noch Ok bei GTX 980ti dann wohl schon nicht mehr.

basix
2015-06-20, 21:00:15
Naja möglich schon aber sehr teuer, beim Preis der Titan X eventuell sogar noch Ok bei GTX 980ti dann wohl schon nicht mehr.

Hmm wie gross ist Fiji vs. GM200 und wie teuer ist Fury X? :uconf3:

Und GM200 hätte mit HBM sicher auf den Interposer gepasst. Durch HBM spart man sich ja noch Chipfläche.

Tamagothi
2015-06-20, 21:18:02
Schön und gut aber stell dir vor Titan X nur mit 4 GB VRAM :ulol3:

Dann doch lieber sinnlos 12 GB GDDR5 damit die zahl schön groß ist.

Naennon
2015-06-20, 22:04:46
Schön und gut aber stell dir vor Titan X nur mit 4 GB VRAM :ulol3:



:eek: gibt es noch Grafikkarten mit 4GB?

w0mbat
2015-06-20, 22:09:13
Gibt es noch Grafikkarten mit GDDR?

Naennon
2015-06-20, 22:12:13
jede Menge oder?

M4xw0lf
2015-06-20, 22:17:36
:eek: gibt es noch Grafikkarten mit 4GB?
Nuja, gerade eben werden 3,5GB Standard.

Naennon
2015-06-20, 22:20:05
sind gar keine Karten gelistet bei geizhals mit 3,5 GB?

Tamagothi
2015-06-20, 22:22:09
sind gar keine Karten gelistet bei geizhals mit 3,5 GB?

alter ;D

Naennon
2015-06-20, 22:23:42
ja sorry, ich hab mit dem Blödsinn nicht angefangen hier :D

ilibilly
2015-06-20, 22:32:16
Frage an die Experten,braucht man zB bei 1080p und 4x vrs/dsr genauso viel ram wie nativ 2160p ?
Überlegung wäre,weil ja fury kein hdmi 2.0 hat ,könnte ich mir vorstellen "nur" 1440p mit vrs zB x1,5 am uhd tv mit 60fps zu gamen.bei hdmi 1.4 soll ja 1440p@60hz gehn
Momentan werkelt eine 980 aber die meisten Games laufen 1440p ,manche nur 1080p,Priorität hat bei mir halt Konstante 60fps.
Der Unterschied von fhd auf 1440p seh ich auch deutlich am 65" tv aber zu 4k ist der nur minimal oder gar placebomäßig vorhanden :)
Dafür ist die Glotze wohl zu klein :)

iuno
2015-06-21, 00:04:36
Kein Experte, aber ja, man braucht natürlich genausoviel VRAM ;)

BlacKi
2015-06-21, 00:11:56
Gibt es noch Grafikkarten mit GDDR?
gibt es bereits grafikkarten mit hbm?^^

Disco_STFU
2015-06-21, 01:32:32
Nuja, gerade eben werden 3,5GB Standard.

;D:biggrin::freak:

w0mbat
2015-06-21, 01:36:47
ja sorry, ich hab mit dem Blödsinn nicht angefangen hier :D

Bist du dir da sicher?


gibt es bereits grafikkarten mit hbm?^^

Ja, sogar Leute hier im Forum haben schon welche.

Dural
2015-06-21, 08:12:49
furmark ist für die heutigen gpus keine herausforderung mehr. an dem wert kann man min. 50mhz abziehen bis die karte stabil lauft.

ich hatte 5 290x da und für den durchschnitt aller karten sind definitiv schon die 1100mhz mit lukü eine hürde. gute karten laufen was mit 1200mhz. darüber wird es sehr schwirig, auch verbrauchs technisch (500watt+)

Flusher
2015-06-21, 09:33:10
darüber wird es sehr schwirig, auch verbrauchs technisch (500watt+)

;D vorher brennen dir die SpaWas durch

Skysnake
2015-06-21, 09:49:57
Interresant also hätte GM200 gar nicht mit HBM auf den Interposer gepasst selbst wenn Nvidia das wollte sie müssen auf neue Fertigung warten.
Naja, wäre schon gegangen, wird ja in dem Artikel auch angesprochen. Man kann Interposer auch mehrfachbelichten, damit biste dann quasi nur noch durch die Wafergröße begrenzt. :freak:

Wird nur halt dann wohl ziemlich teuer, so das es nicht wirtschaftlich ist.

Ich bin mir aber ziemlich sicher, das wir so etwas in Zukunft sehen werden. Vielleicht in 4-8 Jahren bei FPGAs, und dann nochmals 2-4 Jahre später dann auch wo anders.

dargo
2015-06-21, 10:25:26
Ich befürchte schlimmes wenn ich mir das ansehe:

http://s16.postimg.org/tc4rvyb11/390x_390_internal_4_K.png (http://postimg.org/image/zd2gt0xn5/full/)

http://www.forbes.com/sites/jasonevangelho/2015/06/18/amd-radeon-390x-video-card-edges-out-nvidia-gtx-980-in-4k-gaming/
Warum so pessimistisch?

Ich habe mir jetzt so einige Reviews der MSI 390X angesehen. Das Ding überholt besonders dank dem überarbeiteten Treiber auch schon in 1440p oft die GTX980. Ziehe mal ca. 7-8% Leistung (wegen den 1,1Ghz) bei der MSI 390X ab und multipliziere das mit den schon spekulierten +50% bei Fiji. Damit sollte man die Titan X überholen. Sicherlich nicht in jedem Spiel, dafür reagieren Spiele viel zu unterschiedlich. Aber in den meisten. In einzelnen sogar deutlich. Hier zb. wird die GTX980 von der MSI 390X recht klar geschlagen.
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/15.html

AnarchX
2015-06-21, 10:30:17
Naja, wäre schon gegangen, wird ja in dem Artikel auch angesprochen. Man kann Interposer auch mehrfachbelichten, damit biste dann quasi nur noch durch die Wafergröße begrenzt. :freak:

Wird nur halt dann wohl ziemlich teuer, so das es nicht wirtschaftlich ist.

2 bis 4 GV100 / AMD-Equivalent auf einem gemeinsamen Interposer wäre schon recht nett und der Profi-Markt zahlt wohl auch 5-stellige Preise, wenn auch momentan noch nicht für AMD.:D


Laut einem Artikel benötigt Fiji 4096-Bit HBM Interface wohl etwas soviele Transistoren/Pads wie ein 320-Bit GDDR5 Interface. Ein 6GiB (6144-Bit) Fiji hätte da wohl einiges an Einheiten eingebüßt und wäre nicht mehr wirklich über GM200 gelandet.

fondness
2015-06-21, 10:37:30
Warum so pessimistisch?

Ich habe mir jetzt so einige Reviews der MSI 390X angesehen. Das Ding überholt besonders dank dem überarbeiteten Treiber auch schon in 1440p oft die GTX980. Ziehe mal ca. 7-8% Leistung (wegen den 1,1Ghz) bei der MSI 390X ab und multipliziere das mit den schon spekulierten +50% bei Fiji. Damit sollte man die Titan X überholen. Sicherlich nicht in jedem Spiel, dafür reagieren Spiele viel zu unterschiedlich. Aber in den meisten. In einzelnen sogar deutlich. Hier zb. wird die GTX980 von der MSI 390X recht klar geschlagen.
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/15.html

Hm, du hast recht, vielleicht habe ich wirklich unterschätzt wieviel AMD da noch raus geholt hat. Der höhere Speichertakt scheint auch einiges zu bringen und offensichtlich ist die Karte bei gleichen Takt ja auch etwas schneller als ein Hawaii plus der neue Treiber.

Dawn on Titan
2015-06-21, 10:40:18
Warum so pessimistisch?

Ich habe mir jetzt so einige Reviews der MSI 390X angesehen. Das Ding überholt besonders dank dem überarbeiteten Treiber auch schon in 1440p oft die GTX980. Ziehe mal ca. 7-8% Leistung (wegen den 1,1Ghz) bei der MSI 390X ab und multipliziere das mit den schon spekulierten +50% bei Fiji. Damit sollte man die Titan X überholen. Sicherlich nicht in jedem Spiel, dafür reagieren Spiele viel zu unterschiedlich. Aber in den meisten. In einzelnen sogar deutlich. Hier zb. wird die GTX980 von der MSI 390X recht klar geschlagen.
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/15.html

Die 390X ist im Schnitt klar vor der 980.

http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/24.html

Fury sollte daher auch die Titan knacken.

fondness
2015-06-21, 10:42:38
Im Schnitt ist man dort ab 1440p ~ gleichauf mit der GTX980...
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/30.html

...was aber noch immer eine beachtliche Leistung ist die ich mir von einem Hawaii nicht mehr erwartet hätte.

/Edit: EIn paar interessante Rechenspiele zur Nano:

R9 290X’s peak FP32 = 5.6 TFLOPs, in other words 5600 GFLOPs, and its TDP is 250W.
Perf/W = 5600 GFLOPs/250W = 22.4 GFLOPs/W

We also know that the R9 Nano has 2X the perf/watt of the R9 290X.
Which means it’s 2X (5.6TFLOP/250W)
= 2X 22.4 GFLOPs/W
= 44.8 GFLOPs/W.
Thus the perf/watt rating of the R9 Nano is 44.8GFLOPs/W.

Incidentally we also have the TDP for the Nano, and that’s the last missing piece in the puzzle.

R9 Nano
Perf/watt = FP32 in GFLOPs (unknown) / TDP (175)
44.8 = FP32 (unknown) / 175
44.8 x 175 = FP32 (unknown)
44.8 x 175 = 7840 GFLOPs or 7.84 TFLOPs.


http://wccftech.com/fast-amd-radeon-r9-nano-find/

Wenn die Angaben von AMD stimmen sollte die Nano also auf 7.84 GFLOPs bei 175W kommen. Zum Vergleich, die Fury X kommt auf 8.6 GFLOps.

BlacKi
2015-06-21, 10:59:59
Die 390X ist im Schnitt klar vor der 980.

http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/24.html

Fury sollte daher auch die Titan knacken.

seit wann ist tombraider der schnitt?^^ http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/30.html

inFHD liegt die 980 sogar ca 10% vorne bei 1440 sinds noch 4% in 4k ists 1% wo die 390 vorne liegt.

mit fast keinem OC potential!

mironicus
2015-06-21, 11:04:14
Hier spielt die MSI 390x auch ganz vorne mit, alle Achtung! :D
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/31.html

fondness
2015-06-21, 11:07:49
Hier spielt die MSI 390x auch ganz vorne mit, alle Achtung! :D
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/31.html

Leistungsaufnahme getestet anhand eines einzigen Spiels, noch dazu der Peak-Wert. Die MSI riegelt eben nicht ab sondern hält den Takt.

Daraus dann einen Perf/Watt-Graph zu zimmern und so zu tun als wäre diese Allgemeingültig ist eigentlich lächerlich. Aber klar ist das Ding kein Effizienzwunder, durch den guten Kühler sollten sich die Nachteile allerdings in Grenzen halten.

Thunder99
2015-06-21, 11:11:59
Warte, was?! 45FPS ist die minimale Grenze? :eek:

Die Grenze ist variabel was der Hersteller anbietet mit seiner Lösung
Asus hat als Untergrenze 35Hz bis max. 90Hz

dargo
2015-06-21, 11:25:35
/Edit: EIn paar interessante Rechenspiele zur Nano:



http://wccftech.com/fast-amd-radeon-r9-nano-find/

Wenn die Angaben von AMD stimmen sollte die Nano also auf 7.84 GFLOPs bei 175W kommen. Zum Vergleich, die Fury X kommt auf 8.6 GFLOps.

Ist mir alles etwas zu optimistisch. Bei 7,84 TFLOPs wäre Fury non X überflüssig. Es sei denn AMD lässt sich die R9 Nano über den Preis vergolden.

Die Grenze ist variabel was der Hersteller anbietet mit seiner Lösung
Asus hat als Untergrenze 35Hz bis max. 90Hz
Das weiß er doch, er wollte nur mal wieder etwas trollen.

mironicus
2015-06-21, 11:26:26
Die Grenze ist variabel was der Hersteller anbietet mit seiner Lösung
Asus hat als Untergrenze 35Hz bis max. 90Hz

Das ist der springende Punkt.
Kaufst du jetzt z.B. einen Samsung 4K-Monitor, Untergrenze 45 MHz.
Zwei Monate später ein 4K-Monitor von LG, Untergrenze 40 MHz.
Und so weiter... und bei jeder Verbesserung ärgert man sich blau und grün, das man nicht gewartet hat - wenn man schon einen Monitor wegen dieses Features kauft.
In 1-2 Jahren ist das Problem vielleicht komplett gelöst, und es gibt keine Untergrenze mehr, dann kann man ohne Kompromisse zuschlagen und die Auswahl ist auch größer und der Preis geringer.

fondness
2015-06-21, 11:27:54
Ist mir alles etwas zu optimistisch. Bei 7,84 TFLOPs wäre Fury non X überflüssig.


Nur wenn man davon ausgeht, dass die Nano sich nicht preislich absetzt. Aber mal abwarten.

fondness
2015-06-21, 11:28:50
Das ist der springende Punkt.
Kaufst du jetzt z.B. einen Samsung 4K-Monitor, Untergrenze 45 MHz.
Zwei Monate später ein 4K-Monitor von LG, Untergrenze 40 MHz.
Und so weiter... und bei jeder Verbesserung ärgert man sich blau und grün, das man nicht gewartet hat - wenn man schon einen Monitor wegen dieses Features kauft.
In 1-2 Jahren ist das Problem vielleicht komplett gelöst, und es gibt keine Untergrenze mehr, dann kann man auch zuschlagen und die Auswahl ist größer.

Ein FreeSync-Monitor kostet nicht mehr wie ein Monitor ohne FreeSync. Im schlimmsten Fall nimmt man das Feature also gratis mit. Das ist bei G-Sync schon ganz anders, wo man für das Feature Minimum 100EUR Aufpreis zahlen muss und nicht mal weiß ob NV das Modul nicht irgendwann fallen lässt.

mboeller
2015-06-21, 11:44:17
Wenn die Angaben von AMD stimmen sollte die Nano also auf 7.84 GFLOPs bei 175W kommen. Zum Vergleich, die Fury X kommt auf 8.6 GFLOps.

91% der FuryX Leistung mit nur 175W ... sehr optimistisch. Aber wenn es stimmt... :eek: Damit wäre die Nano in etwa so schnell wie eine Titan

mironicus
2015-06-21, 11:51:04
Ein FreeSync-Monitor kostet nicht mehr wie ein Monitor ohne FreeSync. Im schlimmsten Fall nimmt man das Feature also gratis mit. Das ist bei G-Sync schon ganz anders, wo man für das Feature Minimum 100EUR Aufpreis zahlen muss und nicht mal weiß ob NV das Modul nicht irgendwann fallen lässt.

Die Kostenfrage halte ich für zweitrangig, der Faktor Glückseeligkeit ist mir da wichtiger. Bei Freesync kriege ich erst mal Stress wegen der Frage nach dem VRR-Fenster, und das muss jeder Hersteller individuell selbst lösen, da AMD die Verantwortung dafür auf die Monitorhersteller abgeschoben hat. Gibt sich der Hersteller nun mehr Mühe oder nicht, in dem Moment bin ich genau von diesem unbekannten Faktor abhängig. Und die Frage kannst du jedes Mal neu stellen, bei jeden neuen Monitor der mit diesem Feature erscheint.

Und daher für mich der Entschluss, keine Kompromisse einzugehen. Ich kaufe mir keinen Freesync-Monitor, solange es diese Einschränkungen gibt. Arbeitet AMD daran (z.B. auch mit Framedoubling) und/oder ein Monitorhersteller gibt bekannt, das Problem gelöst zu haben, dann ist mein Interesse wieder da.

Thunder99
2015-06-21, 12:18:15
Zu den Prognosen wie gut Fiji ist, in Wolfenstein New Order werden alle AMD Karten von NV zerlegt... Ob keine Treiber Optimierung vorliegt oder einfach GNC richtig mies bei der Engine performent weiß ich nicht.

Defakto gibt es Ausreißer wo AMD besser performance abliefert als nvidia. Aber in der Regel ist es umgekehrt. Da müsste erstmal weiter die Flaschenhälse beseitigt werden...

dargo
2015-06-21, 12:19:13
@mironicus

Warum kaufst du dir dann nicht endlich einen 4k Bildschirm mit G-Sync, eine entsprechende Graka und bist glücklich? Oh warte mal... erstens gibt es keinen 4k TV mit G-Sync und zweitens nur TN-Mist als Monitor. :ulol:
http://geizhals.de/?cat=monlcd19wide&xf=5848_NVIDIA+G-Sync~99_23~5137_3840x2160#xf_top

Und das bei der Vorlaufzeit von G-Sync. :uclap:

Schnoesel
2015-06-21, 12:25:11
Zu den Prognosen wie gut Fiji ist, in Wolfenstein New Order werden alle AMD Karten von NV zerlegt... Ob keine Treiber Optimierung vorliegt oder einfach GNC richtig mies bei der Engine performent weiß ich nicht.

Ist doch genau andersrum?

http://gamegpu.ru/action-/-fps-/-tps/wolfenstein-the-new-order-test-gpu.html

Ah bei Techpowerup stimmt deine Aussage. Naja da sieht man wohin das führt wenn man einen Bench für bare Münze nimmt.

-/\-CruNcher-/\-
2015-06-21, 12:25:35
Im Schnitt ist man dort ab 1440p ~ gleichauf mit der GTX980...
http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/30.html

...was aber noch immer eine beachtliche Leistung ist die ich mir von einem Hawaii nicht mehr erwartet hätte.

/Edit: EIn paar interessante Rechenspiele zur Nano:



http://wccftech.com/fast-amd-radeon-r9-nano-find/

Wenn die Angaben von AMD stimmen sollte die Nano also auf 7.84 GFLOPs bei 175W kommen. Zum Vergleich, die Fury X kommt auf 8.6 GFLOps.


8 Tflops bei 175 Watt AVG das kann sich sehen lassen da kann man gespannt sein was Nvidia danach packt mit Pascal auf jedenfall ist die Nano gekauft auch wenns nur 6-7 werden :)

mironicus
2015-06-21, 12:39:46
Warum kaufst du dir dann nicht endlich einen 4k Bildschirm mit G-Sync, eine entsprechende Graka und bist glücklich? Oh warte mal... erstens gibt es keinen 4k TV mit G-Sync und zweitens nur TN-Mist als Monitor.

Du hast dich doch auch aufs Warten eingestellt. :freak:
Was muss der Freesync-Monitor können, den du willst?

AffenJack
2015-06-21, 12:40:50
http://wccftech.com/fast-amd-radeon-r9-nano-find/

Wenn die Angaben von AMD stimmen sollte die Nano also auf 7.84 GFLOPs bei 175W kommen. Zum Vergleich, die Fury X kommt auf 8.6 GFLOps.

Wieso nimmt man Hawaii als Ausgangspunkt? Ich nehme lieber Fury X als Ausgangspunkt.
8,6TF/ 275W = 31,3 Gflops/W
Das ganze durch die Effizienzsteigerung Fury X zu Nano, also mal 1,33
= 41,7 Gflops/W
Macht bei 175 W 7,3Tflops.
Klingt für mich deutlich realistischer.

dargo
2015-06-21, 12:41:08
8 Gflops bei 175 Watt AVG das kann sich sehen lassen da kann man gespannt sein was Nvidia danach packt mit Pascal auf jedenfall ist die Nano gekauft :)
TFLOPs. :ubash2:

dargo
2015-06-21, 12:46:21
Du hast dich doch auch aufs Warten eingestellt. :freak:
Was muss der Freesync-Monitor können, den du willst?
Das hängt davon ab welche Graka ich mir hole. Momentan tendiere ich zur Fury non X (ich hoffe bloß die kommt auch mit der AIO-Kühlung). In dem Fall max. 1440p @16:9. Aktuell wäre also der ASUS MG279Q, 27" ganz gut. Dummerweise steht der Asus momentan ohne Konkurrenz da. Ich hoffe da kommt noch was bis zum Jahresende damit der Preis noch etwas fällt. Eine Range von 40-120Hz wäre mir bei IPS lieber. Ich muss bei IPS eh schon Kompromisse bei Schwarzwert und Kontrast eingehen. Perfekt wären für mich persönlich 40-100Hz @guten VA und 25-27" mit 1440p. Aber da kann ich noch lange warten denke ich. Dann muss halt eine nicht zu teure Zwischenlösung her.

mironicus
2015-06-21, 13:01:28
1440P ist eigentlich perfekt für alle derzeitigen Highend-Grafikkarten.
Konkurrenzmodelle zum MG279Q sollte es imho in naher Zukunft geben (Acer, Benq). Und die können dann entsprechend punkten mit zusätzlichen Features wie z.B. ULMB und einer besseren Range. Die werden dafür aber immer noch über 500 Euro verlangen.

OLED, 4K, Freesync, 144 Hz (1-144 Range). Das wäre was. :tongue:

Mancko
2015-06-21, 13:17:30
Ein FreeSync-Monitor kostet nicht mehr wie ein Monitor ohne FreeSync. Im schlimmsten Fall nimmt man das Feature also gratis mit. Das ist bei G-Sync schon ganz anders, wo man für das Feature Minimum 100EUR Aufpreis zahlen muss und nicht mal weiß ob NV das Modul nicht irgendwann fallen lässt.

Warum sollten Sie? Sie lassen ja PhysX und den ganzeren anderen Kram in Gameworks auch nicht fallen. Vor allem spielt das doch für ihn gar keine Rolle. Wenn er so einen Monitor kauft wird der auch in 5 Jahren noch funktionieren. Nvidia wird in jedem Fall weiter dafür sorgen dass es eine Abgrenzung zu AMD gibt. Das ist die Marschroute. Nvidia braucht kein Freesynch um Grafikkarten zu verkaufen und sie brauchen auch nicht 100er von Monitoren mit dem Feature G-Sync. Sie brauchen höchstens in verschiedenen Preissegmenten jeweils ein paar Monitore. Kein Mensch sucht sich jetzt unter 100erten von Monitoren einen aus und kauft dann danach die Grafikkarte. So viele Geräte braucht es da nicht.

ndrs
2015-06-21, 13:21:43
Laut einem Artikel benötigt Fiji 4096-Bit HBM Interface wohl etwas soviele Transistoren/Pads wie ein 320-Bit GDDR5 Interface. Ein 6GiB (6144-Bit) Fiji hätte da wohl einiges an Einheiten eingebüßt und wäre nicht mehr wirklich über GM200 gelandet.
Aber gerade die richtig dicken Treiber-Transistoren, die beim GDDR5-Interface richtig Platz fressen fallen doch bei HBM weitaus kleiner aus. Mag sein, dass der Vergleich für den Transistorcount stimmt. Für die entscheidendere Die-Fläche kann ich mir das aber nicht vorstellen.

Sunrise
2015-06-21, 13:26:56
Wieso nimmt man Hawaii als Ausgangspunkt? Ich nehme lieber Fury X als Ausgangspunkt.
8,6TF/ 275W = 31,3 Gflops/W
Das ganze durch die Effizienzsteigerung Fury X zu Nano, also mal 1,33
= 41,7 Gflops/W
Macht bei 175 W 7,3Tflops.
Klingt für mich deutlich realistischer.
AMD beschreibt den Vergleich mit Hawaii auf der nano-Folie. Generell sind um die 7 TFLOPS aber zu erwarten, denn die nano ist nicht wie die Fury X so hochgetaktet. Man sieht generell auch an Hawaii, dass der deutlich! sparsamer wurde, wenn man mit dem Takt/vCore runtergeht. So um die 800MHz waren das AFAIK, ich hatte hier im Thread mal was verlinkt. Auch da war/ist AMD mit dem Takt immer recht aggressiv gewesen, sodass man auf die gewollte Endleistung kommt.

Die nano wird sicher nicht billig, zeigt die nämlich auch den gravierenden Effizienz-Vorteil von Fiji. Das ist eine absolute Ausnahmekarte.

fondness
2015-06-21, 13:38:31
Ich hoffe nur, dass AMD bei der Nano nicht zu "geil" auf die geringen Abmessungen war. Mit dem Winzkühler dürften selbst 175W nicht ganz einfach zu kühlen sein.

Sunrise
2015-06-21, 13:47:02
Ich hoffe nur, dass AMD bei der Nano nicht zu "geil" auf die geringen Abmessungen war. Mit dem Winzkühler dürften selbst 175W nicht ganz einfach zu kühlen sein.
Optimalerweise gibt es Eigendesigns der Partner, sofern AMD das zulässt. Die kleinen GM107-Karten der Partner waren ja ziemlich schick, sowas würde auch bei der nano perfekt passen. Mir sind da noch die EVGAs im Gedächtnis. Müssen allerdings bei der brachialen Leistung auch deutlich mehr abführen. Wird man dann sehen, wenn das Ding kommt.

ChaosTM
2015-06-21, 13:59:06
91% der FuryX Leistung mit nur 175W ... sehr optimistisch. Aber wenn es stimmt... :eek: Damit wäre die Nano in etwa so schnell wie eine Titan

Bei der 290X komme ich bei 90% auf ~ 200 Watt; bei 85% sind es nur mehr ~170 w..
Könnte fast hinkommen, wenn sich die Karten ähnlich verhalten.

OBrian
2015-06-21, 14:00:46
Ich hoffe nur, dass AMD bei der Nano nicht zu "geil" auf die geringen Abmessungen war. Mit dem Winzkühler dürften selbst 175W nicht ganz einfach zu kühlen sein.
Ob die 175 W tatsächlich erreicht werden, ist unklar, könnten in Realität auch 10 W weniger sein. Die Sapphire 285 ITX hatte HT4U mit 157 W vermessen, der Kühler scheint recht ähnlich zu sein und kommt damit wohl auch klar, ohne zum Fön zu werden. Mit ein paar Tweaks könnte der Kühler wohl auch noch ein paar Watt mehr verknusen.

Glaube angesichts der bisher bekannten offenbar sehr hochwertig gebauten Karten jedenfalls nicht, daß ausgerechnet bei "der Ingenieurin Lieblingskarte" ein nicht überzeugender Kühler verbaut wird.

AnarchX
2015-06-21, 14:07:49
Optimalerweise gibt es Eigendesigns der Partner, sofern AMD das zulässt. Die kleinen GM107-Karten der Partner waren ja ziemlich schick, sowas würde auch bei der nano perfekt passen.
Nur kommen gegenüber der 750 Ti hier 100W dazu.
Vergleichbarer ist eher soetwas: http://www.computerbase.de/2014-12/gigabyte-gtx-970-mini-galax-gamer-oc-test/3/

Schlussendlich dürfte Fury Non-X (mit 19cm wohl nur 2cm länger als die Nano) und wohl 300W PCB schlussendlich interessanter sein. Wenn da nicht viel am Front-End beschnitten wurde, ist das ganze vielleicht auch etwas balancierter als Fury X.

-/\-CruNcher-/\-
2015-06-21, 14:18:51
Billig wir sie sicher nicht schon alleine wegen dem Händler beliebtheitsaufpreis nach den Reviews nicht ;)

Bin mir sicher vor allem Sapphire und MSI werden alles aus ihr rausquetschen was geht :D

4 Heatpipe 2 Lüfter Karten werden wohl knapp werden aber MSI schaft das sicherlich noch relativ angenehm :)

Nightspider
2015-06-21, 14:44:24
Aber gerade die richtig dicken Treiber-Transistoren, die beim GDDR5-Interface richtig Platz fressen fallen doch bei HBM weitaus kleiner aus. Mag sein, dass der Vergleich für den Transistorcount stimmt. Für die entscheidendere Die-Fläche kann ich mir das aber nicht vorstellen.

Ich glaube auch nicht, dass das HBM Phy so viel Platz verbraucht wie ein 320Bit GDDR5 Interface. Das wäre ein viel zu kleiner Unterschied.

r3ptil3
2015-06-21, 15:04:30
Hoffentlich nicht mehr lange =) :

http://geizhals.eu/amd-radeon-r9-fury-x-a1282818.html