PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24

Schnoesel
2016-07-21, 21:47:37
Mal ne Doofe Frage. Laut CB hat die MSI den Takt von 1.936 MHz durchgehend gehalten: https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

Ist ja schon mal ne ganze Menge. Wie viel mehr an OC war den bei der MSI noch so drin? Soweit ich geshen habe haben sie die MSI nicht übertaktet.

Ah habs gefunden:

"Die MSI GeForce GTX 1060 Gaming X 6G lässt einen höheren GPU-Takt von 1.745 MHz zu, was in Spielen etwa 2.100 MHz ermöglicht."
"Die Palit GeForce GTX 1060 Super JetStream erreicht einen ähnlichen Basis-Takt, jedoch liegen die Frequenzen in Spielen „nur“ bei etwa 2.020 MHz. In diesem Fall bremst erneut das Power Target die GPU."

Naja ist ja dann auch kein Monstersprung mehr.

Kriton
2016-07-21, 21:48:52
Wirklich extrem unnötig da jetzt noch nachzutreten, aber so ist man es von dir ja gewohnt und genau deshalb habe ich keine Lust auf eine solche Diskussion, denk mal drüber nach. :)

Jetzt eine Diskussion anzuzetteln, warum man nicht besser 4K + Medium Details statt allen Details benchen sollte, sorry aber das geht mir wirklich zu weit und ist auch IMO sicher nicht mehr OnTopic :ugly:

Man könnte eine solche Diskussion ja mal in einem eigenen Thread führen. Interessant wäre das vielleicht mal.

Kriton
2016-07-21, 21:50:02
Bessere CPU-Auslastung geht aber auch mit höherer Leistung einher. An den Verhältnissen ändert sich also nicht viel, auch wenn absolut ähnliche Zahlen rauskommen mögen.

Die höhere Leistung wird ja auch dargestellt. Es geht darum inwieweit die Skalierung des Verbrauchs des Gesamtsystems nicht gezeigt wird, wenn lediglich die GPU gemessen wird.

Sven77
2016-07-21, 22:03:15
Der Kühler ist allerdings wie von ASUS gewohnt gelinde gesagt Müll und liegt nur halb am Chip auf.

Wer noch Anus kauft ist selbst schuld.. egal ob nvidia oder AMD ;(

Disco_STFU
2016-07-21, 22:29:53
Wer noch Anus kauft ist selbst schuld.. egal ob nvidia oder AMD ;(

Soo schlecht ist die Karte jetzt auch nicht. Wenn man mit Wattman die Zieltemp um 10-15 Grad erhöht ist doch eigentlich alles in Butter. Auch wenn sie mal ihre Heatpipes auf kleinere CHips anpassen könnten...

Ich will ENDLICH mal einen ausführlichen Test bezüglich Undervolting... Aber darauf warte ich wohl noch Monate... Müssens wieder User richten...

dildo4u
2016-07-21, 23:21:36
Noch ein Test der 480 Strix OC.


https://www.techpowerup.com/reviews/ASUS/RX_480_STRIX_OC/

Die 180 Watt reichen nicht um 1.3Ghz zu halten.

Sven77
2016-07-21, 23:28:38
Soo schlecht ist die Karte jetzt auch nicht.

Hab ich nicht behauptet aber sie ist den Premiumaufschlag nicht wert im Gegensatz zu z.B. Sapphire

Dino-Fossil
2016-07-21, 23:41:15
Unabhängig davon, wo Anno jetzt verbrauchstechnisch einzuordnen ist, wäre eine etwas breitere Spielebasis für die Verbrauchsmessung schon schön gewesen.

Schön, dass du mittlerweile auch zur Einsicht gelangt bist, dass einzelne Spiele für Effizienz- und Verbrauchsvergleichs unter Umständen wenig sinnvoll sind... ;)

Gorkon
2016-07-21, 23:53:53
Noch ein Test der 480 Strix OC.
https://www.techpowerup.com/reviews/ASUS/RX_480_STRIX_OC/
Die 180 Watt reichen nicht um 1.3Ghz zu halten.
Powertarget hochdrehen...Polaris fühlt sich erst ab 200W+ so richtig wohl :freak:

Ne ernsthaft, wirklich mäh...absolute Wundertüte der Chip. Der krasse Gegensatz ist halt mal das hier: http://www.hardwareluxx.de/community/f305/amd-rx480-polaris-10-sammelthread-faq-1125127-65.html#post24771568
1,45GHz bei 1,075v unter Wasser. Das Teil muss so dermaßen an der Temperatur hängen...

BK-Morpheus
2016-07-22, 00:05:00
Powertarget hochdrehen...Polaris fühlt sich erst ab 200W+ so richtig wohl :freak:

Ne ernsthaft, wirklich mäh...absolute Wundertüte der Chip. Der krasse Gegensatz ist halt mal das hier: http://www.hardwareluxx.de/community/f305/amd-rx480-polaris-10-sammelthread-faq-1125127-65.html#post24771568
1,45GHz bei 1,075v unter Wasser. Das Teil muss so dermaßen an der Temperatur hängen...
Ich glaube, das Teil hängt sogar noch mehr an der GPU Lotterie, als an der Temperatur :wink:

[MK2]Mythos
2016-07-22, 00:06:16
Nein tut es nicht, meine RX480 macht bei 1,41 Ghz zu, egal ob die GPU 58°C warm ist, oder 85°C.
Übrigens bei 1,13 Volt@ Luftkühlung Stock oder Accelero Twinturbo II.

Dural
2016-07-22, 00:07:56
Asic von 85% immer noch...... muss ich jetzt wirklich noch erklären was das für auswirkungen hat?
So ein hoher Asic hat vielleicht eine von 100 karten, wenn überhaupt.

Hoher Asic: tiefe spannung, reagiert selten auf mehr spannung.

Meine 980 mit 82% macht 1650mhz unter lukü, nur so als vergleich.

Jedenfalls ist das garantiert kein durchschnitts wert, sonder eher das best mögliche.

BK-Morpheus
2016-07-22, 00:28:45
Die Test von der8auer (knapp 1,5GHz mit 1,35V! und auch andere Werte im Netz) zeigen ja im Prinzip schon, wo im Durchschnitt Schluss sein wird.
Leise, potente Kühler und 8Pin Strom ändern daran nicht wirklich was (zumindest Drosseln durch Temperatur ist dann kein Thema mehr).

Die Sapphire Nitro und Powercolor Devil etc. kommen ja auch alle nicht mit default OC 1400 raus, sondern um die ~1330MHz.

-/\-CruNcher-/\-
2016-07-22, 00:37:01
Einen Overwatch Benchmark vermisse ich überall. Das Spiel ist gerade ein mega Hype und wird viel gespielt.
Von diesem "Ashes" habe ich dagegen noch nie gehört, außer auf Review-Seiten (Benchmark).

Overwatch lohnt sich überhaupt nicht die zeit in irgend einem Review für zu investieren so ein simples overall UE4 Fundament ;)

dildo4u
2016-07-22, 00:42:06
Einen Overwatch Benchmark vermisse ich überall. Das Spiel ist gerade ein mega Hype und wird viel gespielt.
Von diesem "Ashes" habe ich dagegen noch nie gehört, außer auf Review-Seiten (Benchmark).
https://youtu.be/UISTSZ-fx_8?t=3m39s

-/\-CruNcher-/\-
2016-07-22, 00:46:16
Jup kein Wort mehr zu Ashes,das war vor kurzem noch der Fokus zuletzt bei der Vorstellung der 480.

http://abload.de/img/gtx-1060-review-782np7b.jpg

Nvidia fährt hier schon ein CPU defizit fällt aber den meisten Reviewern nichtmal auf, weil sie sich auf die GPU konzentrieren, wie gesagt ich bin gespannt ob Nvidia sich so unter druck gesetzt fühlen das sie die Balance immer weiter in Richtung CPU verschieben in Zukunft ;)

Das ist aber im Text nicht mehr sooo eindeutig:

"That being said, seeing the developer’s presence at AMD’s press briefing suggests that the sequel is going to be highly optimized for the red team’s graphical units. "

Also auch hier abwarten.



Er hat ja recht damit dass die Gameworkstitel AMD großen Schaden zugefügt haben. Da kann ich keine Gesinnung daran erkennen.

Und das ist eben Falsch und was viele nicht verstehen es schadet nicht nur AMD User vor allem wegen den ganzen Architekturelen Problemen CUDA Workload dort Effizient momentan anbei zu handeln eben genauso auch Nvidia User ;)

[MK2]Mythos
2016-07-22, 00:59:40
Ich habe jetzt mal The Division mit drei verschiedenen Takteinstellungen gebencht (Benchmarkfunktion):

PCGH Boost Takt GPU 1150Mhz / Ram 2000Mhz: 62,9fps
Alles stock (1266 Mhz GPU Takt wird gehalten): 67fps (+7%)
OC GPU 1380 Mhz / Ram 2150Mhz: 74fps (+17%)
EDIT: Werte korrigiert, maximiertes Fenster scheint ein bißchen Leistung zu kosten. Einstellung ist 1080p, vsync und fps limit off. Ansonsten siehe Screens, bin zu faul das alles abzutippen. :D

Screemer
2016-07-22, 01:07:43
Welche Auflösung und Grafiksettings? Wurde das gern mal mit meiner 290 vergleichen.

N0Thing
2016-07-22, 01:37:23
Das ergibt keinen Sinn. Wie Der_Korken schon sagt, muesste der Speicher selbst dann die entsprechende Logik haben, das auszupacken.
Man reserviert genausoviel Speicher wie ohne Kompression, weil man vorher nicht weiss, wie viel eingespart wird. Deshalb spart man sich auch keinen Speicherplatz. Man liest/schreibt aber dann eben nur die komprimierte Menge.

Ich sehe da keinen Widerspruch, wenn der Chip die Daten vor der Übertragung komprimieren kann, dann kann er sie sicherlich auch nach der Übertragung vor dem Speichern auch wieder entpacken.

Ich finde den entsprechenden Beitrag nicht mehr, aber einer der hiesigen Experten hat sich afaik mal in der Hinsicht geäußert, dass die Daten im Speicher unkomprimiert vorliegen müssen, damit auf diese zugegriffen werden kann.
Ich möchte meine Hand dafür natürlich nicht ins Feuer legen, weil ich den Sachverhalt nur aus der Erinnerung hervor hole, ich sehe aber aus logischer Sicht nichts, was dem widersprechen würde.

Aber selbst wenn die Daten nicht entpackt werden, würde man sich ja laut deiner Aussage keinen Speicherplatz sparen, was ja der eigentliche Casus Knacktus ist. ;)

Screemer
2016-07-22, 02:06:44
Mythos;11109948']
EDIT: Werte korrigiert, maximiertes Fenster scheint ein bißchen Leistung zu kosten. Einstellung ist 1080p, vsync und fps limit off. Ansonsten siehe Screens, bin zu faul das alles abzutippen. :D
Super. Werd ich morgen mal testen. Danke dir! War nämlich aufgrund der 8gb wegen nem sidegrade zur 480 am überlegen.

WC_ENTE
2016-07-22, 02:44:37
schon wer verlinkt?, letzten 6 Seiten nichts gefunden
https://forums.overclockers.co.uk/showpost.php?p=29808803&postcount=794

iuno
2016-07-22, 04:19:22
Ja, war schon hier, da haettest du noch etwas weiter blaettern muessen ;p
http://imgur.com/a/sw5u3

Bei der Frequenz hier sei es dir aber verziehen ;) Hier kommt ja keiner mehr mit, ist aber bei dem durchschnittlichen Informationsgehalt auch nicht schlimm

Schaffe89
2016-07-22, 07:24:25
Ein Test in dem eine Radeon auf Augenhöhe mit Nvidia ist.

Augenhöhe? Die STRIX rx480 ist 11 Dezibel lauter.
Im Silent Modus ist sie langsamer als das Referenzdesign der rx480 und nicht wirklich Silent.:freak:
Bei Übertaktung wird sie zum Schluckspecht und zieht @ OC max ( wenn man den Durschnittsverbrauch von dem großen rx480 Test nimmt, weil Anno nicht zum Messen geeignet ist, dann kommt man auf satte 73 Watt Mehrverbrauch zur MSI Gaming die 3% trotz allem in Führung liegt

Das erste Customdesign setz die Nachteile der rx480 was Lautstärke und Stromverbrauch angeht konsequent weiter um und zieht in der Spitze sogar noch mal deutlich mehr Strom, Übertaktungspotenzial ist auch nicht höher als das der Referenzkarten.

Das ist meiner Meinung nach so schlecht, dass die Nitro einfach nur viel viel besser werden kann.
Wolfgang sollte nebenbei zur Verbrauchsmessung in Anno auf die 37% mehr Leistung der GTX 1060 angeben, sonst bringt das gar nix so bei den Radeons wird da irgendetwas gedeckelt.

Undertaker
2016-07-22, 07:56:57
Schön, dass du mittlerweile auch zur Einsicht gelangt bist, dass einzelne Spiele für Effizienz- und Verbrauchsvergleichs unter Umständen wenig sinnvoll sind... ;)

Wo habe ich denn gesagt, dass ein einzelnes Spiel mit nicht wirklich repräsentativer Performance ausreicht? Wenn CB bei einem Kurztest nur eines messen kann, sollte dieses doch sorgfältig gewählt sein.

Linmoum
2016-07-22, 08:04:53
Augenhöhe? Die STRIX rx480 ist 11 Dezibel lauter.
Im Silent Modus ist sie langsamer als das Referenzdesign der rx480 und nicht wirklich Silent.:freak:

Den Test hast du aber auch gelesen?
Sollte der Hersteller zwar selbst gebacken kriegen und das sieht teils nach einer typischen "Fail"-Karte von Asus aus... Aber trotzdem reicht ein simpler Klick im Wattman, denn die Lautstärke liegt ganz einfach daran, dass Asus ein TT von 65°C festgelegt hat. Warum auch immer. :freak:

Lässt sich mit höherem bequem auf 31,5 DbA reduzieren und dann gibt's zwischen beiden Karten quasi keinen Unterschied mehr. Es sei denn, du hältst 75°C für bedenklich und willst es lieber kühler. ;)

medi
2016-07-22, 08:26:56
Die Nitro+ OC (http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-01-20g-a1477778.html?hloc=de) ist jetzt bei Geizhals für 329,- gelistet. Für mich zu teuer.

Cyphermaster
2016-07-22, 08:29:43
Ist ja auch wahrscheinlich noch mit "Deppen-die-nicht-warten-können-Aufschlag".

medi
2016-07-22, 08:35:08
Was wirklich nen Deppenaufschlag wäre denn noch nen hunni drauf und man hat gleich ne 1070er

Disco_STFU
2016-07-22, 09:00:20
Die Nitro+ OC (http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-01-20g-a1477778.html?hloc=de) ist jetzt bei Geizhals für 329,- gelistet. Für mich zu teuer.

Wow, doch ganze zwei Anbieter und das vor offiziellem verkaufsstart... Boah Leute ernsthaft... :rolleyes:

Wartet doch einfach mal bis es das Ding wirklich zu kaufen gibt bevor hier wieder getrollt wird...

Sunrise
2016-07-22, 09:04:07
Was wirklich nen Deppenaufschlag wäre denn noch nen hunni drauf und man hat gleich ne 1070er
Echt? :rolleyes:

http://geizhals.de/?cat=gra16_512&xf=132_8192~1439_GTX+1070~653_nVIDIA&sort=p

Die billigste 1070 liegt aktuell bei rund 440 EUR. Also leider nix mit "hunni drauf".

Achim_Anders
2016-07-22, 09:10:59
Vor allem kommen solche Preisansagen immer wieder. Ob bei der Ref, der 1060 jetzt. Einfach mal lernen und nicht erst posten und dann immer noch nicht denken.

@Igor: momentan dürfte zu viel zu tun sein, aber möchtest du nicht nochmals Pionierarbeit leisten und messen, inwieweit die CPU mehr Strom zieht mit Grafikkarte A respektive Grafikkarte B?
Es scheint so zu sein, dass die 1060 selbst zwar viel effizienter ist als die 480, was als Gesamtverbrauch des Systems aber gezogen wird ist eher von marginalem Unterschied.
Ich glaube es wäre wirklich toll, das mal richtig untersucht zu haben und ein echter Mehrwert für die Community.

Vielleicht passt es ja irgendwann in den Zeitplan. Es wäre ein weiteres Fragezeichen gelüftet.

Lieben Gruß

fondness
2016-07-22, 09:19:27
Die höhere Leistung wird ja auch dargestellt. Es geht darum inwieweit die Skalierung des Verbrauchs des Gesamtsystems nicht gezeigt wird, wenn lediglich die GPU gemessen wird.

Jap, deshalb haben Messungen des Gesamtsystems auf jeden Fall auch ihre Berechtigung. Eigentlich sollte man beides messen für eine brauchbare Aussage. Kann ja nicht sein, dass nvidia sich dafür abfeiern lässt, dass die Karten weniger verbrauchen und dafür die CPU aufgrund diverser "Treibertricks" oder was auch immer dann wesentlich mehr zieht. Das sollte zumindest genauer untersucht werden, mit einer anständigen Datenbasis kann man dann auch seriöse Schlüsse ziehen und muss weniger Mutmaßen.

Man könnte eine solche Diskussion ja mal in einem eigenen Thread führen. Interessant wäre das vielleicht mal.

Jap wäre durchaus interessant. Undertaker kann es ja gerne raus splitten, wenn es ihm wirklich um den Inhalt ging. :)

Disco_STFU
2016-07-22, 09:20:55
Vor allem kommen solche Preisansagen immer wieder. Ob bei der Ref, der 1060 jetzt. Einfach mal lernen und nicht erst posten und dann immer noch nicht denken.

@Igor: momentan dürfte zu viel zu tun sein, aber möchtest du nicht nochmals Pionierarbeit leisten und messen, inwieweit die CPU mehr Strom zieht mit Grafikkarte A respektive Grafikkarte B?
Es scheint so zu sein, dass die 1060 selbst zwar viel effizienter ist als die 480, was als Gesamtverbrauch des Systems aber gezogen wird ist eher von marginalem Unterschied.
Ich glaube es wäre wirklich toll, das mal richtig untersucht zu haben und ein echter Mehrwert für die Community.

Vielleicht passt es ja irgendwann in den Zeitplan. Es wäre ein weiteres Fragezeichen gelüftet.

Lieben Gruß

+1

cobra38
2016-07-22, 09:22:37
Asic von 85% immer noch...... muss ich jetzt wirklich noch erklären was das für auswirkungen hat?
So ein hoher Asic hat vielleicht eine von 100 karten, wenn überhaupt.

Meine RX 480 hat einen ASIC von 83,3 %.

fondness
2016-07-22, 09:24:42
Meine 980 mit 82% macht 1650mhz unter lukü, nur so als vergleich.


Deine OC-Ergebnisse sind seit jeher gelogen, das sieht jeder mit ein bisschen Verstand.

Lurtz
2016-07-22, 09:27:43
Es ist absolut ontopic, nicht nur die von dir selektierten RX-480-Benchmarks zu betrachten sondern die komplette Datenbasis des entsprechenden Artikels. Beide Szenarien spiegeln vergleichbar spielbare Settings auf einer Mittelklasse-GPU wieder und ich sehe keine Begründung, warum du dich darauf versteifst die RX 480 ausschließlich als FullHD @ Ultra statt 1440p/2160p @ Med Karte anzusehen. Das wird jeder Käufer anders sehen und ich halte beide Messungen für gleichermaßen relevant. :)
Na da werden sich die Reviewer bedanken. Vor allem da 4k wo liegt beim Marktanteil, 1% oder sind es schon 2% mittlerweile?

Und wer legt fest, ob es jetzt 2160p@ medium oder @ high oder @ low sind? Oder macht man es an der Spielbarkeit fest?

Fände ich als jemand mit 4k-Monitor nett, aber tun wird es wohl keiner.

Adam D.
2016-07-22, 09:30:52
Ich behalte die Sapphire auch mal im Auge, preislich wird die nach Verfügbarkeit hoffentlich bei 300€ landen.

Ist zwar nicht wirklich ein Upgrade von meiner 970, aber nach den Quartalsergebnissen von AMD heute hab ich das Gefühl, dass es dem Markt wirklich gut tun würde, wenn AMD in einigen Teilen des Marktes den Druck auf Nvidia hochhalten kann.

Aber man muss da schon ein wenig leidensfähig sein insgesamt, Nvidia schiebt mehr oder weniger kurzfristig den GP106 nach, gute Custom-Modelle sind quasi sofort nach Release verfügbar und bei AMD wird wahrscheinlich auch einen Monat nach Veröffentlichung wenig mehr als das Referenzdesign zur Verfügung stehen...

(del)
2016-07-22, 09:39:28
Vor allem kommen solche Preisansagen immer wieder. Ob bei der Ref, der 1060 jetzt. Einfach mal lernen und nicht erst posten und dann immer noch nicht denken.

@Igor: momentan dürfte zu viel zu tun sein, aber möchtest du nicht nochmals Pionierarbeit leisten und messen, inwieweit die CPU mehr Strom zieht mit Grafikkarte A respektive Grafikkarte B?
Es scheint so zu sein, dass die 1060 selbst zwar viel effizienter ist als die 480, was als Gesamtverbrauch des Systems aber gezogen wird ist eher von marginalem Unterschied.
Ich glaube es wäre wirklich toll, das mal richtig untersucht zu haben und ein echter Mehrwert für die Community.
Vielleicht passt es ja irgendwann in den Zeitplan. Es wäre ein weiteres Fragezeichen gelüftet.
Lieben Gruß

Ich habe ab und zu schon mal die Logger mitlaufen lassen, allerdings relativiert sich das Ganze wirklich über die gemessenen Anwendungszenarien hin. Was ich damit sagen möchte: die große Sensation dürfte wohl ausbleiben, auch wenn (eher seltene Ausnahmen) in den wirklich messbaren Bereich fallen. Der Maximalwert war irgendetwas um die 5 Watt, wenn man mal von ähnlichen FPS-Werten ausgeht. Nur muss ich auch hier erst mal die Plausibilität mit einem Fragezeichen versehen.

Die steigende oder sinkende CPU-Auslastung durch bestimme Low-Level Features (oder deren Fehlen), wie man sie mit den herkömmlichen Tools nur bedingt mitloggen kann, ist ja erst einmal nicht gleichsetzbar mit direkt proportional steigender oder fallender Leistungsaufnahme der CPU als solcher, so schön dies auch wäre.

Ich bin wirklich am Grübeln, wie man so etwas auch belastbar hinbekäme, denn allein die reinen Leistungsaufnahmewerte lassen hier kaum wirklich belegbare Beweise zu - dazu streut das Ganze von Messung zu Messung noch viel zu stark. 10 Messungen, 10 Ergebnisse, denn im Hintergrund rödelt ja immer noch Windows mit, selbst wenn mein Testrechner per default nicht im Netzwerk läuft und alle sinnlosen Dienste deaktiviert bzw. sogar deinstalliert wurden. :D

Wenn, dann muss man so etwas ordentlich machen, Schätzungen bringen nur weitere hitzige Diskussionen und emotional geführte Lagerkämpfe. Aber interessant ist das natürlich allemal. Wir müssen allerdings erst mal noch zwei zeitlich knapp versetzte AMD-Launches hinter uns bringen und abwarten, was Nvidia mit ihrer Resteverwertungs-Fußhupe à la GTX 10xx macht: kommt, kommt nicht, kommt, kommt nicht... Naja :)

M4xw0lf
2016-07-22, 09:43:16
Aus dem tpu-Review zur RX480 Strix:

https://tpucdn.com/reviews/ASUS/RX_480_STRIX_OC/images/fanheaders_small.jpg
Near the back of the card are two fan connectors that are in sync with the GPU's fans. You could hook up two case fans that will stop completely outside of games. The main source of heat nowadays being the graphics card, attached case fans will run at the same speed as the GPU's fans that base their speed on how hot the card runs, which is a great idea!

Wirklich coole Idee.

Zergra
2016-07-22, 10:01:16
Aus dem tpu-Review zur RX480 Strix:



Wirklich coole Idee.
Gab es das nicht schon bei der 1070GTX und 1080 ?

Raff
2016-07-22, 10:04:54
Jo, das ist ein Feature aller neuen Eulen.

MfG.
Raff

Screemer
2016-07-22, 10:18:46
Oder macht man es an der Spielbarkeit fest?

Fände ich als jemand mit 4k-Monitor nett, aber tun wird es wohl keiner.
So in der Art macht das hardocp. Fand ich eigentlich immer nen guten Ansatz. Bei hocp war nur die Ausführung teilweise etwas durchwachsen.

Sven77
2016-07-22, 10:22:52
Jo, das ist ein Feature aller neuen Eulen.


Da nehm ich trotzdem lieber Speedfan :tongue:

medi
2016-07-22, 10:23:50
Echt? :rolleyes:

http://geizhals.de/?cat=gra16_512&xf=132_8192~1439_GTX+1070~653_nVIDIA&sort=p

Die billigste 1070 liegt aktuell bei rund 440 EUR. Also leider nix mit "hunni drauf".

Entschuldige, 110€ :rolleyes:

Achim_Anders
2016-07-22, 10:25:47
Vielen Dank für deine Antwort! Belastbare und standardisierte Tests zu erstellen ist in der Tat ein riesen Aufwand. Ich muss zugeben, dass ich das nur aus der Theorie und Vorlesungen kenne, wenn auch in einem anderem Kontext.
Jetzt kommt auch noch die neue Titan. Arbeit wird nicht weniger. Aber es freut mich, dass das Thema bei dir im Hinterkopf schwirrt.

@Topic: Die Asus OC Max (erhöhtes Powertarget) ist schon fast auf Fury Niveau in FullHD. Letztlich hatten die ganzen Leaks schon Recht. Leider ist die Leistungsaufnahme höher als gehofft.

M4xw0lf
2016-07-22, 10:34:29
Gab es das nicht schon bei der 1070GTX und 1080 ?
Jo, das ist ein Feature aller neuen Eulen.

MfG.
Raff
Ah, war mir bisher nicht aufgefallen.

StefanV
2016-07-22, 10:38:22
Wirklich coole Idee.
Ja, bei dem ich mich schon lange gefragt habe, warum es sowas nicht schon seit Jahren gibt...

Eigentlich hätten sogar die Referenzdesigns das implementieren müssen. Ist ja eh kein Aufwand, +12V und Masse hat man eh mehr als genug, Tacho brauchts eigentlich nicht, bleibt also noch ein Draht für das PWM Signal, das man ja auch auf mehrere ANschlüsse durchschleifen kann....

Sven77
2016-07-22, 11:03:02
Ja, bei dem ich mich schon lange gefragt habe, warum es sowas nicht schon seit Jahren gibt...

Weil es nur Sinn macht wenn man ein Mainboard mit mieser Lüftersteuerung hat..

StefanV
2016-07-22, 11:04:32
Nein, es macht IMMER Sinn, auch wenn du das nicht sehen willst.

krissbay
2016-07-22, 11:05:57
Mindfactory listet nun alle Custom Modelle der RX 480.
Die Nitro + soll 319€ kosten und die Red Devil 299 €.
http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+480.html

Iruwen
2016-07-22, 11:14:22
Nein, es macht IMMER Sinn, auch wenn du das nicht sehen willst.
Es ist nett für Leute die sich nicht damit befassen wollen, ich steuer die Lüfter lieber selbst mit SpeedFan (was halt voraussetzt, dass das mit dem Board geht).

Voodoo6000
2016-07-22, 11:19:52
Mindfactory listet nun alle Custom Modelle der RX 480.
Die Nitro + soll 319€ kosten und die Red Devil 299 €.
http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+480.html
Mal schauen wie sich die Preise entwickeln. Bei overclockers liegt der Preis der Nitro+ auf Höhe der Devil und die normale Nitro ist 10 Pfund billiger als die Nitro+/Devil.

Linmoum
2016-07-22, 11:20:40
299€ für die Devil sind angemessen. Mal schauen, wie sich die Nitro im Vergleich in den Reviews schlägt.

kuj0n
2016-07-22, 11:26:20
Findest du? Ich möchte ja eine kaufen, aber irgendwie sind die immer noch 50€ von einer Revolution entfernt. Hoffentlich geht da noch was.

Screemer
2016-07-22, 11:26:50
Mythos;11109948']Ich habe jetzt mal The Division mit drei verschiedenen Takteinstellungen gebencht (Benchmarkfunktion):

PCGH Boost Takt GPU 1150Mhz / Ram 2000Mhz: 62,9fps
Alles stock (1266 Mhz GPU Takt wird gehalten): 67fps (+7%)
OC GPU 1380 Mhz / Ram 2150Mhz: 74fps (+17%)
EDIT: Werte korrigiert, maximiertes Fenster scheint ein bißchen Leistung zu kosten. Einstellung ist 1080p, vsync und fps limit off. Ansonsten siehe Screens, bin zu faul das alles abzutippen. :D
hab jetzt mal bei mir durchlaufen lassen. falls jemand vergleichswerte für division sucht vielleicht ganz hilfreich.

XFX R9 290 DD Black @ 980/1250MHz

knapp 51FPS im schnitt mit deinen einstelungen. würde für mich eine steigerung von >30% in the division bedeuten. alles von stock -> stock ohne OC. Dazu muss man allerdings sagen, dass die DD Black gut 30MHz über der normalen 290 läuft. Max. sind bei mir ca. 1080MHz und damit komme ich auf knapp 54fps. da kann man schon fast nicht mehr von sidegrade sprechen. OC vs. OC sind das gute 40%. Das ist ne andere Leistungsklasse. Das kam in den Reviews definitiv nicht so rüber.

[MK2]Mythos
2016-07-22, 11:43:54
So einen starken Unterschied hätte ich nun aber auch nicht vermutet. Was für ne CPU hast du? Mein I5 3570k boostet theoretisch mit 4,2 Ghz. Ich gehe allerdings davon aus, dass The Devision auf Grund der fast perfekten Skalierung hier klar im GPU Limit hängt.

Screemer
2016-07-22, 11:46:19
hab einen 2600k bei 4,4ghz. dürfte also nicht so viel unterschied sein.

dildo4u
2016-07-22, 11:54:01
Die 480 läuft extrem gut bei dem Game vor Fury und 1060.

http://abload.de/img/diviondjumq.png

-/\-CruNcher-/\-
2016-07-22, 12:11:06
Die eigene GI läuft besser auf AMD auf Nvidia macht sie zudem noch Probleme so wie es aussieht ;)

Screemer
2016-07-22, 12:12:39
Die eigene GI läuft besser auf AMD auf Nvidia macht sie zudem noch Probleme ;)
sieht man ja wie gut die auf hawaii, tahiti und tonga laufen. lass solche sachen doch mal stecken, wenn du das nicht belegen kannst.

RoughNeck
2016-07-22, 12:15:44
Sagt mal weiß man eigentlich warum die 480 in BF4 und Battlefront so schlecht performnt?
In BF4 ist die 480 je nach Test 20% hinter einer 970.

Dino-Fossil
2016-07-22, 12:16:16
Wo habe ich denn gesagt, dass ein einzelnes Spiel mit nicht wirklich repräsentativer Performance ausreicht? Wenn CB bei einem Kurztest nur eines messen kann, sollte dieses doch sorgfältig gewählt sein.

Entschuldige bitte die kleine Stichelei. Ich bezog mich dabei auf den kürzlichen Vergleich bei Tom's Hardware, bei dem die Effizienz (frames/Watt) einer 1060 und einer 480 lediglich anhand von Metro:LL verglichen wurde, einem Titel, bei dem die 1060 relativ gesehen besser abschneidet als im Mittel über alle Tests.

Derartige Messungen sind wohl nicht ganz trivial, aber sicher besser anhand einer ausgewogenen Auswahl aus mehreren Titel, als nur anhand eines Einzelnen.

iuno
2016-07-22, 12:17:15
Ich will hier ja nicht die Stimmung verderben, aber ich finde die Karten durchgehend etwas zu teuer.
Die 4 GiB, anfangs noch "korrekterweise" fuer 219 verkauft, liegt jetzt bei 250 aufwaerts, da kann man es sich grad sparen. Die 8 GiB bleiben offenbar konstant bei 270 ohne nachzugeben, das sind 15 € ueber UVP. Ist die nur zum Spass da oder hat AMD ggue. den Distributoren noch aufgeschlagen? Die 5% sind keine Welt, aber trotzdem ist es unschoen, wenn andauernd ueber UVP verkauft wird.

sieht man ja wie gut die auf hawaii, tahiti und tonga laufen. lass solche sachen doch mal stecken, wenn du das nicht belegen kannst.
Ohne Aussagen zur GI treffen zu wollen, aber Tahiti sehe ich in dem Diagramm nicht und Tonga steht ggue. der 960 doch sehr gut da :confused:

Sagt mal weiß man eigentlich warum die 480 in BF4 und Battlefront so schlecht performnt?
In BF4 ist die 480 je nach Test 20% hinter einer 970.
Mantle oder DX?
Vielleicht hat DICE mehr Wert auf Mantle gelegt und AMD da bei der 480 nicht mehr investiert. Mal AMD Karten nur mit DX in BF verglichen?

-/\-CruNcher-/\-
2016-07-22, 12:19:52
Sagt mal weiß man eigentlich warum die 480 in BF4 und Battlefront so schlecht performnt?
In BF4 ist die 480 je nach Test 20% hinter einer 970.

Weil BF4 vor allem noch keine Culling optimierungen hatte das ist Geschichte ;)

Dino-Fossil
2016-07-22, 12:20:22
Ich will hier ja nicht die Stimmung verderben, aber ich finde die Karten durchgehend etwas zu teuer.
Die 4 GiB, anfangs noch "korrekterweise" fuer 219 verkauft, liegt jetzt bei 250 aufwaerts, da kann man es sich grad sparen. Die 8 GiB bleiben offenbar konstant bei 270 ohne nachzugeben, das sind 15 € ueber UVP. Ist die nur zum Spass da oder hat AMD ggue. den Distributoren noch aufgeschlagen?

Ganz deiner Meinung, ich tippe mal drauf, dass die Händler gerade noch ein paar Profite mitnehmen, weil die Nachfrage das Angebot noch übersteigt.
Wird sich wohl geben, sobald die neuen Karten inkl. Customs breit verfügbar sind.

dildo4u
2016-07-22, 12:22:03
Sagt mal weiß man eigentlich warum die 480 in BF4 und Battlefront so schlecht performnt?
In BF4 ist die 480 je nach Test 20% hinter einer 970.
AMD unterstützt keine DX11.1 Beschleunigung.

http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/

RoughNeck
2016-07-22, 12:32:09
DX

Die 480 ist hier auf Höhe einer 290.
http://www.tomshardware.com/reviews/amd-radeon-rx-480-polaris-10,4616-5.html

Schon sehr enttäuschend, eine 1060 ist um 23 FPS flotter.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1060-pascal,4679-3.html

Kann eigentlich nur ein Treiber BUG sein.

@dildo4u

Nach 2 Jahren immer noch nicht?
Traurig.

Screemer
2016-07-22, 12:32:33
Ohne Aussagen zur GI treffen zu wollen, aber Tahiti sehe ich in dem Diagramm nicht und Tonga steht ggue. der 960 doch sehr gut da :confused:

das hat mich 2 sekunden gekostet das zu finde: http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

es ging um den vergleich zwischen polaris und den drei anderen chips. polaris performt überdurchschnittlich. die behauptung es liege an der gi und es liefe deshalb auf allen amd so gut ist doch völlig haltlos. das eine 380x mittlerweile ~10-15% vor einer 960 liegt ist ja nix neues. die hat seit release einfach zugelegt.

primal: http://www.pcgameshardware.de/Far-Cry-Primal-Spiel-56751/Specials/Benchmark-Test-1187476/
quantum break: http://www.pcgameshardware.de/Quantum-Break-Spiel-15745/Specials/Technik-Test-1191358/
Darksouls 3: http://www.techspot.com/review/1162-dark-souls-3-benchmarks/page2.html
Homefront: http://www.pcgameshardware.de/Homefront-The-Revolution-Spiel-54406/Tests/Benchmarks-Test-1195960/
Overwatch: http://www.pcgameshardware.de/Overwatch-Spiel-55018/Tests/Benchmarks-Test-Grafikkarten-1197158/
Need for Speed 2016: http://www.pcgameshardware.de/Need-for-Speed-2015-Spiel-55563/Specials/Benchmarks-Technik-Test-1188606/
PvZ 2: http://www.pcgameshardware.de/Plants-vs-Zombies-Garden-Warfare-2-Spiel-55633/Specials/Technik-Test-Benchmark-1187424/

Die Karten wurde halt schlicht schneller. aus einem rückstand zur 960 4gb ist ein teils ordentlicher vorsprung geworden.

Schnoesel
2016-07-22, 12:47:11
Die 4 GiB, anfangs noch "korrekterweise" fuer 219 verkauft, liegt jetzt bei 250 aufwaerts, da kann man es sich grad sparen. Die 8 GiB bleiben offenbar konstant bei 270 ohne nachzugeben, das sind 15 € ueber UVP. Ist die nur zum Spass da oder hat AMD ggue. den Distributoren noch aufgeschlagen? Die 5% sind keine Welt, aber trotzdem ist es unschoen, wenn andauernd ueber UVP verkauft wird.

Ganz normal Angebot und Nachfrage. Die Leute sind sogar bereit für ne MSI 1060 340€ zu zahlen genauso wie sie bereit sein werden für die TitanX 1400€ zu zahlen. Warum als Händler/Hersteller weniger verlangen wenn es doch eh gezahlt wird?

Fliwatut
2016-07-22, 12:56:45
Belastbare und standardisierte Tests zu erstellen ist in der Tat ein riesen Aufwand.
Wirklich praxisnah wäre das wohl auch nur, wenn man zwei identische PCs mit jeweils 1060 und 480 hinstellen würde und da zwei User ransetzt, die ein ähnliches Anwendungsprofil haben. Und dann zeichnet man auf, wie viel Strom die beiden über ein Jahr hinweg verbraten. So ähnlich wie die Langzeittests beim ADAC. MMn. wird der Stromverbrauch aber viel zu hoch gehängt, das hat Nvidia schon clever eingefädelt damals. Natürlich bedeutet weniger Verbrauch auch weniger Abwärme und weniger Lärm, aber mittlerweile sind die Unterschiede doch wirklich sehr gering.

Fliwatut
2016-07-22, 13:04:47
Ich will hier ja nicht die Stimmung verderben, aber ich finde die Karten durchgehend etwas zu teuer.
Ich auch. 1060 und 480 müssten eigentlich $50 günstiger sein, um richtige Nachfolger der 960 und 380 zu sein.

fondness
2016-07-22, 13:09:01
AMD unterstützt keine DX11.1 Beschleunigung.

http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/

Das ist natürlich Blödsinn.

dildo4u
2016-07-22, 13:11:13
Ist es nicht daher die miese Performance unter BF4 und Projeckt Cars,warum sollten sie dort auch investieren wenn sie dachten das Dice den Mantle Pfad pflegt.

http://abload.de/img/1465207528cuxe41arq8_wxajx.gif

Undertaker
2016-07-22, 14:19:17
das eine 380x mittlerweile ~10-15% vor einer 960 liegt ist ja nix neues. die hat seit release einfach zugelegt.

[...]

Die Karten wurde halt schlicht schneller. aus einem rückstand zur 960 4gb ist ein teils ordentlicher vorsprung geworden.

Verwechselst du evtl. 380X und 380? Die 960 war immer knapp an der 380 und nie auf dem Level der 380X (https://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/2/#abschnitt_benchmarks_in_1920__1080_full_hd).

Ich auch. 1060 und 480 müssten eigentlich $50 günstiger sein, um richtige Nachfolger der 960 und 380 zu sein.

Der Preisanstieg war bei 14/16nm eigentlich eh schon lange klar. Doppelt ärgerlich wird es hierzulande dann noch währungsbedingt... Das betrifft auch nicht nur die Preisklasse der RX 480. :(

Gipsel
2016-07-22, 14:31:17
AMD unterstützt keine DX11.1 Beschleunigung.

http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/Wie hanebüchen soll es noch werden? Das riecht nach Trolling. Und ich sehe nicht, wie ein bald zweieinhalb Jahre altes Video irgendwas dazu beiträgt.

dildo4u
2016-07-22, 14:32:46
Wie erklärt man sonst die Performance in BF4 unter DX11?

Gipsel
2016-07-22, 14:37:58
Wie erklärt man sonst die Performance in BF4 unter DX11?Das Spiel liegt so wie programmiert AMD nicht? Weniger aufwendige Optimierungen auf Treiberseite? Such es Dir aus!
Aber daß AMD keine DX11.1-Beschleunigung unterstützen würde, ist natürlich himmelschreiender Unsinn und ich hoffe inständig, daß Du das Forum mit sowas zukünftig in Ruhe läßt.

dildo4u
2016-07-22, 14:44:15
Der 3D Mark API Test zeigt das selbe DX11 MT zeigt keine Gewinne mit AMD Karten.Es gibt nur wenige Games die das nutzen BF4 und Projekt Cars sind zwei Beispiele bei Projekt Cars kann man MT an und abschalten.

Projekt Cars
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10899003&postcount=3187

3DMark

https://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

j4l
2016-07-22, 14:46:10
Verwechselst du evtl. 380X und 380? Die 960 war immer knapp an der 380 und nie auf dem Level der 380X (https://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/2/#abschnitt_benchmarks_in_1920__1080_full_hd).


Die Division Benches (http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/) sehen die OC Version der 380x und die 960 trotz sehr weiter Übertaktung über 25% auseinander. Was ist mit der 960 los? In den Tests zur 1060 sah die 960 auch ca. 10% langsamer aus, als sie egtl im 3dcenter Index sein müsste und nur noch knapp schneller als eine 270X :eek:

MechWOLLIer
2016-07-22, 14:50:30
Wo habe ich denn gesagt, dass ein einzelnes Spiel mit nicht wirklich repräsentativer Performance ausreicht? Wenn CB bei einem Kurztest nur eines messen kann, sollte dieses doch sorgfältig gewählt sein.
Anno 2205 lastet AMD- und Nvidia-Grafikkarten bis an die Grenzen aus - es ist ein ziemlicher Worst-Case-Fall, für beide Hersteller. Ich habe hier auch Messwerte in anderen Spielen. Anno 2205 ist, wenn man den Schnitt vergleicht, eher noch minimal freundlicher für AMD als andere Spiele.

Undertaker
2016-07-22, 14:53:32
Die Division Benches (http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/) sehen die OC Version der 380x und die 960 trotz sehr weiter Übertaktung über 25% auseinander. Was ist mit der 960 los? In den Tests zur 1060 sah die 960 auch ca. 10% langsamer aus, als sie egtl im 3dcenter Index sein müsste und nur noch knapp schneller als eine 270X :eek:

Da gibt's nicht viel zu erklären, der Benchmark schmeckt der 380X einfach besser. In anderen Spiele-Benches der PCGH (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/) war der Unterschied zuletzt auch mal kleiner als zum Launch, wo ~15% zwischen den Karten lagen. Man müsste also schon eine sehr viel breitere Auswahl von 10, 15 oder 20 Titeln heranziehen und auswerten. Das passt dann aber besser in die 960er oder 380er-Threads. ;)

iuno
2016-07-22, 14:56:31
Anno 2205 lastet AMD- und Nvidia-Grafikkarten bis an die Grenzen aus - es ist ein ziemlicher Worst-Case-Fall, für beide Hersteller. Ich habe hier auch Messwerte in anderen Spielen. Anno 2205 ist, wenn man den Schnitt vergleicht, eher noch minimal freundlicher für AMD als andere Spiele.
Das widerspricht aber den Messwerten hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-durchschnitt-von-vier-spielen

Das System mit der 480 liegt bei Anno knappe 20 Watt unter dem Durchschnitt aus allen 4 Spielen. Die 1060 dagegen etwas ueber dem Schnitt.
Die 480 ist aber auch ungewoehnlich langsam in dem Spiel: bei euch 75% der 1060 statt 95% (Performancerating).

Undertaker
2016-07-22, 14:57:38
Anno 2205 lastet AMD- und Nvidia-Grafikkarten bis an die Grenzen aus - es ist ein ziemlicher Worst-Case-Fall, für beide Hersteller. Ich habe hier auch Messwerte in anderen Spielen. Anno 2205 ist, wenn man den Schnitt vergleicht, eher noch minimal freundlicher für AMD als andere Spiele.

Ich hatte da vor allem das hier im Blick:

https://www.computerbase.de/2016-06/radeon-rx-480-test/9/

Da liegt die RX 480 in Anno 10-15W unter der GTX 1070. In Star Wars und X-Com sind es 20-30W mehr. Wir reden also über eine Verschiebung von teils über 45W zu anderen Modellen, imo schon eine ganze Menge. Btw, warum messt ihr eigentlich die Karten nicht einzeln?

Gipsel
2016-07-22, 15:00:31
Der 3D Mark API Test zeigt das selbe DX11 MT zeigt keine Gewinne mit AMD Karten.Und was zeigt der API-Test? MT-Rendering ist kein Feature von DX11.1 und daß AMD daraus keinen Vorteil zieht, steht auf einem völlig anderen Blatt (mal abgesehen davon, daß es im Vergleich zu den Möglichkeiten von MT-Rendering mit DX12 oder Mantle/Vulkan auf fundamentaler Ebene ziemlich limitiert ist [einige sagen sogar mehr oder weniger kaputt]).
Daß AMD keine DX11.1-Beschleunigung unterstützen würde, ist und bleibt schlicht und ergreifend FUD Deinerseits.

MechWOLLIer
2016-07-22, 15:01:06
Das widerspricht aber den Messwerten hier:
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/#diagramm-leistungsaufnahme-des-gesamtsystems-durchschnitt-von-vier-spielen

Das System mit der 480 liegt bei Anno knappe 20 Watt unter dem Durchschnitt aus allen 4 Spielen. Die 1060 dagegen etwas ueber dem Schnitt.
Die 480 ist aber auch ungewoehnlich langsam in dem Spiel: bei euch 75% der 1060 statt 95% (Performancerating).
Darum sage ich ja, Anno 2205 ist eher pro AMD und bestimmt kein Nachteil für AMD.

Schnoesel
2016-07-22, 15:02:20
Infos von Sapphire über die Karte:

http://sapphirenation.net/NitroYear/

Bei CB:

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-erfahrungen/

Recht klein die Karte

Linmoum
2016-07-22, 15:03:57
Stimmt, der Durchmesser der Lüfter ist ja gleich. Das geht sich knapp aus - 26-27cm schätze ich:frown: Ich such mir mal perspektivisch gleiche Bilder und skaliere die entsprechend - dann bin ich schlauer.

Edit: müssten genau 26cm sein - die Hoffnung stirbt zuletzt!
https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-erfahrungen/

Die Sapphire Radeon RX 480 Nitro+ mit acht Gigabyte Speicher macht wortwörtlich einen kleinen, aber feinen Eindruck. Die Grafikkarte ist mit 24 Zentimeter nicht größer als das Referenzdesign, während das eigens entwickelte PCB und das Dual-Slot-Kühlsystem deutlich wertiger wirken.

24cm, wie das Referenzdesign.

dildo4u
2016-07-22, 15:05:02
Das selbe spiel wie bei der 480 Strix nur 10% mehr Leistung erinnert alles an die alten AMD Karten.

Pirx
2016-07-22, 15:07:52
Anno 2205 lastet AMD- und Nvidia-Grafikkarten bis an die Grenzen aus ...
Fragt sich bloss, womit.


https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-erfahrungen/
24cm, wie das Referenzdesign.
Sieht ja superb aus, da könnte sogar ich schwach werden.:-D

fondness
2016-07-22, 15:08:43
Das selbe spiel wie bei der 480 Strix nur 10% mehr Leistung erinnert alles an die alten AMD Karten.

Die meisten Custom 1060 schaffen das default nicht mal, also bitte endlich mal aufhören hier ständig FUD zu verbreiten.

Infos von Sapphire über die Karte:

http://sapphirenation.net/NitroYear/

Bei CB:

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-erfahrungen/

Recht klein die Karte

Wie üblich scheint es Sapphire mal wieder zu schaffen, die Kohlen aus dem Feuer zu holen. Kleine, feine Karte.

Schnoesel
2016-07-22, 15:09:34
Das selbe spiel wie bei der 480 Strix nur 10% mehr Leistung erinnert alles an die alten AMD Karten.

Hast das bei den Nvidias auch moniert? Da sinds sogar noch weniger als 10% im Vergleich zur Referenz. Echt Dildo du kannst einem echt aufn Zeiger gehen. Du brauchst mal Urlaub. Geh mal an die Sonne.

MechWOLLIer
2016-07-22, 15:12:53
Fragt sich bloss, womit.
Sieht ja superb aus, da könnte sogar ich schwach werden.:-D
Ich verstehe da um ehrlich zu sein das Problem nicht (echt).
Bei der Testreihe geht es um Leistungsaufnahme, Lautstärke und Temperatur. Und da ist Anno 2205 echt übel. Für AMD und Nvidia. Es geht ja nicht um Performance pro Watt oder sowas, wo die schlechte AMD-Performance ein Problem wäre. Wie und warum die Grafikkarten schlussendlich so hoch ausgelastet, ist für Lautstärke und co. doch egal.

fondness
2016-07-22, 15:16:52
Ich verstehe da um ehrlich zu sein das Problem nicht (echt).
Bei der Testreihe geht es um Leistungsaufnahme, Lautstärke und Temperatur. Und da ist Anno 2205 echt übel. Für AMD und Nvidia. Es geht ja nicht um Performance pro Watt oder sowas, wo die schlechte AMD-Performance ein Problem wäre. Wie und warum die Grafikkarten schlussendlich so hoch ausgelastet, ist für Lautstärke und co. doch egal.

Um es kurz zu machen: Die NV-Fraktion fühlt sich ungerecht behandelt, weil die AMD-Karten in der Anno Benchszene bei euch weniger Leistung erreichen wie anderswo.

Das hat bei Metro:LL bei TomsHardware freilich niemanden gestört.

dildo4u
2016-07-22, 15:18:25
Um es kurz zu machen: Die NV-Fraktion fühlt sich ungerecht behandelt, weil die AMD-Karten in der Anno Benchszene bei euch weniger Leistung erreichen wie anderswo.
Sie verbraucht auch deutlich weniger als bei den anderen Games.

Sunrise
2016-07-22, 15:20:54
Hm, Sapphire gibt auf deren Sapphirenation-Seite bei ihrer RX480 Nitro lediglich 150W unter "Power Consumption" an (http://sapphirenitro.sapphiretech.com/en/480-8.html#specifications). Marketing-Angabe oder glaubhaft?

MechWOLLIer
2016-07-22, 15:21:55
Bei Partnerkartentests geht es ja auch nicht um AMD vs. Nvidia. Es geht um Kartentyp a von Hersteller x, alles andere ist nur Beiwerk. Es steht aber auf der To-Do-Liste, auch ein richtriges Custom 1060 vs. Custom 480 Review zu schreiben. Zur Beruhigung verspreche ich dann da, unseren für Launch-Reviews gewohnten Durchschnitt aus vier Spielen zu nehmen :)

Pirx
2016-07-22, 15:22:10
Ich verstehe da um ehrlich zu sein das Problem nicht (echt)...
Naja Problem... irgendwas hakt doch bei Anno ganz schön bei AMD und trotzdem soll die Karte voll ausgelastet sein?

dildo4u
2016-07-22, 15:22:59
Hm, Sapphire gibt auf deren Sapphirenation-Seite bei ihrer RX480 Nitro lediglich 150W unter "Power Consumption" an (http://sapphirenitro.sapphiretech.com/en/480-8.html#specifications). Marketing-Angabe oder glaubhaft?
Silent Bios.

fondness
2016-07-22, 15:24:24
Hm, Sapphire gibt auf deren Sapphirenation-Seite bei ihrer RX480 Nitro lediglich 150W unter "Power Consumption" an (http://sapphirenitro.sapphiretech.com/en/480-8.html#specifications). Marketing-Angabe oder glaubhaft?

Die Angaben sind mit hoher Wahrscheinlichkeit wertlos, nicht mal die Anzahl der Display-Outputs stimmt.

Cyphermaster
2016-07-22, 15:29:38
Ich hatte nach den ersten Referenz-Berichten ja insgeheim gehofft, es könnte auch eine HIS RX480 "IceQ" ähnlich wie bei der HD7870 (http://www.hisdigital.com/un/product2-684.shtml) geben, also eine gute Custom-Karte mit DHE-Kühldesign. Allerdings scheinen die diesmal nur einen Doppelmiefhäcksler wie die Konkurrenz auch zu verbauen.

MechWOLLIer
2016-07-22, 15:40:39
Naja Problem... irgendwas hakt doch bei Anno ganz schön bei AMD und trotzdem soll die Karte voll ausgelastet sein?
Nur weil etwas Hakt heißt es ja nicht, dass die Karte nicht voll ausgelastet ist.
Das sieht man alleine in den Frequenzen. Anno 2205 erzeugt auf AMD und Nvidia immer die niedrigsten Taktraten, weil die am meisten ins Power Target rennen.

kuj0n
2016-07-22, 15:42:16
Infos von Sapphire über die Karte:

http://sapphirenation.net/NitroYear/

Bei CB:

https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-erfahrungen/

Recht klein die Karte
Wow, toll sieht sie aus. Da fällt das Warten etwas leichter.

edit: Aber 320€, boah nein, der Preis muss noch um einiges runter.

Hacke/schorsch/pudding
2016-07-22, 15:42:24
Also ich für meinen teil habe noch ne HD 7870 von HIS allerdings die ICQX mit der ich sehr zufrieden bin.
Hoffentlich kommen da bald Customs von HIS, Powercolor hat bei mir wegen plötzlichen HD 6870 Todes verschissen und Referenzkarten kaufe ich auf Grund einer damals ohne Kühlerupgrade nicht lauffähigen HD 4850 auch nie wieder. bleiben also noch HIS, Sapphire, MSI, Gigabyte und XFX. Asuskrams kaufe ich nicht weil allein der Name extra kostet.

Hakim
2016-07-22, 15:44:50
Mir gefallen ehrlich gesagt diese ganzen Modi nicht so sehr, bei der Referenz kann man zwischen kompatibel Mode und normal Mode auswählen und jetzt bei der Sapphire über einen Schalter an Karte das BIOS wechseln zwischen oc und normal.

Ich glaube ich wäre nach einer Weile zu bequem ständig das Gehäuse zu öffnen wenn ich umstellen will. Das hauseigene Tool von AMD ist doch genau dafür da

Sunrise
2016-07-22, 15:51:08
Erste Reviews der Sapphire Nitro+ RX 480
http://www.pcworld.com/article/3098825/components-graphics/sapphire-nitro-rx-480-review-polaris-rethought-and-refined.html (4GB Version)
https://www.youtube.com/watch?v=jTFDJODCSCc (OcUK Video Review 8GB Version)

hesTeR-
2016-07-22, 16:12:12
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Sapphire-Radeon-RX-480-Nitro-Preis-1202436/

verfügbarkeit mitte august...

Schaffe89
2016-07-22, 16:13:49
Anno 2205 lastet AMD- und Nvidia-Grafikkarten bis an die Grenzen aus - es ist ein ziemlicher Worst-Case-Fall, für beide Hersteller.

In Anno liegt der Verbrauch der rx 480 viel zu niedrig wie bei allen AMD Karten. Diese werden dort nicht ausgelastet. Wie kann man als jemand der das selbst misst, nicht sehen?:eek: Manchmal muss ich mich wirklich wundern.
Die GTX 1060 ist dort 37% schneller und ihr verwendet das mit Abstand am unaussagekräftigste Messergebnis für die Tests der Customkarten. ?!

Beruhigung verspreche ich dann da, unseren für Launch-Reviews gewohnten Durchschnitt aus vier Spielen zu nehmen

Super!

Linmoum
2016-07-22, 16:17:35
Erste Reviews der Sapphire Nitro+ RX 480
http://www.pcworld.com/article/3098825/components-graphics/sapphire-nitro-rx-480-review-polaris-rethought-and-refined.html (4GB Version)
Well, here’s a custom RX 480 card that AMD aficionados have been drooling for: Sapphire’s Nitro+ RX 480. It’s hitting online stores next week on an unspecified date at $219 for a 4GB model (which we tested) and $269 for an 8GB version.
Warum muss man in Deutschland dann scheinbar noch 2 Wochen länger warten? :P

Megamember
2016-07-22, 16:28:57
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Sapphire-Radeon-RX-480-Nitro-Preis-1202436/

verfügbarkeit mitte august...

320€? Stattlich, da würde ich eher ne Fury für 350 nehmen, 4GB hin oder her.

Hakim
2016-07-22, 16:38:27
Fury X gibts auch gerade für 430€ :)

Fliwatut
2016-07-22, 16:57:27
verfügbarkeit mitte august...
:P :P :P

fondness
2016-07-22, 17:02:08
320€? Stattlich, da würde ich eher ne Fury für 350 nehmen, 4GB hin oder her.

Listenpreis != Straßenpreis.

medi
2016-07-22, 17:03:29
Genau! Der ist nämlich höher - also der Straßenpreis :D :(

Achim_Anders
2016-07-22, 17:05:34
Je mehr Informationen ich anschaue und verarbeite, desto weniger möchte ich eine RX480/1060 kaufen. Irgendwie ist meine 7950 Boost für 200€ damals im Abverkauf 2013 ein richtig guter Preis gewesen. Selbst auf WQHD Witcher 3 hatte ich sehe viel Spaß, wenn die FPS auch zwischen 29-33 lagen bei einer Einstellung zwischen Hoch und Ultra. Die 1070 ist zu teuer und die Fury mit 4gb Vram und Spulenfiepen selbst für 350€ bei mir nicht sinnvoll, da ich grakas 2-4 Jahre behalte...

319€ für die Nitro+, die nicht mal ultra silent ist.. Irgendwie eine Enttäuschung für mich als Interessent

Ex3cut3r
2016-07-22, 17:07:38
Naja, also von einer HD 7950 wurde dir eine GTX 1070 oder RX 480 Custom schon gut zu gesicht stehen, die billigste GTX 1070 gibts "schon" für 439€
http://geizhals.de/palit-geforce-gtx-1070-dual-ne51070015p2d-a1475823.html?hloc=at&hloc=de

kuj0n
2016-07-22, 17:08:29
Listenpreis != Straßenpreis.
Schon klar, aber wo soll der Preis denn liegen wenn sie erst bei 320 anfangen runter zu gehen. Die Referenz gab es ganz kurz mal für ~240€ inklusive. Wenn ich die Nitro für 270 haben möchte, wie lange soll ich da warten? Sechs Monate?

Die Karten sind alle so teuer, mit Revolution ist da gar nichts.

Linmoum
2016-07-22, 17:15:15
Es bleibt trotzdem auch bei Angebot und Nachfrage. Warum irgendwas billig(er) anbieten, wenn's auch für mehr gekauft wird?

Schau dir die Customs der 1060 an, die MSI für 339€ wurde bei MF bereits über 160 mal verkauft - und das, obwohl es Customs für 60€ (!) weniger gibt.

2Ms
2016-07-22, 17:28:27
Ich finde das Gesamtpaket rundumgelungen, und der Preis ist noch vertretbar, wenn man unbedingt AMD kaufen will, in direkter Konkurrenz zur 1060 aber doch zuhoch.

Sehr schön ist das Dual-Bios. Ob man das SilentBios auch auf eine Referenz aufspielen kann ?

Botcruscher
2016-07-22, 17:31:45
Preis ist ja wohl ein Witz und bei der Lieferbarkeit hört jedes Verständnis auf. AMDs Marketing ist einfach latent unfähig! Der ganze Bereich gehört geschlossen ausgetauscht. Wobei Unfähigkeit die letzten Chips verharmlost. Das ist schlicht nur noch Absicht zur Schädigung des Unternehmens. 1060er Karten gibt es vom Start weg! Beim Trollverein der gesammelten Inkompetenz dauert es wieder Monate.

Ex3cut3r
2016-07-22, 17:35:59
Du übertreibst etwas, aber es trifft schon den Kern, ich wollte eine RX 480 in die engere Auswahl nehmen, aber das Referenz Design kaufe ich sicherlich nicht.

Dino-Fossil
2016-07-22, 17:44:15
Verfügbarkeit war doch von Anfang an gegeben.
Und mit den meisten Customs zu warten bis die 1060 eingeführt ist, erscheint mir sinnvoll.

Botcruscher
2016-07-22, 17:46:04
Ich übertreibe nicht. Einmal, ein einziges mal kann so was als Fehler passieren. Aber nicht latent am Band und ohne jedwede Reaktion zu Besserung. So viel Blödheit kostet einfach Millionen.

Bei eigenen PCBs sieht man ja den Aufwand noch ein aber doch nicht bei einfachen Kühlern. AMD hat seit Weihnachten gewusst was die da bauen. Da hätte man doch 4 Monate vor Start mal die Partner kontaktieren können. Platinendesign und Verbrauch +/-X durchgeben. Genaues gibt es 2 Monate vor Start...

NV scheint diese unglaubliche Leistung ja auch hin zu bekommen. PS: Allgemeine Lieferbarkeit lasse ich mal außen vor aber zumindest die Tests sind quasi durch. Bei AMD bekomm ich nicht mal eine Übersicht was kommt.

Verfügbarkeit war doch von Anfang an gegeben.
??? Mal Geizhals besucht und mal durch die Händler geklickt?

Und mit den meisten Customs zu warten bis die 1060 eingeführt ist, erscheint mir sinnvoll.
Das ist mit Abstand der dümmste Geschäftsvorschlag den ich je gehört hab. Ey, lass uns Karten verkaufen und Geld verdienen eh die Konkurrenz kommt! Och nö, Umsatz find ich so doof. Lass uns mal lieber warten. Der Sommer und Taschenbilliard ist so schön.

Was soll das bringen?! Fix noch einen beleuchteten Spoiler auf die Karte schrauben?! Da wird nichts mehr besser.

fondness
2016-07-22, 17:47:03
Man kann momentan ohnehin nicht mehr Chips liefern, customs machen da schlicht keinen Sinn. Man setzt selbst alle Referenzdesign welche man liefern kann locker ab, die Shops gehen ja sogar schon mit den Preisen rauf mangels ausreichender Liefermengen.

Dino-Fossil
2016-07-22, 18:22:55
Was soll das bringen?!

Der Launch der Customs liegt ja nicht nur an AMD sondern auch an den Boardpartnern.
Und wenn ich als solcher mein Produkt gut präsentieren will, dann mach ich das vielleicht lieber nicht mitten im Launch eines Konkurrenzproduktes.

(del)
2016-07-22, 18:37:16
Verfügbarkeit war doch von Anfang an gegeben.
Und mit den meisten Customs zu warten bis die 1060 eingeführt ist, erscheint mir sinnvoll.

Das Problem ist, dass Firmen wie HIS, Club3D, MSI oder Gigabyte noch nicht mal genügend Chips haben, um überhaupt was in Stückzahlen zu produzieren.

Der Launch der Customs liegt ja nicht nur an AMD sondern auch an den Boardpartnern.
Und wenn ich als solcher mein Produkt gut präsentieren will, dann mach ich das vielleicht lieber nicht mitten im Launch eines Konkurrenzproduktes.

Selten so gelacht. Die Boardpartner würden Freudensprünge machen, wenn sie endlich mal wieder was zum Verkaufen hätten. Bei Pine hat nur Powercolor einige wenige Chips bekommen, ansonsten noch Sapphire (PC-Partner) und Asus, weil sie einfach groß genug sind.
Der Rest stürzt sich aktuell fast ausschließlich auf die 1060 (MSI, Gigabyte), die kleineren AMD-Exklusiven wie HIS und Club3D verkaufen Peripheriegedöns und Kabel anstatt Grafikkarten. Das ist aktuell Schaulaufen, keine Massenproduktion.

Nein, es gibt scheinbar schlichtweg nichts, was die Boardpartner haben, um eine Massenproduktion zu starten. Kleinserien kann doch keiner bezahlen. Das Anfahren und Stoppen der MP kostet zu viel Geld und ist auch logistisch glatter Selbstmord.
Es schaut fast aus, als hätte es GF mal wieder verkackt. Warum sich AMD so auf diesen Bankrottverein verlässt, werden wohl nur die Scheichs wissen, die überall ihre Kohle drin stecken haben / hin und her schieben und denen der Gamer als solcher schlichtweg scheißegal ist.

Vielleicht steckt ja auch der IS dahinter, weil Zocken Gotteslästerung ist :D

Ich für meinen Teil wäre froh, wenn es mal ein paar mehr Customs geben würde, weil sich dann auch das Bild besser abrunden lässt. Ich habe auch versucht, auf dem grauen Markt was zu bekommen, nur kann eben nur dann abends was vom Fließband fallen, wenn selbiges auch läuft ;)

Kriton
2016-07-22, 19:16:21
das eine 380x mittlerweile ~10-15% vor einer 960 liegt ist ja nix neues. die hat seit release einfach zugelegt.

Die 380 war ja auch das Gegenstück zur 960. Keine Ahnung warum immer mit der 380X argumentiert wird.

Kriton
2016-07-22, 19:26:32
Wow, toll sieht sie aus. Da fällt das Warten etwas leichter.

edit: Aber 320€, boah nein, der Preis muss noch um einiges runter.

320€? Stattlich, da würde ich eher ne Fury für 350 nehmen, 4GB hin oder her.

Wenn PCGH recht hat, dann ist das für die OC-Variante. Die Nitro+ müsste also billiger sein und ich vermute mal, dass man dort psychologisch unter 300,- € bleiben wird.

Kriton
2016-07-22, 19:28:36
Preis ist ja wohl ein Witz und bei der Lieferbarkeit hört jedes Verständnis auf. AMDs Marketing ist einfach latent unfähig! Der ganze Bereich gehört geschlossen ausgetauscht. Wobei Unfähigkeit die letzten Chips verharmlost. Das ist schlicht nur noch Absicht zur Schädigung des Unternehmens. 1060er Karten gibt es vom Start weg! Beim Trollverein der gesammelten Inkompetenz dauert es wieder Monate.

[x] Du hast nicht verstanden was Marketing macht (bzw. gerade nicht macht).

maximus_hertus
2016-07-22, 20:10:23
Schon klar, aber wo soll der Preis denn liegen wenn sie erst bei 320 anfangen runter zu gehen. Die Referenz gab es ganz kurz mal für ~240€ inklusive. Wenn ich die Nitro für 270 haben möchte, wie lange soll ich da warten? Sechs Monate?

Die Karten sind alle so teuer, mit Revolution ist da gar nichts.

Die "kleinere" Nitro sollte recht schnell bei 270-280 Euro landen. Die Nitro + OC dann bei 299 Euro.

Ich würde darauf tippen, dass sich die Situation in 6-8 Wochen deutlich bessert. Die Karten werden breitflächig verfügbar sein und es wird den üblichen Straßenpreiskampf zwischen den Händlern geben.

Wer jetzt sofort eine neue Karte möchte, muss halt mehr zahlen und hat weniger Auswahl. Nicht schön, aber so ist es halt.

Erinnert sich jemand an 2004? nV stellt die GeForce 6800 GT/Ultra und ATI die X800 Pro / XT / XT PE vor - Lieferfähigkeit: über Monate(!) quasi 0. Afair wurden die Karten im Mai vorgestellt und erst ab ca. September konnte man die Karten wirklich kaufen (zum UVP).

Zum Glück ist es ja nicht so schlimm und jeder der möchte, kann eine Karte kaufen.

WC_ENTE
2016-07-22, 20:59:39
Selbst wenn eine 480 299 euro kostet ist das mMn. ein Witz,
ist im Prinzip 1:1 der selbe Preis wie für eine 390 OC vor Release der 480,
bei nur 10-15% mehr leistung der 480.

Bis auf den Verbrauch (z.B. kleine Gehäuse) spricht überhaupt nichts für die 480,
oh man will den Preis senken und ist jetzt teurer als eine 390


Eine Fury non X gibts schon für 349 euro *lol*

Grendizer
2016-07-22, 21:40:59
Selbst wenn eine 480 299 euro kostet ist das mMn. ein Witz,
ist im Prinzip 1:1 der selbe Preis wie für eine 390 OC vor Release der 480,
bei nur 10-15% mehr leistung der 480.

Bis auf den Verbrauch (z.B. kleine Gehäuse) spricht überhaupt nichts für die 480,
oh man will den Preis senken und ist jetzt teurer als eine 390


Eine Fury non X gibts schon für 349 euro *lol*

Als Besitzer einer VTX 390 Dual Fan, möchte ich das so nicht unterschreiben. Ja, die Karte ist gerade günstiger, gab es mit Total War Warhammer für 243 Euro vor ein paar Wochen ... Aber sie zieht halt verdammt viel Strom (275) die gerade in warmen Zimmern echt übel werden. Ich werde auf eine 1060 oder 480 Custom Design wechseln, sobald die Preise bei 279 Euro für ein leises Custom Design der 480 angekommen ist

WC_ENTE
2016-07-22, 22:27:00
Blöd, ich würde auf ebay für 30 euro eine Peter oder MK 26 kaufen,
Und 2 Scythe 500er, Lautlos und Kühl.

Ein Peter arbeitet mit 2x 500er Scythe auf einer 580 Classified Ultra eines Bekannten,
Last: 75°C
Verbauch über 350W

B2T:
Ich habe noch immer eine Passive 6670 (1GB GDDR5),
Amd bringt die 460 nicht tja nicht mein Pech

Grendizer
2016-07-22, 22:30:18
Blöd, ich würde auf ebay für 30 euro eine Peter oder MK 26 kaufen,
Und 2 Scythe 500er, Lautlos und Kühl.

Ein Peter arbeitet mit 2x 500er Scythe auf einer 580 Classified Ultra eines Bekannten,
Last: 75°C
Verbauch über 350W



Und was ändert das an der Abwärme die im Raum verteilt wird ?

Isen
2016-07-22, 22:35:19
Interessiert dich die Abwärme vom Kühlschrank auch, oder ist dir die Kühlung deiner Klamotten darin wichtig?
Abwärme hier, Abwärme da... Ergebnis zählt > Leise und Kühlere Temperaturen.

Grendizer
2016-07-22, 22:42:04
Interessiert dich die Abwärme vom Kühlschrank auch, oder ist dir die Kühlung deiner Klamotten darin wichtig?
Abwärme hier, Abwärme da... Ergebnis zählt > Leise und Kühlere Temperaturen.

Nicht wirklich, wenn man sein Büro unterm Dach hat und das System relativ geschlossen ist. 275 Watt bleiben 275 Watt die als Abwärme egal von welchem Kühlkörper und Lüfter rausgeblasen werden und dann für Zimmertemperaturen 40°+ sorgen. Nicht jeder sitzt im kühlen Keller.:biggrin:

WC_ENTE
2016-07-22, 22:42:04
Und was ändert das an der Abwärme die im Raum verteilt wird ?
Wenn es dir um Abwärme geht,
solltest eher zu einem Notebook oder Alienware/Zotac Steambox gehen
;D

Grendizer
2016-07-22, 22:44:39
Preis/Leistung paßt da nicht

Edit die 480 würde 125 Watt weniger rauspumpen... paßt ja, wenn die Customs kommen

Isen
2016-07-22, 22:54:06
Nicht wirklich, wenn man sein Büro unterm Dach hat und das System relativ geschlossen ist. 275 Watt bleiben 275 Watt die als Abwärme egal von welchem Kühlkörper und Lüfter rausgeblasen werden und dann für Zimmertemperaturen 40°+ sorgen. Nicht jeder sitzt im kühlen Keller.:biggrin:

Was interessiert mich deine Heiße Bude?
Schrott Büro halt.
Klimaanlage und gut ist. Hab auch mein Büro hier, die Betriebskosten krieg ich aber erstattet... machst dich halt mal schlau, dann musste auch nicht in soner Hölle malochen. Für deine Hölle kann aber die Grafikkarte nichts. :D

Kriton
2016-07-22, 23:29:48
Launchpreise bei zumindest eingeschränkter Verfügbarkeit...:rolleyes:

uweskw
2016-07-23, 07:31:53
Die Chipaubeute muss äußerst bescheiden sein. Und das obwohl offensichtlich alles verwendet wird, was man mit hoher Spannung noch irgendwie ans laufen bekommt.
Da scheint bei Globalfoundries ja richtig was schief zu laufen. Die hätten mal lieber in Dresden statt in Malta investieren sollen.
Ist absehbar wie lange die zur Prozessoptimierung brauchen?

greetz
US

HOT
2016-07-23, 07:37:36
Die Chipaubeute muss äußerst bescheiden sein. Und das obwohl offensichtlich alles verwendet wird, was man mit hoher Spannung noch irgendwie ans laufen bekommt.
Da scheint bei Globalfoundries ja richtig was schief zu laufen. Die hätten mal lieber in Dresden statt in Malta investieren sollen.
Ist absehbar wie lange die zur Prozessoptimierung brauchen?

greetz
US
Aha, lass uns an deinem Wissen mit Quellenangaben teilhaben. Ansonsten: Schwachsinn. Diese Annahme macht nicht im Mindesten Sinn, denn ein Mainstreamchip, dessen Preisspanne nicht so hoch ist kann nicht auf Risiko produziert werden ohne dabei massive Verluste einzufahren.
Und was soll Dresden da bitte besser machen ... die produzieren dort 22FDX und 28 HPM. Malta bietet weiterhin 14LPP und 14LPP+ während East Fishkill 22SOI und 14HP anbietet.

Ich sags nochmal: Weder ist der Prozess schuld daran, dass die 480 mehr verbraucht als Pascal, noch gibts bei 14LPP Probleme in der Produktion.

uweskw
2016-07-23, 08:07:54
..........

.......Ich sags nochmal: Weder ist der Prozess schuld daran, dass die 480 mehr verbraucht als Pascal, noch gibts bei 14LPP Probleme in der Produktion.

Kannst du das mal begründen anstatt nur trotzig aufzustampfen?
Offensichtlich gibt es nicht genug funktionierende Chips um die Vendors entsprechend zu versorgen. Sonst kämen die nicht verspätet. Oder glaubst du AMD hortet die Chips aus Spass?

greetz
US

WC_ENTE
2016-07-23, 09:00:03
RX 460 soll wohl am 28. kommen
https://www.facebook.com/mdcomputerspvtltd/posts/1340899105924568:0
http://en.yibada.com/articles/144218/20160723/amd-radeon-rx-460-release-date-july-28-power-oculus.htm

(del)
2016-07-23, 09:05:32
RX 460 soll wohl am 28. kommen
https://www.facebook.com/mdcomputerspvtltd/posts/1340899105924568:0
http://en.yibada.com/articles/144218/20160723/amd-radeon-rx-460-release-date-july-28-power-oculus.htm
Nö. Schlechte Quellen. :D

-/\-CruNcher-/\-
2016-07-23, 09:09:29
Sieht ja superb aus, da könnte sogar ich schwach werden.:-D
Die Radeon RX 480 Nitro+ bietet ein schnelles und ein leises BIOS

Sapphire stattet die Radeon RX 480 Nitro+ mit zwei verschiedenen BIOS-Versionen aus. Standardmäßig ist das „Boost-BIOS“ aktiviert. Dieses lässt die GPU mit maximal 1.342 MHz und den Speicher mit 4.000 MHz takten. Das Temperature Target ist auf 75 Grad Celsius eingestellt, die Lüftersteuerung darf die Lüfter mit maximal 2.300 Umdrehungen in der Minute rotieren lassen. Das zweite BIOS schaltet den „Quiet-Modus“ ein. In diesem taktet die GPU nur noch mit maximal 1.266 MHz (den Referenzwerten) und reduziert für fast alle Power States die Frequenzen und zugleich die Spannungen. Das Temperature Target liegt weiterhin bei 75 Grad Celsius. Gleichzeitig ist die Lüftersteuerung auf einen leisen Betrieb ausgelegt und lässt nicht mehr als 2.000 Umdrehungen zu.

Suche übrigens immernoch nach Everybodys Gone to the Rapture RX 480 Daten ;)

WC_ENTE
2016-07-23, 09:42:06
Nö. Schlechte Quellen. :D
Sagst du ;D

Ph03n!X
2016-07-23, 10:10:01
Mich irgendwie auf die RX 480 gefreut um dann doch ernüchtern festzustellen das Ich auf VEGA warten muss.
Und Ich denke das es vielen so geht.

-/\-CruNcher-/\-
2016-07-23, 10:18:24
Für die kommenden härteren Workloads rund um GI ist das auch zu raten ansonsten machen die Mainstreams einen guten Eindruck im jetzigen state und werden auch noch ihre 1080p 30 FPS (GTX1060/RX 480) halten können mit low level API dann auch mehr :)

Architekturbedingt macht hier die RX 480 dennoch einen stabileren Eindruck wenn es soweit ist ;)

(del)
2016-07-23, 11:00:07
Sagst du ;DWeil ich es besser weiß. ;)

fondness
2016-07-23, 11:00:47
Das sehe ich auch so, für mich ist das an Lächerlichkeit nicht mehr zu überbieten. Ich frage mich wirklich was die sich dabei denken, es hat nicht den Eindruck als wollten sie Umsatz machen.

Ich finde es so lächerlich, AMD vorzuwerfen sie wollen keinen Umsatz machen oder sind inkompetent, wenn sie nicht mehr wafer bekommen. Als ob das AMDs schuld wäre, oder sie daran etwas ändern könnten. Die Produktion wird von gf schnellstmöglich hochgefahren und dann gibt es auch mehr Chips, aktuell ist das eben nicht machbar.

y33H@
2016-07-23, 11:04:20
Nö. Schlechte Quellen.Was AMD erwartet und was Partner liefern ... sind zwei Paar Schuhe ;(

(del)
2016-07-23, 11:06:54
Was AMD erwartet und was Partner liefern ... sind zwei Paar Schuhe ;(
Was AMD liefert, damit Partner überhaupt mal liefern können - da wird dann EIN Schuh draus ;)

-/\-CruNcher-/\-
2016-07-23, 11:09:28
Here we go

rRkhA5V1qXU

Die spannenste Zeit beginnt gerade :D

Nvidias Dynamic Balancing scheint es noch nicht stabil halten zu können, wir können gespannt sein auf weitere Treiber und Dev patches


Tesselation Very High, Post FX Ultra, DOF on, Ambient Occlusion High <- einiges hiervon halte ich für falsch

IsB0f5PR7vM



Diese Ergebnisse finde ich insgesammt aussagekräftiger als was alle Reviewer in ihren Balkendiagramen bringen zusammen mit Format_C seinen Daten sind sie das Non plus Ultra

Vor allem mit der verwendeten CPU, hier werden die CPU resourcen so knapp im Multithreading das Nvidia bei jeder Auslagerung probleme bekommt ;)

N0Thing
2016-07-23, 11:23:09
Selektive Wahrnehmung..

Nicht wirklich, es fällt schon auf, dass die Spekulations- und Review-Threads zu dieser Generation massiv von Trollen und Fanboys heimgesucht werden, Cherry picked Benchmarks in die Runde geworfen, oder einzelne Features als das neue geschnitten Brot angepriesen werden.

Gilt nur eben für alle Spekulations- und Review-Threads und nicht nur die eines Herstellers.

Was AMD liefert, damit Partner überhaupt mal liefern können - da wird dann EIN Schuh draus ;)

Ich hoffe man erfährt in ein paar Wochen/Monaten, ob die Nachfrage so groß ist, oder ob die Liefermenge so klein ist. Falls letzteres zutrifft, was der Grund dafür ist. GloFo sollte ja eigentlich nicht von von Fremdaufträgen überschwemmt worden sein. :confused:

WC_ENTE
2016-07-23, 11:36:20
Weil ich es besser weiß. ;)
Dann kannst es ja andeuten, bist in einem Fremden Forum:biggrin:
---------------------------------------------------------------

Mir ist das eig. egal ob Amd liefert oder nicht,
dann wird es eben NV.

Rabiata
2016-07-23, 11:48:20
Ich hoffe man erfährt in ein paar Wochen/Monaten, ob die Nachfrage so groß ist, oder ob die Liefermenge so klein ist. Falls letzteres zutrifft, was der Grund dafür ist. GloFo sollte ja eigentlich nicht von von Fremdaufträgen überschwemmt worden sein. :confused:
Und falls letzteres zutrifft, ob es Folgen haben wird. AMD ist wohl vertraglich an GloFo gebunden, aber das hat vielleicht auch eine Ausstiegsklausel falls GloFo über längere Zeiträume nicht liefern kann.

Mancko
2016-07-23, 11:53:43
Ich finde es so lächerlich, AMD vorzuwerfen sie wollen keinen Umsatz machen oder sind inkompetent, wenn sie nicht mehr wafer bekommen. Als ob das AMDs schuld wäre, oder sie daran etwas ändern könnten. Die Produktion wird von gf schnellstmöglich hochgefahren und dann gibt es auch mehr Chips, aktuell ist das eben nicht machbar.

Ok wenn sie nicht mehr Wafer bekommen, dann können sie dafür nichts. Aber wo ich überhaupt keine Ausreden oder ähnliches akzeptiere ist dieses völlig inkompetente Marketing und der Ablauf des Launches bisher. Wieso labert AMD über ein halbes Jahr früher los wie toll alles ist und wie sehr sie der Konkurrenz Monate vorraus sind, und VR TAM und diesen ganzen geistigen Dünnschiss. Das zusammen genommen auf der einen Seite und das was bisher abgeliefert wurde ist wirklich ein extrem jämmerliches Bild. Und die Suppe haben und müssen sie nun selber auslöffeln.

Die haben sich da vollkommen vorführen lassen von der Konkurrenz und eins ist ja mal fakt. Es ist viel schwerer einen großen DIE vom Stapel zu lassen wie GP100 und GP102 als Chips wie P10 und GP106. Also wenn jemand aktuell Monate vorraus ist dann nur Nvidia und ich finde das darf die Presse ruhig mal AMD fragen was nun aus Ihren Versprechungen geworden ist.

Dino-Fossil
2016-07-23, 12:04:29
Gibt es denn belastbare Daten zu den absoluten Verkäufen Weltweit?
Was da ist schient ja ganz gut wegzugehen, und viele Händler hatten zum Launch ja auch Karten bekommen, war ja kein Paperlaunch.
Und man sollte nicht vergessen, dass auch NVidia massive Probleme mit der Verfügbarkeit von 1070 und 1080 hatte (ja, ich weiß, anderes Segment, blabla).

War die 480 also erfolgreicher als gedacht (z.B. auch in Asien?), oder hat AMD wirklich geblufft, was die Lieferfähigkeit angeht?

Das sie NVidia völlig unterschätzt haben (wie ein großteil der Presse ja auch), ist allerdings einigermaßen peinlich für AMD.
Eine Möglichkeit ist vielleicht, dass sie dachten, NVidia würde ebenfalls auf HBM2 setzen.
Offenbar ist es aber so, dass NVidia sehr frühzeitig auf GDDR5X gesetzt hat und damit das Problem der späten Verfügbarkeit von HBM2 umgangen hat.

Schaffe89
2016-07-23, 12:14:21
Ich finde es so lächerlich, AMD vorzuwerfen sie wollen keinen Umsatz machen oder sind inkompetent, wenn sie nicht mehr wafer bekommen. Als ob das AMDs schuld wäre, oder sie daran etwas ändern könnten. Die Produktion wird von gf schnellstmöglich hochgefahren und dann gibt es auch mehr Chips, aktuell ist das eben nicht machbar.

Doch es ist lächerlich. Wenn AMD noch nicht launchen kann, weil das PCB nicht stimmt, die Stromaufnahme über den PCie Slot nicht stimmt, die Partnerkarten nicht bereit sind und jetzt kaum mehr was lieferbar ist, dann soll AMD halt verdammt noch mal später den Launch abhalten, damit endlich mal einer sauber über die Bühne geht und demenstprechende gute Presse bekommt.
Wie man das Fiasko noch ansatzweise schönreden kann, verstehe ich nicht.
Die Partnerkarten takten in der Standardvariante kaum bis gar nicht höher wie das Referenzdesign.
Wie will man mit dem teuren Chip und den fetten Kühlern die die Boardpartner da draufpappen nur ansatzweise Gewinnmargen gegen über GTX 1060 einfahren?

Man hätte die rx480 Medienwirksam mit Directx12/Vulkan Fokus nach der GTX 1060 gleich mit Boardpartnerdesigns launchen können und sich sämtliche Kritik an der Lautheit der Referenzversion sparen können.
Genaudeshalb hat AMD auch wie beim r9 390/390x Launch noch was reißen können.
Kein lautes und heißes Ref Design, sofort Lösungen die überzeugen, aber nein, man tritt Monate im Vorfeld an die Presse und phantasiert was von einem Vorsprung und labert von hoher Effizienz.
Ich kapier nicht wieso die nicht einmal dieFüße stillhalten können, hoffentlich tun sie es bei Zen.

Nö. Schlechte Quellen.

Schafft mans noch bis September/Oktober?

-/\-CruNcher-/\-
2016-07-23, 12:14:48
@Format_C

bitte teste demnächst auch auf einer Ultra low Power 4 Kern CPU mit Low Level API ;)

Hier wird AMD Nvidia demnächst versuchen weitere Marktanteile mit Zen optimierten Low Cost Gaming PCs abzunehmen und Intel gleich mit ;)

So langsam wird das bild immer klarer :)


AMDs Modulare HSA PCs stehen kurz vor der Einführung mit Zen Polaris und Vega

Man wird ACE Kerne zusätzlich in Zen haben die durch Multigpu effizient mit Polaris, Vega und Fiji verschmelzen werden

Gegen diese Preis Leistung wird Nvidia keine chance mehr haben und Nvidia karten werden zusätzlich suboptimal in dieser Platform performen.

(del)
2016-07-23, 12:35:17
Schafft mans noch bis September/Oktober?Ja, das schon. :)

Ich habe heute trotz Zeitdruck erst mal den PresentMon Interpreter fertig programmiert, damit ich zeitbasiert auch unterschiedliche Anzahlen gerenderter Frames wieder deckungsgleich übereinander auf eine gemeinsame Achse bekomme. Lineare Interpolierung, Wichtung, Drops - das liest sich einfacher, als es in Wirklichkeit ist. Und ich mag meine Smothness-Auswertung. Da muss ich lediglich noch das mit den Drops besser hinbekommen. Wird schon...

Gipsel
2016-07-23, 13:09:28
Zumindest mal wieder ein paar grobe Sachen ausgekehrt.

Deswegen nochmal an die Betreffenden:
Je nach Person mehr oder weniger häufig kommt ja interessanter Input, der die Diskussion weiterbringt. Aber sinnlose Provokationen und allgemein diese ganze Fanboyscheiße könnt ihr auch mal stecken lassen.

dildo4u
2016-07-23, 15:41:57
Sapphire Nitro+ RX 480 OC 8GB Graphics Card Review

http://www.eteknix.com/sapphire-nitro-rx-480-oc-8gb-graphics-card-review/

Braucht fast so viel Strom wie die 390.

ecodriver
2016-07-23, 15:49:15
Danke dildo4u für den Link, endlich mal eine Seite die auch in 4k testet.
Find es zum kotzen wie alle Seiten nur noch in niedrigen Auflösungen testen.

Linmoum
2016-07-23, 15:55:09
Sapphire Nitro+ RX 480 OC 8GB Graphics Card Review

http://www.eteknix.com/sapphire-nitro-rx-480-oc-8gb-graphics-card-review/

Braucht fast so viel Storm wie die 390.
http://images.techhive.com/images/article/2016/07/nitro-480-power-draw-100673121-large.png
Und hier im Gesamtsystem fast 130W weniger...

Pack noch 'n paar W drauf weil's nur die 4GB ist, von den dortigen 30W ist man aber selbst dann noch ziemlich weit entfernt.

http://www.pcworld.com/article/3098825/components-graphics/sapphire-nitro-rx-480-review-polaris-rethought-and-refined.html?page=8

Edit: Und selbst wenn man von Anno als Indikator halten kann, was man will, aber selbst da sind's laut CB zwischen der 480 Strix im OC-Mode und der Ref. 390 über 130W Unterschied beim Gesamtsystem. Aber wundert mich nicht, dass du nur eine Sache siehst und sofort Schlussfolgerungen ziehst. ;)

uweskw
2016-07-23, 16:17:42
Sapphire Nitro+ RX 480 OC 8GB Graphics Card Review

http://www.eteknix.com/sapphire-nitro-rx-480-oc-8gb-graphics-card-review/

Braucht fast so viel Storm wie die 390.

wie mir diese penetranten NV-Marketeers auf den Senkel gehen.
Du hast anscheinend wirklich den ganzen Tag nichts anderes zu tun, als in der ganzen Welt nach Beiträgen zu suchen die AMD irgendwie schlecht aussehen lassen. Oder NV hypen.
Kann man diese ständige Meinungsmache nicht mal lassen?
Geh und kauf dir ein Leben wenn du sonst keines hast. Da haben alle mehr davon.

greetz
US

-/\-CruNcher-/\-
2016-07-23, 17:11:37
Danke dildo4u für den Link, endlich mal eine Seite die auch in 4k testet.
Find es zum kotzen wie alle Seiten nur noch in niedrigen Auflösungen testen.

Weil es einfach keinen Sinn macht du wirst nur selten die UHD 30 FPS (33.3 ms) marke stabill erreichen in dieser Preisklasse (300€).

Ab dort wird jeder einzelne FPS extreme teuer momentan im Render budget + GI meist doppelt so teuer + HDR dann nochmal etwas teurer ;)

=Floi=
2016-07-23, 17:30:02
Danke dildo4u für den Link, endlich mal eine Seite die auch in 4k testet.
Find es zum kotzen wie alle Seiten nur noch in niedrigen Auflösungen testen.


weil die karte für 4k zu wenig power hat. meine gleich schnelle 780ti hat bei neueren spielen auch nicht die power für 4k.

RoughNeck
2016-07-23, 17:40:51
Sapphire Nitro+ RX 480 OC 8GB Graphics Card Review

http://www.eteknix.com/sapphire-nitro-rx-480-oc-8gb-graphics-card-review/

Braucht fast so viel Strom wie die 390.

Wollen die ernsthaft behaupten die Karte braucht so viel wie eine 390?
Manchmal wünschte ich solch Seiten würden keine Produkte bekommen, so einen schlechten Test habe ich schon lange nicht gelesen.

Undertaker
2016-07-23, 17:44:30
weil die karte für 4k zu wenig power hat. meine gleich schnelle 780ti hat bei neueren spielen auch nicht die power für 4k.

Das ist zwar korrekt, schließt aber 4K nicht gleich gänzlich aus. Zum einen spielen die wenigsten nur gänzlich neue Spiele, sondern nutzen eine neue GPU auch dafür, ältere und noch immer beliebte Titel in höheren Settings darzustellen. Da läuft dann auch auf einer RX 480 doch einiges auch in 4K max.

Zum anderen fressen die höchsten Detaileinstellungen fast immer überproportional Leistung, ohne das die Optik entsprechend skaliert. Eh man dann die Auflösung senkt, kann man in aktuellen Spielen besser die Details sinnvoll reduzieren und hat am Ende die schönere Optik.

4K max Benchmarks in aktuellen Spielen bei 10-20 fps sind auf einer RX 480 natürlich eher witzlos.

-/\-CruNcher-/\-
2016-07-23, 17:50:37
Dennoch würde ich gern die Skalierung von Quantum Brake auf der RX 480 bei UHD sehen das macht einen sehr guten Eindruck das die 33.3 ms mit Upscaling zumindest hier stabill erreicht werden könnten (Scorpio) auch Doom ist ein netter Effizienz Kandidat mit Vulkan dafür :)

Megamember
2016-07-23, 17:54:43
Wollen die ernsthaft behaupten die Karte braucht so viel wie eine 390?
Manchmal wünschte ich solch Seiten würden keine Produkte bekommen, so einen schlechten Test habe ich schon lange nicht gelesen.

Wieso das kommt hin, 30W zur 390. Die Karte läuft mit 1350 weit oberhalb ihres sweet spots.

RoughNeck
2016-07-23, 17:59:24
Dann müsste Sapphire das Power Target extrem angehoben haben.
Ich glaube es weiterhin nicht, klar die Karte läuft am Limit, trotzdem ist das zu viel.

Hakim
2016-07-23, 18:00:04
Die Quantum Break Werte vom Video überraschen mich etwas, war hier die RX480 noch vor einigen Wochen nicht auf GTX1070 Niveau? Jetzt sieht der Abstand zu 1060 nicht so hoch aus

-/\-CruNcher-/\-
2016-07-23, 18:03:32
mich überraschen sie überhaupt nicht hatte ja schon gesagt 10 fps werden einfach 20 fps nicht so und im Prinzip zeigen die Dynamic Balancing aussetzer momentan genau das ;)

Was ich sehr interessant finde das in Artis QB die UWP Store Login Protection Trap in einigen Frames aktiv wird in anderen aber nicht oopsy :D

Lurtz
2016-07-23, 18:22:02
Das ist zwar korrekt, schließt aber 4K nicht gleich gänzlich aus. Zum einen spielen die wenigsten nur gänzlich neue Spiele, sondern nutzen eine neue GPU auch dafür, ältere und noch immer beliebte Titel in höheren Settings darzustellen. Da läuft dann auch auf einer RX 480 doch einiges auch in 4K max.

Zum anderen fressen die höchsten Detaileinstellungen fast immer überproportional Leistung, ohne das die Optik entsprechend skaliert. Eh man dann die Auflösung senkt, kann man in aktuellen Spielen besser die Details sinnvoll reduzieren und hat am Ende die schönere Optik.
Sehe ich auch so. Ultra Details sind oft wesentlich sinnloser als eine Auflösungs- und damit auch Bildqualitätssteigerung.
Aber die letzte Konsolengen, in der man gewohnt war, nur noch in 1080p zu spielen, auch weil die Unterschiede zu 720p und dazwischen relativ gering waren, scheint da einiges in der Wahrnehmung verschoben zu haben.

Ich kanns nur wiederholen, ich bin zwar eher low-fps-Spieler, aber ich spiele mit meiner R9 390 regelmäßig in 4k. Klar kommt man damit oft an seine Grenzen, wo man dann doch wieder runtergeht.

iuno
2016-07-23, 19:04:59
Ich weiss, ich komme etwas spaet damit, aber hat sich eigentlich noch keiner darueber beschwert, dass Asus die Spezifikation des 8-Pins komplett ueberfaehrt? ;D

http://i.imgur.com/W5KG9C4.png

Das sind locker mal 50 W ueber den 150 Watt :eek: :eek:
scnr...

Aber die Karte ist auch wieder typisch fuer Asus. DirectCU :facepalm:

DarknessFalls
2016-07-23, 19:24:07
...Du hast schon gelesen, dass das das Gesamtsystem ist?

iuno
2016-07-23, 19:24:55
So wie immer bei CB und jetzt?
Die Karte liegt trotzdem noch deutlich ueber der Referenz

Megamember
2016-07-23, 19:25:11
...Du hast schon gelesen, dass das das Gesamtsystem ist?

Was ändert das an der DIfferenz?

uweskw
2016-07-23, 19:52:27
Was regt ihr euch eigentlich so über den Mehrverbrauch unter Vollast auf?:confused::confused::confused:

Das ist ja nicht mal der typische Spieleverbrauch sondern das Maximum, dass meist nur kurzzeitig anliegt. Wenn das pro Stunde Zocken im Schnitt 0,5 Cent mehr oder weniger ausmacht ist das viel.
Viel schlimmer finde ich den höheren Idle-Verbrauch der 480er. Bei vielen läuft der PC 24/7 und oft wird nur der Monitor abgeschaltet und der PC geht nicht mal in den Schlafmodus. Ebenso der höhere Verbrauch beim Videoschauen. Das wird in den Tests IMO viel zu wenig betont.
Übrigens: Betrifft der Mehrverbrauch auch Streams wie Youtube?

greetz
US

Hakim
2016-07-23, 20:36:13
Was regt ihr euch eigentlich so über den Mehrverbrauch unter Vollast auf?:confused::confused::confused:

Das ist ja nicht mal der typische Spieleverbrauch sondern das Maximum, dass meist nur kurzzeitig anliegt. Wenn das pro Stunde Zocken im Schnitt 0,5 Cent mehr oder weniger ausmacht ist das viel.
Viel schlimmer finde ich den höheren Idle-Verbrauch der 480er. Bei vielen läuft der PC 24/7 und oft wird nur der Monitor abgeschaltet und der PC geht nicht mal in den Schlafmodus. Ebenso der höhere Verbrauch beim Videoschauen. Das wird in den Tests IMO viel zu wenig betont.
Übrigens: Betrifft der Mehrverbrauch auch Streams wie Youtube?

greetz
US

Ja leider auch in YT Videos, weiß auch nicht ob es wirklich so schwer ist da mal etwas mehr Aufwand zu betreiben damit die Karten weniger verbrauchen. Ist bei mir Persönlich wesentlich wichtiger als die 150W+ im Spielbetrieb.

iuno
2016-07-23, 20:43:05
Was regt ihr euch eigentlich so über den Mehrverbrauch unter Vollast auf?:confused::confused::confused:
Wer regt sich hier auf?


;D
[...]
:eek: :eek:
scnr...
Noch deutlicher kann man es glaube ich nicht machen. :rolleyes:

Nichtsdestotrotz ist die Aktion natuerlich lachhaft von Asus, aber die Karte taugt ja sowieso nicht, also ist es eh egal.

-/\-CruNcher-/\-
2016-07-23, 20:46:22
Ja leider auch in YT Videos, weiß auch nicht ob es wirklich so schwer ist da mal etwas mehr Aufwand zu betreiben damit die Karten weniger verbrauchen. Ist bei mir Persönlich wesentlich wichtiger als die 150W+ im Spielbetrieb.

Welcher Reviewer will das festgestellt haben ?

Linmoum
2016-07-23, 20:46:56
Nichtsdestotrotz ist die Aktion natuerlich lachhaft von Asus, aber die Karte taugt ja sowieso nicht, also ist es eh egal.
Wir können ja wetten, dass die Karte trotzdem von etlichen Leuten gekauft wird. :tongue: Und das, obwohl sie sicherlich mehr kosten wird als die Devil oder Nitro...

-/\-CruNcher-/\-
2016-07-23, 20:49:46
Muss sogar Asus muss ja die Kosten für ihre Vollautomatische Fertigungslinie wieder irgendwann drinne haben ;)

Hakim
2016-07-23, 20:56:36
MWelcher Reviewer will das festgestellt haben ?

unter anderem CB (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/). Gab auch konkrete Tests wo nur die Karten alleine gemessen wurde, aber verlange nicht das ich mich da nochmal durch die Tests durchwühle um es zu finden.

dildo4u
2016-07-23, 21:12:59
Wieso das kommt hin, 30W zur 390. Die Karte läuft mit 1350 weit oberhalb ihres sweet spots.
300 Watt für ein x99 System sind auch nich so viel,also das kann locker hinkommen 200 Watt für die Karte 100 Watt für die CPU.Heaven belastet die CPU kaum.Was hier die 390 ausbremst wird die Tesselation sein,daher wird der Rest der Karte nicht am Limit laufen.

-/\-CruNcher-/\-
2016-07-23, 21:19:33
unter anderem CB (https://www.computerbase.de/2016-07/geforce-gtx-1060-test/6/). Gab auch konkrete Tests wo nur die Karten alleine gemessen wurde, aber verlange nicht das ich mich da nochmal durch die Tests durchwühle um es zu finden.

Die differenz könnte hinkommen je nachdem welcher Browser aber lieber würde ich die Daten von Igor bestätigt sehen ;)

Hier könnte man auch schön den Power Draw der 4 GB vs 6 GB vs 8 GB bestimmen :D

Für Zen dann jedenfalls nicht mehr interessant da die CPU Interne UVD Einheit das übernehmen wird ;)

Hakim
2016-07-23, 21:26:18
Die differenz könnte hinkommen je nachdem welcher Browser aber lieber würde ich die Daten von Igor bestätigt sehen ;)

Hier könnte man auch schön den Power Draw der 4 GB vs 6 GB vs 8 GB bestimmen :D

Bei mir ist es eigentlich nicht mal konkret der yt Video verbrauch ansich sondern (ich weiß ich wiederhole mich sehr oft in der Hinsicht :) ) HD Videomaterial Verbrauch. Aber scheint ja ähnlich zu sein bei YT.

-/\-CruNcher-/\-
2016-07-23, 21:34:16
Die GPU Interne UVD/VPX Effizienz ist in Zukunft ja nur noch für nachrüster wirklich interessant, deswegen seh ich das nicht wirklich als KO und stuffe die Relevanz und Priorität als eher niedrieg ein da die Verbesserungen gegenüber alles was vorher von AMD da war ja deutlich sichtbar sind selbst mit dieser relativ ungenauen Messmethodik ;)

Wichtiger währen mir da Hardcore Technische Indepth daten der IP, die ich von Reviewern garnicht erst erwarte ;)

Extreme Heftige Fluktuationen bei Pascal und Hitman momentan

Das ist schon der erste Latenz optimierte Hotfix Treiber den Artis nutzt für den Vergleich.

Entweder das Dynamic Balancing scheint extreme schlecht zu greifen oder es ist garnicht aktiv allerdings passt das hinten und vorne nicht zum GTX 970 Ergebniss der CPU Overhead zersäbelt die Frametimes scheinbar momentan kolosal der sync scheint total im Eimer mit Pascal und auch bei Maxwell geht er vor allem in der Cutscene auf dem Bot in der Crowd 1x komplett verloren, auch hier gespannt sein auf Treiber und oder Dev Patch.

Das externe OSD (Dxtory) könnte hier durch das Polling (CPU Overhead) zusätzlich Nvidia das leben (atmen) schwer machen ;)

Gehe mal stark davon aus ohne genaue Analsye des Threading Aufbaus das die Unterbrechungen hauptsächlich momentan vom Crowd Rendering und AI Simulation (Overhead) herrühren.

7tHg3536ucg

Frank1974
2016-07-23, 23:40:01
Die GPU Interne UVD/VPX Effizienz ist in Zukunft ja nur noch für nachrüster wirklich interessant, deswegen seh ich das nicht wirklich als KO und stuffe die Relevanz und Priorität als eher niedrieg ein da die Verbesserungen gegenüber alles was vorher von AMD da war ja deutlich sichtbar sind selbst mit dieser relativ ungenauen Messmethodik ;)

Wichtiger währen mir da Hardcore Technische Indepth daten der IP, die ich von Reviewern garnicht erst erwarte ;)

Extreme Heftige Fluktuationen bei Pascal momentan

Das ist schon der erste Latenz optimierte Hotfix Treiber

http://youtu.be/7tHg3536ucg

Man sieht deutlich das die GTX1060 immer wieder kurz in den fps einbricht, ist zwar nur für einen kurzen Moment, aber bei den beiden anderen ist es mir nicht aufgefallen.

Normal ist die Grafik ganz nett, aber ich kann mit Hitman leider nichts anfangen, alle Stealth Games sind nichts für mich, da kann aber Hitman nix dafür :smile:, ist halt für eine andere Zielgruppe.

Für mich ist Doom genau das richtige, kein Nachladen und ohne zu überlegen immer auf Angriff.

Nochmal zum Video, alle 3 Karten liefern genug fps, an wenigen Stellen ist sogar die GTX970 gleich auf, dafür das sie kein echtes DX12 kann ist es eigentlich sehr gut, wenn man noch bedenkt das sie einen sehr beschnittenen Speicher hat, ist es sogar besonders gut wie sie sich schlägt.

Vom Stromverbrauch denke ich das bei den Taktraten die GTX1060 am wenigsten verbraucht, die GTX970 bestimmt eine ganze Menge mehr, der Takt ist ja sehr hoch, bei der RX480 weiß ich nicht genau, gibt noch zu wenig Erfahrungswerte, aber ich denke sie wird auch eine Menge ziehen, ich denke mit etwas Glück bekommt man auch eine RX480 die 1400MHz unter Luft mitmacht, aber da braucht man wirklich Glück, was ich nie habe, meine HD7970 hat einen ASIC von 60,7 :frown:, und so verhält sie sich auch, sie schafft leider nicht mal 1100MHz ohne Erhöhung der Spannung, und Undervolten ist auch fast nicht drin, ich hoffe ich habe bei meiner nächsten GK mehr Glück, egal von welchem Hersteller, aber 1350MHz bei einer RX480 würde mir reichen, wenn ich diese Karte hätte:smile:., in den Meisten Test bis jetzt halten die RX480 nicht mal 1200MHz, aber das wird mit den Customs anders.

Um etwas genauer auf den Stromverbrauch einzugehen, bei mir ist der wirklich wichtig, ich habe pro Jahr etwas über 1000 Einheiten nur für meinen PC:redface:, und bei 28 Cent pro Einheit ist das nicht so wenig, besonders weil nochmal über 1000 Einheiten für den Rest des Haushalts dazu kommen, da muss die Karte diesmal sehr Sparsam sein, meine 7970 ist untertaktet, normal hat sie 1000MHz, ich lasse sie aber nur mit 900MHz laufen wenn ich spiele, weil da kann ich im Gegensatz zu 1000MHz die Spannung deutlich senken, und trotzdem zieht mein PC noch knapp 300Watt, da ist aber auch ein großer Monitor mit drin.

Auch kann ich das Vorurteil nicht teilen das wenn man sich eine Highend Karte kauft, man nicht auf den Stromverbrauch achtet, ich muss wenigsten 2-3 Monate sparen für eine Highend Karte, also ist nicht jeder Reich der eine Highend Karte im Rechner hat:wink:, deshalb hätte ich mir auch gewünscht das die RX480(kein Highend ich weiß, nur als Übergangskarte) nur 120 Watt braucht, wie viele vorher angenommen haben, das Argument "AC" zieht hier ja nicht, weil meine Karte das auch kann, ist ja eine AMD, keine Nvidia;), aber ich denke das es trotzdem die RX480 wird, als Übergang bis Vega erscheint, bei AMD weiß ich, das DX12/Vulkan auch wirklich funktionieren, das kann ich von der GTX1070 nicht sagen, normal wäre das meine Traumkarte gewesen, ich warte jetzt auf die Nitro oder die Devil, sorry das ich jedesmal einen Roman schreibe, ich versuche nur immer genau mitzuteilen wie das bei mir läuft, leider schaffe ich das nicht in einer kurzen Version, ich weiß das es die meisten nicht interessiert, aber vielleicht kann man mich trotzdem verstehen.

mfg
Frank

WC_ENTE
2016-07-23, 23:59:54
aber da braucht man wirklich Glück, was ich nie habe, meine HD7970 hat einen ASIC von 60,7 :frown:, und so verhält sie sich auch, sie schafft leider nicht mal 1100MHz ohne Erhöhung der Spannung,
Passt doch dafür kannst sie unter Wasser z.b. AiO tretten....

7950 Asic 65, unter AiO 1380Mhz

-/\-CruNcher-/\-
2016-07-24, 00:20:28
Man sieht deutlich das die GTX1060 immer wieder kurz in den fps einbricht, ist zwar nur für einen kurzen Moment, aber bei den beiden anderen ist es mir nicht aufgefallen.

Normal ist die Grafik ganz nett, aber ich kann mit Hitman leider nichts anfangen, alle Stealth Games sind nichts für mich, da kann aber Hitman nix dafür :smile:, ist halt für eine andere Zielgruppe.

Für mich ist Doom genau das richtige, kein Nachladen und ohne zu überlegen immer auf Angriff.

Nochmal zum Video, alle 3 Karten liefern genug fps, an wenigen Stellen ist sogar die GTX970 gleich auf, dafür das sie kein echtes DX12 kann ist es eigentlich sehr gut, wenn man noch bedenkt das sie einen sehr beschnittenen Speicher hat, ist es sogar besonders gut wie sie sich schlägt.

Vom Stromverbrauch denke ich das bei den Taktraten die GTX1060 am wenigsten verbraucht, die GTX970 bestimmt eine ganze Menge mehr, der Takt ist ja sehr hoch, bei der RX480 weiß ich nicht genau, gibt noch zu wenig Erfahrungswerte, aber ich denke sie wird auch eine Menge ziehen, ich denke mit etwas Glück bekommt man auch eine RX480 die 1400MHz unter Luft mitmacht, aber da braucht man wirklich Glück, was ich nie habe, meine HD7970 hat einen ASIC von 60,7 :frown:, und so verhält sie sich auch, sie schafft leider nicht mal 1100MHz ohne Erhöhung der Spannung, und Undervolten ist auch fast nicht drin, ich hoffe ich habe bei meiner nächsten GK mehr Glück, egal von welchem Hersteller, aber 1350MHz bei einer RX480 würde mir reichen, wenn ich diese Karte hätte:smile:., in den Meisten Test bis jetzt halten die RX480 nicht mal 1200MHz, aber das wird mit den Customs anders.

Um etwas genauer auf den Stromverbrauch einzugehen, bei mir ist der wirklich wichtig, ich habe pro Jahr etwas über 1000 Einheiten nur für meinen PC:redface:, und bei 28 Cent pro Einheit ist das nicht so wenig, besonders weil nochmal über 1000 Einheiten für den Rest des Haushalts dazu kommen, da muss die Karte diesmal sehr Sparsam sein, meine 7970 ist untertaktet, normal hat sie 1000MHz, ich lasse sie aber nur mit 900MHz laufen wenn ich spiele, weil da kann ich im Gegensatz zu 1000MHz die Spannung deutlich senken, und trotzdem zieht mein PC noch knapp 300Watt, da ist aber auch ein großer Monitor mit drin.

Auch kann ich das Vorurteil nicht teilen das wenn man sich eine Highend Karte kauft, man nicht auf den Stromverbrauch achtet, ich muss wenigsten 2-3 Monate sparen für eine Highend Karte, also ist nicht jeder Reich der eine Highend Karte im Rechner hat:wink:, deshalb hätte ich mir auch gewünscht das die RX480(kein Highend ich weiß, nur als Übergangskarte) nur 120 Watt braucht, wie viele vorher angenommen haben, das Argument "AC" zieht hier ja nicht, weil meine Karte das auch kann, ist ja eine AMD, keine Nvidia;), aber ich denke das es trotzdem die RX480 wird, als Übergang bis Vega erscheint, bei AMD weiß ich, das DX12/Vulkan auch wirklich funktionieren, das kann ich von der GTX1070 nicht sagen, normal wäre das meine Traumkarte gewesen, ich warte jetzt auf die Nitro oder die Devil, sorry das ich jedesmal einen Roman schreibe, ich versuche nur immer genau mitzuteilen wie das bei mir läuft, leider schaffe ich das nicht in einer kurzen Version, ich weiß das es die meisten nicht interessiert, aber vielleicht kann man mich trotzdem verstehen.

mfg
Frank

Weiss genau was du meinst mir macht das auch noch Kopfzerbrechen vor allem mit diesen unrealistischen non Framerate locked tests bei 1080p bei denen zu viel overhead an sich generiert wird der absolut Nutzlos ist und eine Stromsparende Architektur ansich schon benachteiligt ohne lock mit OC provoziert man nur solche extremen fluktuationen und instabillität dann zusätzlich.

Quantum Brake Tests sind dort fairer mit dem 60 FPS lock aber man darf auch nicht vergessen Hitman ist schon komplex was das Crowd Rendering angeht und das ist schon einiges an CPU Overhead was da Pro Frame generiert wird, das dann teils mit einem 16.6 ms Ergebniss hinzubekommen für so eine Masse + Rendering Overhead gebührt genauso respekt vor allem auf einem I5 und unter einer neuen API ;)

Doom ist das einzige wo ich das 10 ms target auch vom Gameplay her sinvoll finde vor allem im Zuge von VR sind 10 ms mit einer Hybrid Engine schon extreme nice bin sehr gespannt auf das Doom VR Showcase Experience :)

WC_ENTE
2016-07-24, 00:30:03
Wenn es wenigstens eine 4GiB 480 gäbe für einen vertretbaren Preis,
aber nein nichts lieferbar oder wenn dann überteuert.

so wird das bei Bekannten nichts:rolleyes:

Schaffe89
2016-07-24, 10:49:05
Geh und kauf dir ein Leben wenn du sonst keines hast. Da haben alle mehr davon.

Ein guter Ausgleich zu denen die immer nur die AMD freundlichsten Werte posten.
Um bei dem Beispiel zu bleiben die nitro zieht da mal 75 Watt mehr als das Referenzdesign der GTX 1060, da sind wir schon wieder in Hawai ähnlichen Regionen.
Ich hol mir die Woche noch eine rx480 und vergleich mal ein bisschen mit der GTX 1060, die bessere Karte wandert dann in den Spiele PC.

dildo4u
2016-07-24, 10:58:48
AMD Radeon RX 480: 4GB vs 8GB - Do You Need The Extra VRAM?

https://youtu.be/JjTUtUF6gxg

Undertaker
2016-07-24, 11:26:00
Ich halte nach wie vor wenig davon, eine Karte mit sinnlosen (d.h. den optischen Zugewinn nicht aufwiegenden) Settings zu überfahren. Die verfügbare Rechenleistung lässt sich an anderer Stelle definitiv sinnvoller investieren.

Raff
2016-07-24, 11:34:35
Zumindest Texturen kosten keine (oder nur minimal) Leistung, sofern der Speicher dafür da ist.

Speichervergleiche jeder Art sind schwierig. Weil die Unterschiede so selten bei der Bildrate sichtbar ist, herrscht der allgemeine Konsens, dass 4 GiByte "bei dieser Leistungsklasse ausreichen", mit der Begründung, dass die Unterschiede erst in UHD auftreten. Das tun sie aber nicht, sie verstärken sich lediglich auf das Niveau "auf die Fresse statt subtil" – deswegen werden auch gern fiese Tests hergenommen, um Unterschiede zu zeigen. Das Kernproblem ist, dass die Fps nur die Spitze des Eisbergs sind. Wer schon ein paar Jahre am PC spielt, erinnert sich an die Fälle, wo ein Spiel beispielsweise mit 2× MSAA spielbar war und beim Schritt auf 4× MSAA zur Diashow wurde. Das gibt's heute nicht mehr, lange bevor etwas einbricht, blenden moderne Spiele Details aus oder erlauben erst gar keine maximale Qualitätsstufe im Menü. Daraus folgt: Eine 4-GiByte-Grafikkarte mag fps-mäßig noch mitkommen, allerdings nur durch Weglassen von Details. Die Spiele werden hässlicher. Meist fällt das nicht auf, ist aber Fakt. Ein paar Beispiele, die mit spontan einfallen:

– Doom: Erlaubt erst mit einer 6-GiB-Karte maximale Schatten- und Pages-Details (Nightmare)
– CoD Black Ops 3: Lässt auf einer 4-GiB-Karte nicht maximale Details zu (welche genau: müsste ich nachsehen)
– Rise of the Tomb Raider: "Sehr hoch"-Texturen stottern mit 4 GiB stark und mit sechsen zumindest nach dem Laden und Betreten neuer Gebiete
– Mirror's Edge Catalyst: Blendet schon mit dem Ultra-Presets auf einer 4-GiB-Karte Details aus, bei Hyper erst recht
– The Division neigt ab WQHD mit Ultra-Details zum selektiven Weglassen der höchsten Texturstufe

Wer jetzt eine 4-GiByte-Grafikkarte kauft, sollte wissen, dass die schon jetzt am Ende ist. 6 GiByte werden auch hin und wieder knapp (ROTTR, Mirror's Edge), nur 8 GiByte sind Stand jetzt problemlos und somit auch der Zukunft gewachsen. Hmm, das reicht nach Kolumne. :)

MfG,
Raff

DerKleineCrisu
2016-07-24, 12:02:54
@Raff

Das werden aber die wenigsten Wissen und wenn das nicht
auf den " großen " Seiten breit getreten wird ( z.b.Gamestar, Computerbase, PCGHW )
wird es kaum jemanden interessieren.
Nein im Gegenteil die Meinung wird bleiben das ja 4GB oder 6GB reichen weil ja in
" Ultra-Details " Einstellung brauchbare FPS erhalten bleiben und nicht
mitbekommen das Details ausgeblendet werden.

Undertaker
2016-07-24, 12:13:20
Der Knackpunkt ist doch eher: Wie ist der optische Zugewinn von hoch auf sehr hoch/ultra/etc.? Wirklich besser werden die Texturen da leider in den seltensten Fällen, stattdessen wird einfach mal die Komprimierung deaktiviert und ähnliches. Bestes Beispiel für einen sinnlosen, weil im Alltag praktisch nicht sichtbaren Speicherfresser, auf den man durchaus gerne verzichten kann. Zumindest, wenn die Preisdifferenz zwischen 4 und 8 GB wieder (deutlich) größer als die aktuellen 10-20 Euro werden sollte, wovon vermutlich auszugehen ist.

Bei gleichem Preis würde ich immer eine Nano ggü. einer RX 480 8GB vorziehen. :) Leider steht diese Wahl aktuell nicht zur Debatte...

Ätznatron
2016-07-24, 12:20:12
@Raff

na, erkennst du die Unbelehrbeit einiger Leute?

Mit Fakten brauchst du denen nicht zu kommen, im Zweifel zählt dann der subjektive Eindruck von angeblich nicht besserer Darstellungsqualität.

Lurtz
2016-07-24, 12:29:16
Der Knackpunkt ist doch eher: Wie ist der optische Zugewinn von hoch auf sehr hoch/ultra/etc.? Wirklich besser werden die Texturen da leider in den seltensten Fällen, stattdessen wird einfach mal die Komprimierung deaktiviert und ähnliches. Bestes Beispiel für einen sinnlosen, weil im Alltag praktisch nicht sichtbaren Speicherfresser, auf den man durchaus gerne verzichten kann. Zumindest, wenn die Preisdifferenz zwischen 4 und 8 GB wieder (deutlich) größer als die aktuellen 10-20 Euro werden sollte, wovon vermutlich auszugehen ist.

Bei gleichem Preis würde ich immer eine Nano ggü. einer RX 480 8GB vorziehen. :) Leider steht diese Wahl aktuell nicht zur Debatte...
Warum wird die Frage beim VRam gestellt, nicht bei sonstigen Settings? Die meisten benchen eben mit "Ultra"/dem maximal möglichen.

Und vor allem: Wer definiert wo der Knackpunkt, ggf. noch je nach IHV, liegt? ;)

iuno
2016-07-24, 12:29:53
Hmm, das reicht nach Kolumne. :)
:up:
Wäre gut, wenn Vergleichsbilder dabei wären, das habt ihr ja z.B. bei ME:C auch schon so gemacht, iirc.

Nuon
2016-07-24, 12:30:51
Gibt es die Möglichkeit das Fehlen von Details bei nur 4GB mit Screenshots unter Beweis zu stellen?

Karümel
2016-07-24, 12:39:55
:up:
Wäre gut, wenn Vergleichsbilder dabei wären, das habt ihr ja z.B. bei ME:C auch schon so gemacht, iirc.

Kollume reicht nicht, ein richtig großer Artikel wäre meiner Meinung nach her so etwas wert.

horn 12
2016-07-24, 12:49:11
Ach Raff und die gesamte Sippschaft ist Pro NV eingestellt.
Texturen auf Hoch macht auch keinen Beinbruch!

iuno
2016-07-24, 12:50:33
:facepalm:
classic horn

Undertaker
2016-07-24, 12:54:50
Mit Fakten brauchst du denen nicht zu kommen, im Zweifel zählt dann der subjektive Eindruck von angeblich nicht besserer Darstellungsqualität.

Ist es nicht etwas absurd, dass du Worte wie "Fakten" und "angeblich" verwendest, ohne in deinem Posting mehr als zwei inhaltsleere Sätze zu bringen? Dass z.B. die erwähnte Abschaltung von Komprimierungen den Speicherhunger extrem vergrößert, ohne optisch wirklich erkennbar zu sein, wurde schon an unzähligen Spielen untersucht. Belies dich doch dazu ein wenig. :)

Warum wird die Frage beim VRam gestellt, nicht bei sonstigen Settings? Die meisten benchen eben mit "Ultra"/dem maximal möglichen.

Es wäre imo zweifellos sinnvoll, angesichts der steigenden Monitorauflösungen Mittelklasse-GPUs nicht in Winzauflösungen @ Ultra, sondern höherer Auflösung in reduzierten Settings zu testen. Ich verstehe aber, dass der Zeitrahmen begrenzt ist und dafür andere Settings entfallen müssten.

Eigentlich wäre das ganze ein schöner Aufhänger für einen breit angelegten RX 480 4 vs. 8 GB Artikel.

y33H@
2016-07-24, 12:59:49
Ach Raff und die gesamte Sippschaft ist Pro NV eingestellt. Texturen auf Hoch macht auch keinen Beinbruch!Made my day! ;D

Dino-Fossil
2016-07-24, 13:01:24
Ich halte nach wie vor wenig davon, eine Karte mit sinnlosen (d.h. den optischen Zugewinn nicht aufwiegenden) Settings zu überfahren. Die verfügbare Rechenleistung lässt sich an anderer Stelle definitiv sinnvoller investieren.

Das stimmt wohl. Ich kann sogar Witcher 3 auf meiner antiquierten 7850 2GB relativ gut spielen, wenn ich sinnvolle Einstellungen wähle (die dann durchaus nicht so niedrig ausfallen).
Da wäre ein auf das Verhältnis Grafikpracht zu fps "optimierter" Benchmark sicherlich bei Mittelklasse-Karten eine sinnige Sache.
Allerdings müsste man zum einen eben eine sinnvolle (und vergleichbare) Einstellung finden, zum anderen wohl trotzdem noch mit höchsten Einstellungen gegentesten, um die Vergleichbarkeit mit den High-End Modellen zu wahren (oder wenigstens diese Modelle mit Mid-Range-optimierten und maximalen Einstellungen testen).

Und ob die Reviewer sich die Mühe mit diesem Zusatzaufwand machen wollen, ist wohl die entscheidende Frage.

iuno
2016-07-24, 13:04:29
Steigende Monitorauflösungen?
Die überwiegende Mehrheit spielt doch noch in fhd, ich denke weit weniger Spieler haben einen wqhd oder uhd monitor als eine hochkarätige Grafikkarte.
Kenne auch Leute die sich lieber den dritten fhd auf den Tisch stellen, einfach weil man sich gar keine Gedanken darüber macht. Ja, zum arbeiten praktisch aber wenn man darauf auch spielt darf es doch auch mal was ordentliches sein

Botcruscher
2016-07-24, 13:13:17
Die Masse dürfte schlicht den billigsten 24" haben. Die Qualität wird von den Notebooks aber noch mal ganz locker unterschritten.

Argo Zero
2016-07-24, 13:30:44
Und ob die Reviewer sich die Mühe mit diesem Zusatzaufwand machen wollen, ist wohl die entscheidende Frage.

Problem an der Sache ist, dass die Einstellungen sehr individuell sind und stark vom persönlichen Geschmack abhängen.
Mich stören zum Beispiel weniger Vegetation in Spielen überhaupt nicht, da ich davon in der Regel Augenkrebs bekomme. Das ist natürlich dann ein enormer Performance-Bosst.

Ätznatron
2016-07-24, 13:32:21
Ist es nicht etwas absurd, dass du Worte wie "Fakten" und "angeblich" verwendest, ohne in deinem Posting mehr als zwei inhaltsleere Sätze zu bringen? Dass z.B. die erwähnte Abschaltung von Komprimierungen den Speicherhunger extrem vergrößert, ohne optisch wirklich erkennbar zu sein, wurde schon an unzähligen Spielen untersucht. Belies dich doch dazu ein wenig. :)

Du bist halt beratungsresistent.

Wenn Raffs Beitrag dich schon nicht überzeugt, ist jede weitere Diskussion sinnlos.

Bleib du mal ruhig bei deiner antiquierten Sichtweise, so falsch die auch ist.

DerKleineCrisu
2016-07-24, 13:40:40
Die Masse dürfte schlicht den billigsten 24" haben.

Daran ist aber auch der Markt daran schuld , für einen
" brauchbaren " 24" muss man halt vielleicht 250 Euro zahlen.

Der Rest erledigen die " Ich bin doch nicht Blöde " Märkte.
Die wollen auch nur Billig einkaufen und Teuer Verkaufen.

Die breite Masse kauft halt nur in solchen Märkten ein und lassen
sich von den dortigen " Fachkräften " fachgerecht beraten.

Undertaker
2016-07-24, 13:41:02
@ Ätznatron: Ich muss leider arg daran zweifeln, dass du die bisherigen Beiträge – inkl. dem von Raff – gelesen und verstanden hast. Keiner bestreitet, dass sich der Speicher der RX 480 4 GB überfahren lässt. Die Diskussion drehte sich vielmehr darum, ob entsprechende Settings auf einer Mittelklasse-Karte wie der RX 480 wirklich sinnvoll sind, siehe dazu auch die Aussage von Dino-Fossil. Daran gibt es berechtigtermaßen Zweifel, und deshalb sehe ich bei entsprechendem Preis die 4GB Version als durchaus überlegenswert an. Hirnlos alle Regler nach rechts schieben geht in dieser Preisklasse eh nicht immer und überall (schon gar nicht nach 1-2 Jahren), dann kann man auch gleich selektiv sinnvolle Anpassungen treffen.

RoughNeck
2016-07-24, 13:44:37
Ach Raff und die gesamte Sippschaft ist Pro NV eingestellt.
Texturen auf Hoch macht auch keinen Beinbruch!

Ja genau,

ALLE sind gegen AMD. Ist auch gut so, AMD baut nur Müll und wer so schlechte Karten baut, gehört abgestraft (wer Ironie findet, bekommt einen Keks).

Jetzt mal im ernst.
Du bist selbst schuld wenn du dir eine 4GB Karte gekauft hast.

Ätznatron
2016-07-24, 13:54:24
[...]

Dir empfehle ich dringend, von deinem hohen Ross runterzukommen.

Kartenlehrling
2016-07-24, 14:06:23
@Dildo hat doch gerade ein Video von DigitalFoundry zu Mirror's Edge Catalyst und 4gb Grafikkarte unter 1080p/Hyper geposte.
Da reichen nach einem update plötzlich auch die 4gb, was für ein Wunder !!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11112102&postcount=500

Fliwatut
2016-07-24, 14:13:18
Ich zocke FullHD, mir reichen 60fps mit VSync, anstatt MSAA oä. nutze ich eher downsampling, extrem leistungsfressende Features kann ich auch mal eine Stufe niedriger stellen, ich möchte aber scharfe und hochaufgelöste Texturen haben. Also ist die RX 480 für mich besser als die Fury mit 4GB? Oder doch die 1060 mit 6GB?

captain_drink
2016-07-24, 15:37:02
@Dildo hat doch gerade ein Video von DigitalFoundry zu Mirror's Edge Catalyst und 4gb Grafikkarte unter 1080p/Hyper geposte.
Da reichen nach einem update plötzlich auch die 4gb, was für ein Wunder !!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11112102&postcount=500

Speicherschutz an?

Dino-Fossil
2016-07-24, 16:20:02
Problem an der Sache ist, dass die Einstellungen sehr individuell sind und stark vom persönlichen Geschmack abhängen.
Mich stören zum Beispiel weniger Vegetation in Spielen überhaupt nicht, da ich davon in der Regel Augenkrebs bekomme. Das ist natürlich dann ein enormer Performance-Bosst.

Stimmt schon, aber zunächst kann man ja einzelne Regler, von denen bekannt ist, dass sie viel kosten, aber im Vergleich keinen großen Zugewinn bringen, absenken.
Beispiel wie von dir genannt die Vegetation - die schaut auch auf Medium oft gut aus, macht aber einiges an Ressourcen frei.
Entfernungsdetails sind auch etwas, bei dem man oft mit etwas niedrigeren Einstellungen kaum sichtbare Verluste hat und ein paar fps gewinnt.
Schatten(auflösung) wäre noch ein Kandidat.
Wobei das natürlich immer vom jeweiligen Spiel abhängt.
Natürlich kann sich kein einzelner Tester die Mühe machen, dass alles selbst zu testen, aber es gibt ja Tweaking Guides im Netz, die da gute Vorarbeit leisten.

Die gefundenen Einstellungen mögen dann von den persönlichen Vorstellungen in Details abweichen, sollte aber eine erste Annäherung an die Problematik liefern - wichtig ist natürlich zu dokumentieren, wie getestet wurde.

Ich glaube HardOCP hat teilweise auch so getestet, dass sie schauen, wie hoch ich Einstellungen fahren kann, ohne unter bspw. 60 fps zu fallen.

WC_ENTE
2016-07-24, 16:36:56
– Doom: Erlaubt erst mit einer 6-GiB-Karte maximale Schatten- und Pages-Details (Nightmare)
– CoD Black Ops 3: Lässt auf einer 4-GiB-Karte nicht maximale Details zu (welche genau: müsste ich nachsehen)
– Rise of the Tomb Raider: "Sehr hoch"-Texturen stottern mit 4 GiB stark und mit sechsen zumindest nach dem Laden und Betreten neuer Gebiete
– Mirror's Edge Catalyst: Blendet schon mit dem Ultra-Presets auf einer 4-GiB-Karte Details aus, bei Hyper erst recht
– The Division neigt ab WQHD mit Ultra-Details zum selektiven Weglassen der höchsten Texturstufe

Das hat nichts mit brauchen zu tun,
sondern der Spielentwickler übernimmt die Aufgabe des GK Herstellers und versucht für höhere Details den Nutzer zu zwingen.

Manch Spiel differenziert nicht einmal ob man mit 1366x768 o. 2560x1440 spielt.

Lurtz
2016-07-24, 17:06:04
Speicherschutz an?
So wie ich Digital Foundry kenne, haben sie das nicht mal angegeben.

Das hat nichts mit brauchen zu tun,
sondern der Spielentwickler übernimmt die Aufgabe des GK Herstellers und versucht für höhere Details den Nutzer zu zwingen.

Manch Spiel differenziert nicht einmal ob man mit 1366x768 o. 2560x1440 spielt.
Raffs Meinung dazu ist doch seit längerem klar: Entweder man jammert über die Spieleentwickler, oder man kauft Hardware, die damit klar kommt.

dargo
2016-07-24, 17:11:31
Es wäre imo zweifellos sinnvoll, angesichts der steigenden Monitorauflösungen Mittelklasse-GPUs nicht in Winzauflösungen @ Ultra, sondern höherer Auflösung in reduzierten Settings zu testen.
Eine RX480 ist ne perfekte 1080p Grafikkarte, für das eine oder andere Spiel wirds sicherlich auch für 1440p reichen wenn man nicht alle Details @max. stellt. Ok... bei Doom geht auch das problemlos. :D Für 4k ist so eine Karte gar nicht gedacht. 1080p ist übrigens immer noch die gängigste Auflösung am PC.

x-force
2016-07-24, 17:18:40
wann werden es die ersten leute blicken, daß die rechenlast/darstellungsgeschwindigkeit nicht (nur) von der auflösung abhängt?
es gibt keine 4k full hd oder sonstwas karten. das sind marketingbegriffe, die von leuten geschaffen wurden, die keine ahnung haben!

eine karte hat eine leistung x, die in spiel y, bei detailgrad z, entweder auflösung a oder auflösung b flüssig ermöglicht.
du kannst auch mit ner polaris in 4k spielen, musst dann aber mehr details als für fullhd runter drehen.

solche pauschalen aussagen disqualifizieren euch eher, als daß damit jemandem geholfen ist.

Lurtz
2016-07-24, 17:33:52
wann werden es die ersten leute blicken, daß die rechenlast/darstellungsgeschwindigkeit nicht (nur) von der auflösung abhängt?
es gibt keine 4k full hd oder sonstwas karten. das sind marketingbegriffe, die von leuten geschaffen wurden, die keine ahnung haben!

eine karte hat eine leistung x, die in spiel y, bei detailgrad z, entweder auflösung a oder auflösung b flüssig ermöglicht.
du kannst auch mit ner polaris in 4k spielen, musst dann aber mehr details als für fullhd runter drehen.

solche pauschalen aussagen disqualifizieren euch eher, als daß damit jemandem geholfen ist.
Das hat sich die Masterrace aus der Konsolenwelt reingeholt, man bewirbt Spiele ja heute auch gerne als 4k-ready, obwohl das nur eine Auflösung wie jede andere ist.

StefanV
2016-07-24, 17:54:23
Manch Spiel differenziert nicht einmal ob man mit 1366x768 o. 2560x1440 spielt.
Wie wärs mal mit Mathe?!

1366x768 = 1.049.088 x 32 = 4MiB
2560x1440 = 3.686.400 x 32 = 14MiB

Glaubst du Ernsthaft, dass diese 10MiB/Frame bei modernen Grafikkarten mit Speicher im Gigabyte Bereich überhaupt irgendwie interessieren?!

(del)
2016-07-24, 18:00:38
Die Menge des zur Verfügung stehenden Speichers ist nur eine Facette, denn man muss auch die restlichen Faktoren wie Interface, Kompression etc mit heranziehen. Und natürlich die überwiegenden Spiel- und Einstellungs-Gewohnheiten der Zielgruppe, die man eben nicht in den Foren findet.

Allein nur mit den GB zu jonglieren, halte ich deutlich für zu kurz gesprungen.

WC_ENTE
2016-07-24, 18:03:14
Glaubst du Ernsthaft
Hohes Ross?!

Ich spiel noch immer auf einer 6670:tongue:

Schaffe89
2016-07-24, 20:52:04
Der Artikel von Raff ist nach meiner ganz persönlich Meinung einfach nur übertriebener Blödsinn.
Selbst wenn es seine eigene Meinung ist halte ich solche Aussagen dann schon eher für das übliche Niveau im PCGH Forum:

"Daher rate ich jedem, der seine Grafikkarte länger als ein paar Monate verwendet, zu einer 8-GiByte-Grafikkarte"

Also ich finde den Satz hätte man doch dann eher streichen sollen.

Lurtz
2016-07-24, 20:55:34
Es ist ein Kommentar.

Raff vertritt diese Meinung hier seit Jahren. Und er hatte auch schon oft genug Recht (danke noch mal für die Empfehlung zur HD 7950 damals, Raff :up:).

dargo
2016-07-24, 20:57:54
Der Artikel von Raff ist nach meiner ganz persönlich Meinung einfach nur übertriebener Blödsinn.

Lass mich raten... hätte die GTX1060 8GB Speicher wäre alles in Butter. :freak: Du bist so berechenbar. :tongue:

uweskw
2016-07-24, 21:37:36
http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Specials/4-GB-vs-8-GB-vs-6GB-1202557/

Wo er recht hat, hat er recht. Sich wegen 20€ die Karte mit weniger Speicher zu kaufen macht wirklich keinen Sinn. Es sei denn man kann den Rest per Bios-Mod freischalten :biggrin:

Zitat:
PC Games Hardware denkt darüber nach, das Gesagte erneut mithilfe eines Speicherspecials zu untermauern - was halten Sie davon?

Begeistert, da würde ich mir sogar das Heft kaufen.
Ist aber wenn man es richtig machen will sehr aufwendig. Ich bin gespannt wie die 480 4GB abschneidet. Und auf FuryX.
Ich hatte irgend wo mal einen SLI Vergleich 6GB 980Ti mit 4GB FuryX gesehen. Da liefen die 980Ti eher ins Speicherlimit als die Furys. Vielleicht kann man da einiges verkehrt machen.

greetz
US

Linmoum
2016-07-24, 21:44:46
Ob's jetzt ein paar Monate sind kann jeder für sich selbst entscheiden, für so abwegig halte ich Raffs Sichtweise da aber nicht.

Ansonsten denke ich persönlich, dass jeder, der momentan und in den kommenden Wochen vor dem Kauf einer Grafikkarte steht und weiß, dass er sie minimum ein Jahr lang im Rechner behalten will, eher zu einer mit 8GB greifen sollte.

Es ist ein Kommentar.

Raff vertritt diese Meinung hier seit Jahren. Und er hatte auch schon oft genug Recht (danke noch mal für die Empfehlung zur HD 7950 damals, Raff :up:).
Bin auch froh, dass ich damals aufgrund der 3GB den Griff zur 7970 getätigt habe. Werde ich auch weiterhin so handhaben, die Karte mit mehr zu nehmen, auch wenn's für den ein oder anderen auf den ersten Blick nicht zwingend nötig erscheint.

Ansonsten Daumen hoch zum Speicherspecial!

Dino-Fossil
2016-07-24, 21:51:52
Interessant fände ich in dem Zusammenhang aber, wie z.B. eine 4GB Karte eventuelle Leistungseinbrüche durch niedrigere Einstellungen abfedern kann und wie die dann ausfallen.
Also z.B. "nur" hohe Texturdetails statt ultra?
Wie hoch sind in der Praxis die zu erwartenden Einbusen bei der Optik?

x-force
2016-07-24, 22:01:42
mit der lupe zu suchen bis stark, hängt von der engine und dem willen der programmier ab.

bei cod ultra texturen werden nur die displays höher aufgelöst dargestellt.
nebenher ist seine aussage auch falsch, daß man zwingend mehr als 4gb braucht um die option zu aktivieren. es läuft dann nur schlechter, klassische nachladeruckler.
so war es zumindest mit meiner alten gtx 980. ich musste nur schatten und texturen von ultra eine stufe runter stellen und alles war wieder im lot. 60fps vsync durchgehend mit ingame oversampling.

ich teile aber auch die ansicht, daß die rohperformance in der 480/1060 klasse eh zu niedrig ist um alles auf max zu spielen.

cod speicherverbrauch rechtfertigt in keinster art die gebotene optik. das ist einfach faulheit der entwickler. odentliche texturen gab es schon vor zig jahren z.b. mit dem cinematic mod für hl2. da hat man von 4gb karten geträumt. trotzdem stecken diese texturen die von cod ohne weiteres in die tasche.
croteam zaubert auch immer fototexturen. es geht also, wenn man will.

http://www.abload.de/img/s3tc_800x600x32_0415hd.jpg
das ist der stand von vor ~15 jahren.

-=Popeye=-
2016-07-24, 22:15:21
Ist doch ganz einfach.

Was kostet heutzutage am meisten Performance in Spielen?

Richtig... unkomprimierte Texturen, hochauflösende Schatten und der HBAO Kram (was einem in der Bewegung überhaupt nicht auffällt)... wenn man dies alles einfach (je nach Vorlieben bzw gesunder Mix aus allem) eine Stufe runter stellt klappt es auch mit ordentlich FPS ohne wirklich Qualität zu verlieren.

Fliwatut
2016-07-24, 22:27:17
Dann reicht auch einen GTX 950 für FullHD.

iuno
2016-07-24, 22:39:21
http://www.abload.de/img/s3tc_800x600x32_0415hd.jpg
das ist der stand von vor ~15 jahren.
Sieht ja echt brutal gut aus, dort wo der Putz ab ist, die Waffe und die Bumpmap :eek:
Es ist halt schon ein Unterschied, ob man eine Wand ordentlich tapeziert oder durchgaengig ueber grosse Level oder gar offene Welten konsistent hohe Qualitaet bietet.

Lurtz
2016-07-24, 22:50:50
Ist doch ganz einfach.

Was kostet heutzutage am meisten Performance in Spielen?

Richtig... unkomprimierte Texturen, hochauflösende Schatten und der HBAO Kram (was einem in der Bewegung überhaupt nicht auffällt)... wenn man dies alles einfach (je nach Vorlieben bzw gesunder Mix aus allem) eine Stufe runter stellt klappt es auch mit ordentlich FPS ohne wirklich Qualität zu verlieren.
HBAO kostet am meisten Performance? Das möchte ich sehen.

Dino-Fossil
2016-07-24, 22:53:45
Wenn er den Worten Taten folgen lässt und wir einen gut ausgearbeiteten Artikel zur Problematik sehen, werde ich den jedenfalls gerne lesen.
Ich hoffe nur, dass er dann über "keine Kompromisse bei der Bildqualität" hinausgeht und eben auch testet, welche Kompromisse man eingehen muss um ein flüssiges Spielerlebnis zu garantieren.

Ganz so eng sehe ich es nicht, dass 8GB @FullHD bereits ein Muss sind, aber eine gewisse Sicherheit geben sie sicherlich.

Thunder99
2016-07-24, 23:15:33
Alte Spiele sahen besser aus und haben weniger Speicher benötigt. Es wird halt nicht mehr die nötige Arbeit gemacht sondern dem Kunden gesagt, Kauf besser die 8GB Karte oder Spiele halt mit schlechtere Qualität.

Willkommen in der schönen neuen Welt. Daher muss man schon >4GB Karten kaufen obwohl es nicht zwingend notwendig wäre

blaidd
2016-07-24, 23:19:03
bei cod ultra texturen werden nur die displays höher aufgelöst dargestellt.
nebenher ist seine aussage auch falsch, daß man zwingend mehr als 4gb braucht um die option zu aktivieren.

Das ist nicht falsch, sondern ins Spiel reingepatcht worden. Es gehen mit 4 GiByte keine Extra-Texturen, nicht die maximale Stufe bei Order Independent Transparency und wenn ich mich recht erinnere, keine Extra-Schatten.

Die Speicherbelegung ist bei Call of Duty seit Advanced Warfare aber auch absolut keine aussagekräftige Größe, denn das Spiel haut nach Möglichkeit 90 % des Grafikspeichers voll. Das kann reichen oder auch nicht.

WC_ENTE
2016-07-24, 23:26:48
Sich wegen 20€ die Karte mit weniger Speicher zu kaufen macht wirklich keinen Sinn.

Falsch Custom 4 zu 8GB wird es vorzeitig auf 40 euro Differenz hinauslaufen,
40 euro hier, 40 euro da, 40 euro dort, dann kann man gleich eine 1070 kaufen


Nebenbei ist der Preis ein Witz,
2016: Custom RX 480, 250 euro für 4GB
2014: Custom R9 290, 245 euro für 4GB

(Ja Kurs hin oder her, ein Hawaii Chip war teurer)

Screemer
2016-07-24, 23:45:30
http://www.abload.de/img/s3tc_800x600x32_0415hd.jpg
das ist der stand von vor ~15 jahren.

Das ist im übrigen Unrealengine und hat mit croteam mal gar nix zu tun. Das war der s3tc showcase. Bist vielleicht zu jung ;) das ganze ist im übrigen hier völlig ot. Dschte es gäbe was neues zu 480 customs aber nein wieder mal 3 Seiten Gelaber über nicklichkeiten die mit der 480 grad mal seheeer seeeehhhhrrr weitläufig etwas zu tun haben.

AlphaNUSS
2016-07-24, 23:53:45
Gerade Leute die ihre Karte 2-4 Jahre im Einsatz haben lohnt sich der extra Vram. Und vielleicht legt man sich in der zeit auch noch einen neuen Monitor mit höherer Auflösung zu.

Thunder99
2016-07-25, 00:13:15
Falsch Custom 4 zu 8GB wird es vorzeitig auf 40 euro Differenz hinauslaufen,
40 euro hier, 40 euro da, 40 euro dort, dann kann man gleich eine 1070 kaufen


Nebenbei ist der Preis ein Witz,
2016: Custom RX 480, 250 euro für 4GB
2014: Custom R9 290, 245 euro für 4GB

(Ja Kurs hin oder her, ein Hawaii Chip war teurer)
Da wäre ich mir nicht so sicher...

40€ hin oder her. Da sollte man schon darauf achten. Aber die wären bei 8GB VRAM besser investiert als ein Spiel zum Vollpreis zu kaufen was noch verbuggt ist ;). Die 1070 spielt nebenbei in einer ganz anderen Liga

x-force
2016-07-25, 00:19:17
Das ist im übrigen Unrealengine und hat mit croteam mal gar nix zu tun.


wirklich? wäre ich nicht drauf gekommen :freak:

Bist vielleicht zu jung ;)

keine sorge, ich bin mit 3d beschleunigter grafik groß geworden.

aber du bist vielleicht etwas schwach in deiner erinnerung, oder im lesen, denn ich schrieb nirgendwo, daß der screenshot von croteam ist, lediglich, daß er zeigt wie es vor 15 jahren aussehen konnte ;)