PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24

dargo
2016-07-20, 12:27:25
Die Verfügbarkeit lässt bei beiden IHVs etwas zu wünschen übrig. Mich wundert das aber nicht unbedingt bei einem neuen Prozess und den "niedrigen" Preisen. Die Nachfrage ist einfach zu hoch in dem Preisbereich.

Schlammsau
2016-07-20, 12:52:15
Bei AMD am meisten, 3 Wochen seit Release und die 4GB Version absolute Mangelware und die Customs starten frühestens nächste Woche in homöopathischen Dosen ...

Gefällt mir gar nicht!

Linmoum
2016-07-20, 12:54:42
Die 4GB kommen ja auch von den AIBs und nicht von AMD selbst.

Sprich wenn die Customs kommen wirst du auch die 4GB genug finden. Gigabyte hat ja schon eine "vorgestellt". Auch die Nitro von Sapphire ist schon bekannt.

Messias
2016-07-20, 13:21:06
Allerdings wirklich sehr, sehr schade, daß AMD offenkundig aus Vorsicht oder weil der Prozeß noch nicht so rund läuft bei GF nicht so viele Chips vorproduziert hat/produzieren konnte, um die hohe Nachfrage jetzt vollumfänglich bedienen zu können.

Die Gründe hierfür würden mich mal interessieren... denn das Geschäft mit dem Midrange/Performance Sektor ist ja auch stark von den umgesetzten Stückzahlen abhängig. Pro verkaufter Karte ist der Gewinn ja nicht so hoch, weshalb es die Masse machen muss.

inspectah
2016-07-20, 13:24:59
Schon die Referenzkarten halten trotz der hohen Temperaturen bereits mit -0,1V in sehr vielen Fällen den Takt und steigen dadurch natürlich die Leistung.
This.
Meine Stock-Voltage ist mit 1150mV sehr hoch (schlechter Asic Wert von nur 69%).
Habe undervolted auf 1070mV und gerade mal +10% Powertarget, die Karte hält nun jederzeit die 1266Mhz und wir dabei 77-80°C warm mit dem Lüfter auf knapp 3000 RPM.
Keine Traumwerte und mit besserem Chip geht sicherlich mehr, aber ich bin voll zufrieden mit der Leistung und das für gerade mal 240€ die ich bei MF für die 8GB Variante gezahlt habe.

AtTheDriveIn
2016-07-20, 13:30:39
This.
Meine Stock-Voltage ist mit 1150mV sehr hoch (schlechter Asic Wert von nur 69%).
Habe undervolted auf 1070mV und gerade mal +10% Powertarget, die Karte hält nun jederzeit die 1266Mhz und wir dabei 77-80°C warm mit dem Lüfter auf knapp 3000 RPM.
Keine Traumwerte und mit besserem Chip geht sicherlich mehr, aber ich bin voll zufrieden mit der Leistung und das für gerade mal 240€ die ich bei MF für die 8GB Variante gezahlt habe.

Ist der ASIC Qual eigentlich wirklich zu trauen? Meine Sapphire Vapor 290 hat "nur" 67,9% geht auf 1100Mhz stabil. Wahrscheinlich drüber mit mehr Spannung. Verglichen mit Referenz 290 ist das ein Plus von 16%

inspectah
2016-07-20, 13:56:42
Keine Ahnung wie vertrauenswürdig die wirklich ist, aber wenn meine Stock Core Voltage schon so hoch ist, dann geh ich von nem eher schlechteren Chip aus.
Alles was ich so von anderen gesehen habe, war niedriger, 1080mV und aufwärts.
Ich bekomm das Ding auch kaum auf 1300 Mhz stabil, selbst für 1280Mhz muss ich die Spannung und das Power Target krass erhöhen und dann gehen die Temps wieder durch die Decke.
Also mit OC ist bei meiner Referenzkarte nichts zu machen.

Messias
2016-07-20, 14:04:19
Naja, meine Sapphire (auch von MF, auch für 240 Öcken), hat auch einen sauschlechten ASIC Wert (irgendwas im 60er Bereich) und geht mit Standardspannung problemlos auf 1300MHz. Powertarget und Lüftergeschwindigkeit muß ich selbstredend erhöhen, damit sie das auch hält.

Die andere 480 von XFX hat einen ASIC von 74% und schafft gerade mal fünf MHz mehr, also 1305 ohne Spannungserhöhung. Und die wird genauso heiß, wie die Sapphire...

Insofern sehe ich zumindest bei meinen beiden Samples keinen echten Unterschied.

Screemer
2016-07-20, 14:09:59
1,15 im höchsten state sind wohl eher die Regel als die Ausnahme. Dazu kommt noch das wohl auch beim Speichercontroller bei wattman auf Auto ordentlich über die 1v gegangen wird. Das zeigt schon die verringerte Leistungsaufnahme, wenn man einfach von Auto auf manuell stellt ohne an der vorgegebenen spannung was zu ändern.

inspectah
2016-07-20, 14:28:27
@Messias: Kannst du einen WattMan Screen posten?
Würde deine Settings gerne mal ausprobieren.

Rancor
2016-07-20, 14:29:22
Es ist eigentlich richtig Schade das Vega nicht eher kommt. Ich brauchte jetzt ne neue Grafikkarte und nicht erst in 6 Monaten.

Messias
2016-07-20, 14:31:15
@Messias: Kannst du einen WattMan Screen posten?
Würde deine Settings gerne mal ausprobieren.

Kann ich erst heute Abend machen... bin noch auf Arbeit.
Spannung ist übrigens: 1,125V. bei beiden Karten.

iuno
2016-07-20, 14:33:19
Ist der ASIC Qual eigentlich wirklich zu trauen? Meine Sapphire Vapor 290 hat "nur" 67,9% geht auf 1100Mhz stabil. Wahrscheinlich drüber mit mehr Spannung. Verglichen mit Referenz 290 ist das ein Plus von 16%
Meiner Ansicht nach schon.
So wie ich das sehe ist deine ASIC quality niedrig und daher die Spannung standardmaessig schon hoeher eingstellt. Daher geht der Takt vielleicht mit vermeintlich gleicher (aber real hoeherer) Spannung hoeher als bei einer Karte mit hoeherem ASIC Q. Wert.

Th3o
2016-07-20, 14:39:02
Langsam bin ich auch ein wenig enttäuscht von der ganzen Geschichte. Nach wie vor keine 4GB Versionen lieferbar, meine Bestellung bei Mindfactory ist zwar noch nicht storniert aber ich habe wenig Hoffnung. Keine Customs in unmittelbarer Nähe aber dafür die 8GB Versionen für mMn zu hoch angesetzten 269€ um ein wirkliches Schnäppchen zu sein.

Da tut sich gar nix, echt Schade! :(

Ich leide mit Dir. Jetzt heißt es durchhalten :smile:

DarknessFalls
2016-07-20, 15:34:53
Ist der ASIC Qual eigentlich wirklich zu trauen? Meine Sapphire Vapor 290 hat "nur" 67,9% geht auf 1100Mhz stabil. Wahrscheinlich drüber mit mehr Spannung. Verglichen mit Referenz 290 ist das ein Plus von 16%

Ich meine, Igor hat mal irgendwo hier geschrieben, dass ASIC völlig überbewertet ist. Die Begründung dazu leuchtet ein: Der Wert gibt lediglich an, ob der Chip aus einem "guten" oder "schlechten" Wafer kommt, kann aber nicht erkennen, ob aus der Mitte oder vom Rand. Da die Qualität der Chips in der Mitte des Wafers wohl am höchsten ist und zum Rand hin abnimmt, ist es durchaus möglich dass man mit einem Chip aus der Mitte eines "schlechten" Wafers deutlich bessere OC-Werte erreicht als mit einem Chip vom Rand eines "guten" Wafers. ASIC ist ein Schätzeisen und vielleicht ein Fingerzeig auf die Chance einen Chip mit guter Qualität zu haben, mehr nicht.

So hab ich's in Erinnerung.

inspectah
2016-07-20, 16:15:36
Was haltet ihr vom übertakten des Speichers und welche Spannung ist da sinnvoll, bzw. wie teste ich das am besten?

Hab ihn auf 2250Mhz @1000mV, aber frage mich ob das überhaupt sinnvoll ist, in Witcher merke ich keinen Unterschied bei der Performance.

Korvaun
2016-07-20, 16:38:55
Das mit den Custom Karten ist schon eine komische Sache. Es gibt ja jetzt seit knapp 1 Monat die Referenz-Karte zu kaufen. Und die war ja durchgängig erhältlich bei diversen Händlern.
Kann also nich sein das insgesamt "zu wenige" Chips da sind. AMD hat wohl einfach knallhart ALLE verfügbaren Chips für die Ref-Karte verbraucht, wahrscheinlich um auch wirklich einen "echten Hardlaunch" durchziehen zu können, inkl. Reserve und guter Verfügbarkeit auch nach dem Launch-Ansturm.
Jetzt auch noch der frühe GTX1060-Launch. Die Custom-Hersteller sind bestimmt nicht sonderlich gut auf AMD zu sprechen aktuell.

Mancko
2016-07-20, 17:24:38
Das mit den Custom Karten ist schon eine komische Sache. Es gibt ja jetzt seit knapp 1 Monat die Referenz-Karte zu kaufen. Und die war ja durchgängig erhältlich bei diversen Händlern.
Kann also nich sein das insgesamt "zu wenige" Chips da sind. AMD hat wohl einfach knallhart ALLE verfügbaren Chips für die Ref-Karte verbraucht, wahrscheinlich um auch wirklich einen "echten Hardlaunch" durchziehen zu können, inkl. Reserve und guter Verfügbarkeit auch nach dem Launch-Ansturm.
Jetzt auch noch der frühe GTX1060-Launch. Die Custom-Hersteller sind bestimmt nicht sonderlich gut auf AMD zu sprechen aktuell.

Die AMD Exklusivpartner haben aktuell definitiv ein Thema. Keins der Produkte das die verkaufen und das eine einigermaßen sinnvolle Marge hat ist für den Markt noch interessant. Insofern werden die natürlich schon einigermaßen ungeduldig sein.

Disco_STFU
2016-07-20, 17:25:23
Was haltet ihr vom übertakten des Speichers und welche Spannung ist da sinnvoll, bzw. wie teste ich das am besten?

Hab ihn auf 2250Mhz @1000mV, aber frage mich ob das überhaupt sinnvoll ist, in Witcher merke ich keinen Unterschied bei der Performance.

Eigentlich sollte Speicher OC recht gut skalieren, zeigten auch diverse OC Tests.

zum Thema ASIC: Hab schon Leute gesehen die einen Wert von 90 oder drüber hatten und die Standard Spannung im höchsten State war um oder unter 1,05. Also irgendwie scheint es doch was auszusagen.

Gorkon
2016-07-20, 17:34:54
Was haltet ihr vom übertakten des Speichers und welche Spannung ist da sinnvoll, bzw. wie teste ich das am besten?

Hab ihn auf 2250Mhz @1000mV, aber frage mich ob das überhaupt sinnvoll ist, in Witcher merke ich keinen Unterschied bei der Performance.
Powertarget auch erhöht? Sonst kommt vom OC nix an, weil die Referenz derbe power limitiert ist.

DarknessFalls
2016-07-20, 17:36:03
zum Thema ASIC: Hab schon Leute gesehen die einen Wert von 90 oder drüber hatten und die Standard Spannung im höchsten State war um oder unter 1,05. Also irgendwie scheint es doch was auszusagen.

Wie schon geschrieben: Bei einem hohen ASIC ist die Chance, eine gute Karte erwischt zu haben potenziell höher als bei schlechtem ASIC. Allerdings kann man das bei weitem nicht pauschalisieren (siehe: Waferzentrum oder Waferrand?).

MadPenguin
2016-07-20, 17:48:16
Das mit den Custom Karten ist schon eine komische Sache. Es gibt ja jetzt seit knapp 1 Monat die Referenz-Karte zu kaufen. Und die war ja durchgängig erhältlich bei diversen Händlern.
Kann also nich sein das insgesamt "zu wenige" Chips da sind. AMD hat wohl einfach knallhart ALLE verfügbaren Chips für die Ref-Karte verbraucht, wahrscheinlich um auch wirklich einen "echten Hardlaunch" durchziehen zu können, inkl. Reserve und guter Verfügbarkeit auch nach dem Launch-Ansturm.
Jetzt auch noch der frühe GTX1060-Launch. Die Custom-Hersteller sind bestimmt nicht sonderlich gut auf AMD zu sprechen aktuell.

Laut Infos sind die Hersteller vor allem wegen Nvidia und dem vorzeitigen 1060 Launch sauer. Vor allem EVGA als Premiumpartner...

Messias
2016-07-20, 18:55:47
@Messias: Kannst du einen WattMan Screen posten?
Würde deine Settings gerne mal ausprobieren.

Here you go: GPU: 1300MHz, RAM: 2140MHz, PT: +45 und dann den Lüfter hochgedreht.

Iruwen
2016-07-20, 22:23:45
Wie schon geschrieben: Bei einem hohen ASIC ist die Chance, eine gute Karte erwischt zu haben potenziell höher als bei schlechtem ASIC. Allerdings kann man das bei weitem nicht pauschalisieren (siehe: Waferzentrum oder Waferrand?).
Früher hieß es wenn ich mich recht erinnere auch schon niedriger ASIC = hohe Leistungsaufnahme weil höhere benötigte Spannung, aber besseres OC-Potential.

(del)
2016-07-21, 07:00:56
Ich habe seinerzeit mal einiges über die VID von Intels CPUs geschrieben. Da stehen viele Dinge drin, die man hier sogar grob übertragen könnte. Auch das mit den Spannungen und der Übertaktbarkeit ;)

Thowe
2016-07-21, 09:25:45
Ohne jetzt genaues zu wissen. Heute gibt es aber Analysesysteme die auch den einzelnen DIE bewerten können, entsprechend würde ich davon ausgehen, dass dies im "Qualitätswert" auch berücksichtigt wird. Die Gründe zur Abwertung würden aber nicht zwingend etwas über das Übertaktungspotential aussagen.

Th3o
2016-07-21, 09:36:20
Sapphire RX 480 Nitro+ Benchmarks Leak! (https://forums.overclockers.co.uk/showpost.php?p=29808803&postcount=794)

inspectah
2016-07-21, 09:39:58
Here you go: GPU: 1300MHz, RAM: 2140MHz, PT: +45 und dann den Lüfter hochgedreht.
Danke.
Die Lüfterkurve ist natürlich extrem, 3100rpm ist meine persönliche Schmerzgrenze.
Läuft bei mir mit den Settings in FHD ohne Probleme, in UHD fängt die Karte trotzdem an zu trottlen, auch mit 150% PT.

Achim_Anders
2016-07-21, 09:46:32
Bestätigen sich die ganzen Leaks jetzt doch, dass Fury Niveau in Spielen erreicht werden kann? Das wäre natürlich wirklich toll, da die Karte dann vielleicht doch gut zu einem 1440p Monitor passt. Die Leistungsaufnahme wird allerdings durch die Decke gehen. Ich bin weiterhin sehr gespannt in ne extrem froh, dass ich durch das Wetter, Freundin, Pokemon Go und Klausurphase im letzten Monat gar nicht gespielt habe. Ich werde weiter warten und sich den Markt etwas beruhigen lassen

AtTheDriveIn
2016-07-21, 09:47:37
Sapphire RX 480 Nitro+ Benchmarks Leak! (https://forums.overclockers.co.uk/showpost.php?p=29808803&postcount=794)

Nice (wenn das kein Fake ist). Im Auslieferungszustand +19% in GTA V auf die Referenz Rx480, mit weiterem OC sind es +27%

Allerdings verwundert mich, das vor ein paar Tagen noch gesagt wurde, die Produktion sei nicht mal angelaufen...

Disco_STFU
2016-07-21, 10:14:57
Nice (wenn das kein Fake ist). Im Auslieferungszustand +19% in GTA V auf die Referenz Rx480, mit weiterem OC sind es +27%

Allerdings verwundert mich, das vor ein paar Tagen noch gesagt wurde, die Produktion sei nicht mal angelaufen...

:tongue: :wink: :biggrin:

http://i.imgur.com/hCgWOIJ.jpg

fondness
2016-07-21, 10:15:23
Wie erwartet dürften die customs durchaus konkurrenzfähig zu GTX1060 customs sein:
Die Referenz taktet doch relativ weit hinunter und 1,4Ghz scheinen kein Problem zu sein mit ordentlicher Kühlung...

https://s32.postimg.org/6fmm0yvb9/rf_Px_Yci.png (https://postimg.org/image/62v7usd1d/)

https://s32.postimg.org/9nr3e0hl1/4_Ac_DL5_D.png (https://postimg.org/image/tid504wsh/)

https://s32.postimg.org/n5xzqatqd/PSkm_OZQ.png (https://postimg.org/image/kom8j19tt/)

https://s31.postimg.org/nmna7b9sr/w8_NAN3k.png (https://postimg.org/image/mkd3orqzb/)

AtTheDriveIn
2016-07-21, 10:19:37
:tongue: :wink: :biggrin:

http://i.imgur.com/hCgWOIJ.jpg

Okay, hätten wir das auch geklärt :-)

dildo4u
2016-07-21, 10:20:41
Hier sind schon ein paar 480 Zahlen dabei,der 480 Test soll später kommen,erstaunliche Steigerung bei der Tessperformance leider keine Werte der 1060 dabei.

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/29

dargo
2016-07-21, 10:20:55
Wie erwartet dürften die customs durchaus konkurrenzfähig zur GTX1060 sein:
Die Referenz taktet doch relativ weit hinunter und 1,4Ghz scheinen kein Problem zu sein mit ordentlicher Kühlung...

Ich sag dir jetzt schon, dass die RX470 Custom (sollte sie mit 2048SPs kommen) unter low level sogar konkurrenzfähig zur GTX1060 sein wird. :whisper: Wie ich schon sagte.... AMD sollte bei den RX470 Customs auf jeden Fall auch 8GB zulassen. Sonst gibt es wieder viel Shitstorm aus dem grünen Lager. Im übrigen sollten sich die RX470 prozentual noch höher übertakten lassen als RX480 da der Grundtakt niedriger liegen wird. Ich erwarte eine neue HD7950 was OC angeht.

Rancor
2016-07-21, 10:28:41
Ich sag dir jetzt schon, dass die RX470 Custom unter low level sogar konkurrenzfähig zur GTX1060 sein wird. :whisper: Wie ich schon sagte.... AMD sollte bei den RX470 Customs auf jeden Fall auch 8GB zulassen. Sonst gibt es wieder viel Shitstorm aus dem grünen Lager. Im übrigen sollten sich die RX470 prozentual noch höher übertakten lassen als RX480 da der Grundtakt niedriger liegen wird. Ich erwarte eine neue HD7950 was OC angeht.

Vorausgesetzt Nvidia ist am Ende Ihrer Möglichkeiten was Treiber angeht. Wenn das der Fall ist, dann brechen bittere Zeit für NV an.

jorge42
2016-07-21, 10:35:50
Interessanter Ausblick, nach dem Erscheinen der 1060 hatte ich mich eigentlich schon auf diese Eingependelt, weil ich die 1440p anpeile und die 1060 tatsächlich nur 10 EUR teurer ist auf Geizhals.
Wenn die 480 Nitro jetzt nicht preislich weit in die 300 EUR Zone geht, dann wäre die mir sogar lieber.
Warten zahlt sich wohl doch aus.

fondness
2016-07-21, 10:36:09
Im übrigen sollten sich die RX470 prozentual noch höher übertakten lassen als RX480 da der Grundtakt niedriger liegen wird. Ich erwarte eine neue HD7950 was OC angeht.

Das ist möglich ja. AMD hat für die RX 470 eine sehr viel bessere Perf/Watt wie bei der RX 480 angekündigt, das geht wohl nur mit weniger Takt und Spannung.

Th3o
2016-07-21, 10:36:41
:tongue: :wink: :biggrin:

http://i.imgur.com/hCgWOIJ.jpg

wann kommt der Erfahrungsbericht?

Pirx
2016-07-21, 10:37:15
Vorausgesetzt Nvidia ist am Ende Ihrer Möglichkeiten was Treiber angeht. Wenn das der Fall ist, dann brechen bittere Zeit für NV an.
nV wird auch weiter gut performen, AMD kann das Potential der Hardware endlich voll ausschöpfen, wenn sich die Studios nicht wieder von nV schmieren lassen.

dildo4u
2016-07-21, 10:38:01
Vorausgesetzt Nvidia ist am Ende Ihrer Möglichkeiten was Treiber angeht. Wenn das der Fall ist, dann brechen bittere Zeit für NV an.

Hardwarcanucks hat ein extra DX12 Wert die 480 zieht da nicht sonderlich weg,das einzige was aufällt ist das Leute mit einer 960 umrüsten sollten.

http://abload.de/img/gtx-1060-review-96russx.jpg

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-21.html

fondness
2016-07-21, 10:42:09
Hardwarcanucks hat ein extra DX12 Wert die 480 zieht da nicht sonderlich weg,das einzige was aufällt ist das Leute mit einer 960 umrüsten sollten.

http://abload.de/img/gtx-1060-review-96russx.jpg

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-21.html

Das geht natürlich bei dem ganzen Launches zurzeit völlig unter: Die ganzen Maxwell-Karten sind die wahren Verlierer von LL-APIs, von Kepler ganz zu schweigen. NV hat es wieder mal geschafft, Karten zu launchen, die exakt bis zum Nachfolger gut performen. Pascal wird man wohl auch wieder bis Volta halbwegs halten könne, um ihn dann wieder wie eine heiße Kartoffel fallen zu lassen.

BK-Morpheus
2016-07-21, 10:43:06
Keine Ahnung, ob der Leak legit ist und ob über 1400MHz eher die Ausnahme, oder die Regel beim OC der Sapphire Nitro+ sein werden, aber nette Skalierung:

http://imgur.com/a/sw5u3

dargo
2016-07-21, 10:44:25
Das geht natürlich bei dem ganzen Launches zurzeit völlig unter: Die ganzen Maxwell-Karten sind die wahren Verlierer von LL-APIs. NV hat es wieder mal geschafft, Karten zu launchen, die exakt bis zum Nachfolger gut performen. Pascal wird man wohl auch wieder bis Volta halbwegs halten könne, um ihn dann wieder wie eine heiße Kartoffel fallen zu lassen.
So ist es. ;)

jorge42
2016-07-21, 10:46:17
jetzt die Frage was sie kostet, wenn die nachher preislich an der 1070 dran ist, lohnt das auch nicht mehr :freak:

Disco_STFU
2016-07-21, 10:47:45
Das geht natürlich bei dem ganzen Launches zurzeit völlig unter: Die ganzen Maxwell-Karten sind die wahren Verlierer von LL-APIs. NV hat es wieder mal geschafft, Karten zu launchen, die exakt bis zum Nachfolger gut performen. Pascal wird man wohl auch wieder bis Volta halbwegs halten könne, um ihn dann wieder wie eine heiße Kartoffel fallen zu lassen.

Und ein Bekannter hat sich im Mai noch eine GTX 980 für knapp 500€ gekauft trotz meiner Warnung, weil unbedingt VR und so.

Eine R9 390 war ihm zu stromhungrig weil er ja NUR ein be quiet Straight Power e9 480 Watt hat. :freak:

Manchen Leuten ist leider echt nicht zu helfen...

Jetzt ist er ständig angepisst wenn ich ihm mit Benchmarks komme. :D

Tja pech gehabt. :biggrin:

/edit: Und das Beste, er ist ein Kandidat der Grakas extrem lange behält (Geiz ist geil ;)) Seine HD 6870 aus dem Jahre 2012 musste bis zum Kauf der 980 herhalten. ;D :freak:

dargo
2016-07-21, 10:49:36
jetzt die Frage was sie kostet, wenn die nachher preislich an der 1070 dran ist, lohnt das auch nicht mehr :freak:
In den ersten 3-4 Wochen könnte es durchaus einen "Deppenaufschlag" geben. Ist leider üblich. Aber 440€ sind dann doch etwas unrealistisch.

jorge42
2016-07-21, 10:53:34
In den ersten 3-4 Wochen könnte es durchaus einen "Deppenaufschlag" geben. Ist leider üblich. Aber 440€ sind dann doch etwas unrealistisch.
Schmerzgrenze zur "normalen" 480 wäre bei mit wohl 309 EUR oder unrealistisch?

dargo
2016-07-21, 10:56:16
Schwierig einzuschätzen. Könnte klappen, ob direkt am Anfang weiß ich nicht. Möglicherweise werden es am Anfang eher 329-349€. Es hängt auch viel von der Verfügbarkeit ab.

Disco_STFU
2016-07-21, 10:58:25
Dafür, dass da normal irgendwelche Mondpreise stehen find ich 288 echt fair. Muss man echt mal abwarten.

http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-07-20g-a1473094.html

edit: Das ist ja der preorder Preis. Also sollte man sich daran recht gut orientieren können.

Linmoum
2016-07-21, 10:58:42
jetzt die Frage was sie kostet, wenn die nachher preislich an der 1070 dran ist, lohnt das auch nicht mehr :freak:
https://www.overclockers.co.uk/sapphire-radeon-rx-480-nitro-8192mb-gddr5-pci-express-graphics-card-gx-37c-sp.html
https://www.overclockers.co.uk/sapphire-radeon-rx-480-nitro-oc-8192mb-gddr5-pci-express-graphics-card-gx-37b-sp.html

Sind umgerechnet 286€ für die normale bzw. 298€ für das OC-Modell und die Preise dort stehen auch schon fest, wenn Sapphire jetzt nicht noch plötzlich kurzfristig mehr will. ;)

dargo
2016-07-21, 11:01:51
Dafür, dass da normal irgendwelche Mondpreise stehen find ich 288 echt fair. Muss man echt mal abwarten.

http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-07-20g-a1473094.html

Och... wenn das stimmt ist die ja kaum teurer als Referenz. :)

medi
2016-07-21, 11:02:14
300€ wäre und ist mein Limit bei ner custom 480. Wirds teurer nehm ich ne 1060er oder richtig Geld in die Hand und gleich die 1070er. Entscheidung fällt bei mir Ende August - vorher lohnt sich bei mir die Anschaffung noch nicht.

Disco_STFU
2016-07-21, 11:03:16
Frag mich warum man das OC+ Modell bestellen sollte. Zwei Mausklicks mit Wattman. :D

Cyphermaster
2016-07-21, 11:03:32
So ist es. ;)
Stellt sich halt die Frage, ob die Strategie von nVidia, sich lieber auf einen "Startvorsprung" zu fokussieren, oder die von AMD, "hinten raus" Reserven wie im Bereich LL-APIs zu haben, besser aufgehen wird. AMD geht da jedenfalls mehr Risiko, da keineswegs klar ist, ob sich das noch "zu Lebzeiten" der RX480 in der Breite zu einen nennenswerten Vorteil wird ummünzen lassen.

dargo
2016-07-21, 11:04:00
Frag mich warum man das OC+ Modell bestellen sollte. Zwei Mausklicks mit Wattman. :D
Das war schon immer so. Früher hieß es halt Arschbrenner. :D

Stellt sich halt die Frage, ob die Strategie von nVidia, sich lieber auf einen "Startvorsprung" zu fokussieren, oder die von AMD, "hinten raus" Reserven wie im Bereich LL-APIs zu haben, besser aufgehen wird. AMD geht da jedenfalls mehr Risiko, da keineswegs klar ist, ob sich das noch "zu Lebzeiten" der RX480 in der Breite zu einen nennenswerten Vorteil wird ummünzen lassen.
Sicherlich war es ein hohes Risiko. Aus heutiger Sicht sehe ich es allerdings positiv für AMD. Alle Engines für AAA-Titel werden auf low level umgestellt. Coda ist sogar etwas verrückter. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11108849&postcount=1607

Tru
2016-07-21, 11:07:15
http://powercolor.com/Global/News.asp?id=1251

AtTheDriveIn
2016-07-21, 11:07:32
Frag mich warum man das OC+ Modell bestellen sollte. Zwei Mausklicks mit Wattman. :D

Wäre interessant zu wissen ob die OC Variante vielleicht die besseren P10 chips spendiert bekommt, also mehr Potential hat.

Wie war es denn bei den Hawaii Sapphire Karten? Weiß man das?

dildo4u
2016-07-21, 11:08:28
Stellt sich halt die Frage, ob die Strategie von nVidia, sich lieber auf einen "Startvorsprung" zu fokussieren, oder die von AMD, "hinten raus" Reserven wie im Bereich LL-APIs zu haben, besser aufgehen wird. AMD geht da jedenfalls mehr Risiko, da keineswegs klar ist, ob sich das noch "zu Lebzeiten" der RX480 in der Breite zu einen nennenswerten Vorteil wird ummünzen lassen.
Der Chip ist nicht mher massiv größer wie es bei 380 vs 960 der Fall war,Polaris ist in der Hinsicht schon ein Win auch wenn sie nur mithalten.

BK-Morpheus
2016-07-21, 11:12:45
jetzt die Frage was sie kostet, wenn die nachher preislich an der 1070 dran ist, lohnt das auch nicht mehr :freak:

Das ist genau die entscheidende Frage für mich. Eine Custom 1060 bekomme ich aktuell für 279€, entsprechend würde ich bei einer Custom RX480 erwarten, dass diese (je nach Qualität von PCB+Kühlung) in diesem Bereich liegen sollte.

Bis max 300€ würde ich bei der Sapphire noch als interessant ansehen.

Rancor
2016-07-21, 11:14:09
Das war schon immer so. Früher hieß es halt Arschbrenner. :D


Sicherlich war es ein hohes Risiko. Aus heutiger Sicht sehe ich es allerdings positiv für AMD. Alle Engines für AAA-Titel werden auf low level umgestellt. Coda ist sogar etwas verrückter. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11108849&postcount=1607

Bist die Engines ausschließlich auf Lowlevel APIs laufen werden, wird es sicherlich 2018 sein und bis dahin hat NV die immer noch extrem gute DX 11 Performance.
Man darf auch nicht vergessen, das NV in machen Szenarien unter DX 11 fast so schnell wie AMD unter DX 12 ist.

Ausserdem ist der Aufwand für DX 12 zu programmieren wesentlich höher und nicht jeder Entwickler wird auf biegen und brechen diesen Weg gehen.

Ich bin mir unsicher ob die LL APIS in dieser Generation wirklich den Unterschied zwischen spielbar und unspielbar ausmachen.
Nvidia muss mit Volta aber dringend nachlegen, sonst wird es zappen duster. Vega wird Pascal im LL Bereich sicherlich deutlich überlegen sein.

dargo
2016-07-21, 11:16:40
Bist die Engines ausschließlich auf Lowlevel APIs laufen werden, wird es sicherlich 2018 sein und bis dahin hat NV die immer noch extrem gute DX 11 Performance.

Ich spreche nicht von ausschließlich sondern natürlich zusätzlich. Kein Publisher ist auf den Kopf gefallen und bietet aktuell nur noch einen DX12/Vulkan Renderer in der Übergangszeit. Ausnahmen bestätigen die Regel, siehe UWP @Microsoft. Das hat aber andere Gründe.

Sunrise
2016-07-21, 11:20:00
Stellt sich halt die Frage, ob die Strategie von nVidia, sich lieber auf einen "Startvorsprung" zu fokussieren, oder die von AMD, "hinten raus" Reserven wie im Bereich LL-APIs zu haben, besser aufgehen wird. AMD geht da jedenfalls mehr Risiko, da keineswegs klar ist, ob sich das noch "zu Lebzeiten" der RX480 in der Breite zu einen nennenswerten Vorteil wird ummünzen lassen.
Das war allerdings bei AMD/ATi schon immer so. NV baut immer nur das, was aktuell angesagt ist und optimiert darauf, weil zukünftige Anforderungen sowieso meist höher sind und dann egal ob DX12 oder nicht, die GPU sowieso zu langsam wird. Es werden also alle Ressourcen dort aufgewendet, wo der aktuelle Endanwender bei der Endapplikation Vorteile sehen kann.

Allerdings sind wir aktuell aufgrund der Konsolen, DX12 und MS da in einer Phase, die sowohl aktuell als auch in Zukunft starke Vorteile bei AMD bringt. Denn endlich kann GCN zeigen, dass die Architektur wenn gut ausgelastet, sehr mächtig ist (aber auch stromhungrig).

AMD profitiert davon natürlich (wenn das Marketing seine Arbeit gut macht, man sieht es ja schon in Benchmarks), aber bis Volta kommt ist es nichtmehr weit und der wird noch weiter an GCN angelehnt sein als es Pascal jetzt schon ist.

Man muss eben wissen, was einem persönlich wichtiger ist. Langlebigkeit ist immer relativ, weil man will ja aktuell schon spielen und nicht erst in 1-2 Jahren, wo dann wieder andere Leistungsanforderungen gelten.

Dennoch: Die Custom-RX480 zeigen eigentlich recht deutlich, dass AMD da eine sehr gute GPU gebaut hat, die leider etwas sehr stark mit Spannung gefüttert werden muss (warum auch immer) und dies nur mit ordentlicher stabiler Kühlung im Zaum gehalten werden kann. Und für um die 300 EUR oder weniger ist das doch eine Ansage, auch wenn ich persönlich 230mm² lieber bei 250 EUR sehen würde und NV liegt ja sogar noch darunter. Eine 1060 ist unter obigen Gesichtspunkten für mich komplett uninteressant.

Cyphermaster
2016-07-21, 11:20:08
Sicherlich war es ein hohes Risiko.Noch IST es das. Und unter dem Strich wird abgerechnet. Jeder Tag, an dem dieser Vorteil noch nicht gehoben ist, ist ein Tag, an dem trotzdem Grafikkarten gekauft werden. Was also jetzt (nach bisherigem Vergleichsstand) an Käufen an nVidia geht, ist für diese Generation gesetzt.

dargo
2016-07-21, 11:23:07
Das war allerdings bei AMD/ATi schon immer so. NV baut immer nur das, was aktuell angesagt ist und optimiert darauf, weil zukünftige Anforderungen sowieso meist höher sind und dann egal ob DX12 oder nicht, die GPU sowieso zu langsam wird. Es werden also alle Ressourcen dort aufgewendet, wo der aktuelle Endanwender bei der Endapplikation Vorteile sehen kann.

Das ist aber ziemlicher Quatsch auch so ne gewagte Aussage. Vergleich mal hier eine GTX580 mit 3GB und GTX750(TI).

iuno
2016-07-21, 11:24:18
Ich spreche nicht von ausschließlich sondern natürlich zusätzlich. Kein Publisher ist auf den Kopf gefallen und bietet aktuell nur noch einen DX12/Vulkan Renderer in der Übergangszeit. Ausnahmen bestätigen die Regel, siehe UWP @Microsoft.
Vulkan-only Titel koennten frueher kommen als DX12-only Titel, einfach weil man nicht so sehr eingeschraenkt ist. Den UWP Kram zaehle ich jetzt selbstverstaendlich mal nicht dazu, sondern nur Sachen von unabhaengigen Publishern.
Dann fallen halt noch Kunden mit Fermi und Northern Islands weg. Ob das bei einer AAA Produktion 2016 noch schade drum ist muss aber jeder fuer sich entscheiden.
Andererseits kann man ja auch von den Publishern nicht viel erwarten :usad:

Keine Ahnung, ob der Leak legit ist und ob über 1400MHz eher die Ausnahme, oder die Regel beim OC der Sapphire Nitro+ sein werden, aber nette Skalierung:

http://imgur.com/a/sw5u3
Quelle?
Wohl mit lahmer CPU gemessen? Die Ergebnisse sind bei CB durchgaengig hoeher. Da koennte also sogar noch was gehen...

jorge42
2016-07-21, 11:24:40
ich zitiere exemplarisch mal nur einen, das ist hier viel zu schnell, da komtm man ja nicht mit, vor allem wenn man nebenbei noch arbeiten muss :biggrin:Das ist genau die entscheidende Frage für mich. Eine Custom 1060 bekomme ich aktuell für 279€, entsprechend würde ich bei einer Custom RX480 erwarten, dass diese (je nach Qualität von PCB+Kühlung) in diesem Bereich liegen sollte.

Bis max 300€ würde ich bei der Sapphire noch als interessant ansehen.

300 EUR wäre für mich wirklich ein akzeptabler Preis...warte auf Steuer und (vorgezogenes) Weihnachtsgeld dann muss ein kompletter neuer Rechner her, da machen 30 EUR den Kohl nicht fett.

AMD hat für mich den Vorteil, dass die FreeSync Monitore einfach günstiger sind, als die GSync Boliden und mein Alter gibt auch noch den Geist auf...wird eine teure Neuanschaffung.

dildo4u
2016-07-21, 11:30:38
Quelle?
Wohl mit lahmer CPU gemessen? Die Ergebnisse sind bei CB durchgaengig hoeher. Da koennte also sogar noch was gehen...
Witcher könnte mit Gameworks sein,daher das abkacken der 390.
Die 480 juckt die Tesselation nicht mher sonderlich.

dargo
2016-07-21, 11:33:13
Vulkan-only Titel koennten frueher kommen als DX12-only Titel, einfach weil man nicht so sehr eingeschraenkt ist.
Umso besser. :) Keine Rücksicht auf high level mehr wäre mir eh lieber. Das sieht der eine oder andere Publisher 2016 sicherlich aber noch anders.

iuno
2016-07-21, 11:40:32
Witcher könnte mit Gameworks sein,daher das abkacken der 390.
Die 480 juckt die Tesselation nicht mher sonderlich.

Betrifft ja nicht nur tw3. Z.B. bei Doom hat CB (https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/) (max. Details, Vulkan, TSSAA, FHD) bei der 480/390/970 123/120/94 gemessen, hier sind es nur 85/80/62.
Bei den anderen Spielen ist es aehnlich. Vielleicht nur 4 Threads oder einen FX :ulol:

Sunrise
2016-07-21, 11:40:51
Das ist aber ziemlicher Quatsch auch so ne gewagte Aussage. Vergleich mal hier eine GTX580 mit 3GB und GTX750(TI).
Ist nicht dein Ernst oder? Der Vergleich gilt immer nur für das jeweilige Leistungssegment (Low-End, Performance, High-End, Enthusiast). Das was du vergleichst sind zwei GPUs vollkommer unterschiedlicher Leistungsklasse. Also Äpfel mit Birnen.

Es ist so wie ich es geschrieben habe. Wenn eine GTX580 zu langsam wurde, war bereits die GTX680 draußen, das macht NV schon seit Jahren so.

Daher funktioniert dieses Spiel mit dem Kunden auch so gut, weil NV so schnell immer einen Nachfolger am Markt hat, sobald am Markt neue Anforderungen gefragt waren. AMD hatte da also nie einen Zeitraum und war auch immer zu langsam, Fehler bei NV auszunutzen, weil NV schlichtweg überall schneller am Markt ist.

Selbst bei der RX480 sieht man es, trotz schlechter Lieferbarkeit, wird beim Endkunden der Eindruck erweckt, dass die 1060 besser ist und die Customs sofort draußen waren. Das ist verdammt clever und es bringt NV auch die Einnahmen.

Sobald die Custom-RX480 draußen sind, gibt es hoffentlich neue Reviews für AMD, damit das anfängliche Bild der RX480 in das rechte Licht gerückt werden kann.

fondness
2016-07-21, 11:44:12
Das war allerdings bei AMD/ATi schon immer so. NV baut immer nur das, was aktuell angesagt ist und optimiert darauf, weil zukünftige Anforderungen sowieso meist höher sind und dann egal ob DX12 oder nicht, die GPU sowieso zu langsam wird. Es werden also alle Ressourcen dort aufgewendet, wo der aktuelle Endanwender bei der Endapplikation Vorteile sehen kann.


Es war immer so würde ich nicht sagen. IMO hat Nvidia hier aus NV30 entsprechende Schlüsse gezogen. NV30 hat sehr viele Features unterstützt, aber eben wenig performant, dadurch wurde man entsprechend abgezogen von R300. Seitdem kommt von NV eigentlich nur noch das nötigste zum Zeitpunkt x und das möglichst performant.

Gorkon
2016-07-21, 11:45:07
Man muss eben wissen, was einem persönlich wichtiger ist. Langlebigkeit ist immer relativ, weil man will ja aktuell schon spielen und nicht erst in 1-2 Jahren, wo dann wieder andere Leistungsanforderungen gelten.
Natürlich hast du bei jedem IHV 2-3 Sachen die ihm absolut nicht schmecken, dass ist eigentlich ganz normal. Im Großen und Ganzen ist es eigentlich total Wumpe, denn alles was du jetzt spielst, läuft auf GCN oder Maxwell / Pascal eigentlich gleich gut, wenn der FPS-Counter nicht ewig mitlaufen muss auf der Jagd nach den letzten 3-4fps ;)

Die Langlebigkeit der GCN-µArch durch die teilweise deutlichen Leistungssteigerungen selbst im GPU-Limit von LL-APIs kann man aber imho einfach nicht wegdiskutieren. Genauso wie die allgemeinen Steigerungen im CPU-Limit für alle. Jeder muss natürlich für sich selber entscheiden, was und warum er genau dieses oder jenes Produkt kaufen möchte.
Aber wenn ich schon heute oder aus der Vergangenheit wüsste, dass ich mit X langfristig besser als mit Y fahre, würde mir persönlich die Wahl nicht schwer fallen...

mfg

Dino-Fossil
2016-07-21, 11:46:34
Bist die Engines ausschließlich auf Lowlevel APIs laufen werden, wird es sicherlich 2018 sein und bis dahin hat NV die immer noch extrem gute DX 11 Performance.
Man darf auch nicht vergessen, das NV in machen Szenarien unter DX 11 fast so schnell wie AMD unter DX 12 ist.

Ja, und auch wenn Maxwell durch low level nichts gewinnt - wer heute noch auf einer sitzt kann noch locker den ersten 16/14nm refresh abwarten.
Die Leistung reicht dafür aus, limitierend ist dann eher schon die Speicherbestückung als die Architektur an sich.

Low level ist immer noch ein Wetteinsatz auf die Zukunft - Pascal steht schon besser da als Maxwell und wenn AMD nicht aufpasst, hat NVidia längst aufgeholt, wenn DX12/Vulkan wirklich eine Rolle spielt und der ganze viel gepriesene Vorteil ist verpufft.

In dem Zusammenhang ist es auch schade, dass AMD's Treiberabteilung mal wieder nicht mit der Hardware schritt halten kann - die 480 hat offenbar noch Potential, dass sich wohl in den nächsten Monaten richtig entfalten wird. Was hängen bleibt ist aber der Launchtreiber. Manche Seiten vergleichen ja sogar die Werte mit Idle-bug (und Bandbreitenbug?) mit der 1060 - sowas sollte einfach nicht passieren, wenn man eh mit dem Rücken zur Wand steht.

Sunrise
2016-07-21, 11:50:05
Es war immer so würde ich nicht sagen. IMO hat Nvidia hier aus NV30 entsprechende Schlüsse gezogen. NV30 hat sehr viele Features unterstützt, aber eben wenig performant, dadurch wurde man entsprechend abgezogen von R300. Seitdem kommt von NV eigentlich nur noch das nötigste zum Zeitpunkt x und das möglichst performant.
Ja, das hast du sehr gut in Erinnerung. Das hat in der Tat bei NV30 angefangen, als NV damit maximal auf die Nase geflogen ist.

NV war damals sehr "verspielt" und brachte Features, die nie oder kaum überhaupt genutzt wurden. Das zahlt sich leider sehr oft nicht aus.

Man sieht es auch bei True Audio am PC. Es wird praktisch nicht genutzt, wird aber noch mitgeschleppt, weil es bzgl. Platz auf dem Die sowieso irrelevant ist.

Rancor
2016-07-21, 11:50:19
Ich würde trotz allem aber keine GTX 1060 kaufen, sobald die 480er Customs da sind.
Das Duell gewinnt AMD, das kann man anhand vorliegender Benchmarks gar nicht anders sehen.

dargo
2016-07-21, 11:50:37
Ist nicht dein Ernst oder? Der Vergleich gilt immer nur für das jeweilige Leistungssegment (Low-End, Performance, High-End, Enthusiast). Das was du vergleichst sind zwei GPUs vollkommer unterschiedlicher Leistungsklasse. Also Äpfel mit Birnen.

Natürlich ist das mein voller Ernst. Wenn die GTX580 ähnliche Leistung wie GTX750(TI) liefert und Gamer X diese Leistung reicht hat der Fermi-Besitzer unter low level ein Problem.

dildo4u
2016-07-21, 11:51:51
Ich verstehe ja das AMD nicht genug Leute hat alle Game's zu optemieren aber GTA5,das dürfte das meist verkaufte AAA Game überhaupt sein.Scheint so als wenn die Kompression versagt sobald MSAA genutzt wird.

http://abload.de/img/gtx-1060-review-71xooju.jpg

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-11.html

fondness
2016-07-21, 11:53:14
Schon toll, wie dildo4u mal wieder völlig Zusammenhanglos hier herein trollt mit irgend einem Rosinen picken.

dargo
2016-07-21, 11:54:58
Schon toll, wie dildo4u mal wieder völlig Zusammenhanglos hier herein trollt mit irgend einem Rosinen picken.
Vorallem das die Verkaufszahlen von GTA für Rockstar schon längst generiert wurden.

w0mbat
2016-07-21, 11:58:56
BAN PLS :ugly:

dildo4u
2016-07-21, 12:07:22
Jup tausend mal Doom Vulkan Benches posten um zu zeigen wie scheiße doch die 1060 ist aber Game's die sich um den Faktor 5 besser verkauft haben soll man totschweigen. :up: GTA5 ist im Gegensatz zu Doom Vulkan wirklich final,daher würde ich mal sagen das ein fertiges Game sinnvoller für einen Vergleich ist.

N0Thing
2016-07-21, 12:08:36
Ich verstehe ja das AMD nicht genug Leute hat alle Game's zu optemieren aber GTA5,das dürfte das meist verkaufte AAA Game überhaupt sein.Scheint so als wenn die Kompression versagt sobald MSAA genutzt wird.

http://abload.de/img/gtx-1060-review-71xooju.jpg

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-11.html

Wäre interessant zu sehen, ob das auch bei 4xMSAA so aussehen würde. Generell hat AMD kein Problem mit GTA 5, in CB Test liegt man je nach Auflösung und mit FXAA auf Höhe der GTX 980 oder GTX 970.

https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/6/#abschnitt_gta_v

Linmoum
2016-07-21, 12:09:31
Jup tausend mal Vulkan Doom Benches posten um zu zeigen wie scheiße doch die 1060 ist aber Game's die sich um den Faktor 5 besser verkauft haben soll man totschweigen. :up: GTA5 ist im Gegensatz zu Doom Vulkan wirklich final,daher würde ich mal sagen das ein fertiges Game sinnvoller fürn einen Vergleich ist.
Dann aber vielleicht nicht nur Cherry Picking mäßig ein Review nehmen, sondern vielleicht mal ein zweites oder drittes. Guru3d z.B. hat GTA 5 ebenfalls mit 2xMSAA gebencht, da ist das weit von deinem geposteten Ergebnis entfernt.

Tru
2016-07-21, 12:09:45
Die Powercolor RX 480 Red Devil kommt voraussichtlich am 29. Juli für 269 US-Dollar: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Powercolor-Radeon-RX-480-Red-Devil-Preis-Termin-1202276/

dargo
2016-07-21, 12:16:05
Jup tausend mal Vulkan Doom Benches posten um zu zeigen wie scheiße doch die 1060 ist aber Game's die sich um den Faktor 5 besser verkauft haben soll man totschweigen. :up: GTA5 ist im Gegensatz zu Doom Vulkan wirklich final,daher würde ich mal sagen das ein fertiges Game sinnvoller für einen Vergleich ist.
Ich kanns dir nochmal unter die Nase reiben, ich befürchte aber es wird nichts bringen.
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Da ist nicht nur Doom dabei. Dort ist sogar das noch auf Radeons nicht optimal laufende RotTR dabei. Damit kannst du dich noch schmücken. Und es fehlen natürlich die RX480 Customs. Im Gegensatz zur GTX1060 skaliert die Custom RX480 besser weil der Boost beim Ersteren schon hoch ist.

PS: ich hoffe inständig dir ist auch klar, dass die GTA V Engine noch Wurzeln bei der XBox 360/PS3 hatte.

AtTheDriveIn
2016-07-21, 12:22:46
Ich verstehe ja das AMD nicht genug Leute hat alle Game's zu optemieren aber GTA5,das dürfte das meist verkaufte AAA Game überhaupt sein.Scheint so als wenn die Kompression versagt sobald MSAA genutzt wird.

http://abload.de/img/gtx-1060-review-71xooju.jpg

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-11.html

oder so

Undertaker
2016-07-21, 12:28:37
Ich kanns dir nochmal unter die Nase reiben, ich befürchte aber es wird nichts bringen.
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Was wäre eigentlich, wenn die LL-Zukunft dann eher das Bild von AotS oder des zweiten Quantum Break Benches zeigt? Oder Doom mit vollständiger AC-Unterstützung auf allen GPUs plötzlich kein RX-480-Vorzeigetitel mehr wäre?

oder so

Wow, über 27% Leistungszuwachs bei 18,3%iger Kerntaktsteigerung. :O Das ist wirklich mal eine phänomenal gute Skalierung. Wenn man bedenkt, dass auch der Speicher etwas bremsen dürfte, wird das sogar noch beeindruckender. :O Wer kann mir erklären, wie das geht?

dildo4u
2016-07-21, 12:28:45
Wäre interessant zu sehen, ob das auch bei 4xMSAA so aussehen würde.


http://abload.de/img/gtx-1060-review-61nsoa0.jpg

PS die 960 war echt ne grottige Karte.

dargo
2016-07-21, 12:29:44
Was wäre eigentlich, wenn die LL-Zukunft dann eher das Bild von AotS oder des zweiten Quantum Break Benches zeigt? Oder Doom mit vollständiger AC-Unterstützung auf allen GPUs plötzlich kein RX-480-Vorzeigetitel mehr wäre?
Ich belasse dir diesen Traum.

Screemer
2016-07-21, 12:31:31
Ich hatte auch den Eindruck Msaa schmeckt Polaris gar nicht. Finde den Einwurf jetzt nicht so abwegig. Allerdings schmeckt gta5 amd im allgemeinen nicht so recht:

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9VL0QvNTkyMDY5L29yaWdpbmFsL2d0YS1mcHMtMjV4 MTQucG5n/r_600x450.png

Das war aber noch nie anders. Der Eindruck hat sich bei mir seit Release des Spiels gefestigt. Sowas bleibt einfach hängen.

-/\-CruNcher-/\-
2016-07-21, 12:33:37
Noch IST es das. Und unter dem Strich wird abgerechnet. Jeder Tag, an dem dieser Vorteil noch nicht gehoben ist, ist ein Tag, an dem trotzdem Grafikkarten gekauft werden. Was also jetzt (nach bisherigem Vergleichsstand) an Käufen an nVidia geht, ist für diese Generation gesetzt.

Naja ich finde man geht vor allem auf das gesammte Featureset der Chips zu wenig ein das zwingt micht langsam dazu 1060 und RX 480 selbst zu kaufen, die daten in den Reviews konzentrieren sich zu sehr auf einen berreich auch schlecht im Vergleich mit Intel ;)

Undertaker
2016-07-21, 12:33:39
Ich belasse dir diesen Traum.

Ernstgemeinte Frage. Woraus ziehst du deine Schlüsse, welche der bisherigen handvoll LL-Titel/Szenen du für eine Zukunftsprognose nimmst und welche nicht? Und warum zeigt sich die beschworene LL-Dominanz in den genannten Beispielen nicht? Dafür hast du doch sicherlich sachliche, fundierte Gründe, die mich ernsthaft interessieren. :)

dargo
2016-07-21, 12:36:11
Ich hatte auch den Eindruck Msaa schmeckt Polaris gar nicht. Finde den Einwurf jetzt nicht so abwegig. Allerdings schmeckt gta5 amd im allgemeinen nicht so recht:

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9VL0QvNTkyMDY5L29yaWdpbmFsL2d0YS1mcHMtMjV4 MTQucG5n/r_600x450.png

Das war aber noch nie anders.
MSAA in GTA V ist doch performancemäßig eh der letzte Rotz. Sowas Ineffizientes gabs letztens in Max Payne 3. Die Engine ist einfach Urasbach. Wartet in Ruhe auf GTA 6 mit low level und hoffentlich auch endlich temporalen Antialiasing. Irgendwann wird es auch Rockstar lernen müssen.

Ernstgemeinte Frage. Woraus ziehst du deine Schlüsse, welche der bisherigen handvoll LL-Titel/Szenen du für eine Zukunftsprognose nimmst und welche nicht? Und warum zeigt sich die beschworene LL-Dominanz in den genannten Beispielen nicht? Dafür hast du doch sicherlich sachliche, fundierte Gründe, die mich ernsthaft interessieren. :)
Du erwartest ernsthaft darauf eine Antwort von mir nachdem du zig meiner Beiträge im GTX1060-Thread einfach so gelöscht hast? Ich bitte dich... :tongue:

Rancor
2016-07-21, 12:40:39
Die Frage ist aber berechtigt.

Ich habe auch schon mehrfach darauf hingewiesen, das eine Prognose auf Grund des Doom Benchmarks und Hitman, völlig absurd ist. Besonders aber bei Doom.

Die Benchmarks unter DX 12 wo Nvidia nicht völlig abkackt, werden natürlich gekonnt ignoriert oder aber die Engines werden als der "letzte" Rotz bezeichnet sobald AMD nicht mehr so gut da steht.

Argo Zero
2016-07-21, 12:42:12
Einen Overwatch Benchmark vermisse ich überall. Das Spiel ist gerade ein mega Hype und wird viel gespielt.
Von diesem "Ashes" habe ich dagegen noch nie gehört, außer auf Review-Seiten (Benchmark).

Screemer
2016-07-21, 12:43:36
oder so
Der Bench zeigt doch nur, dass de 480 ref einfach kacke in gta5 ist. Genau wir die von mir und dildo verlinkten. Würde sie von den Grundwerten schon zwischen 970 und 980 liegen, dann würde die Nitro mit der 1060 den Boden aufwischen. Gts5 ist für amd einfach ein Paradebeispiel im negativen Sinn. Nicht umsonst liebt jays2cents es damit zu zeigen wie geil doch nv Karten sind. Es gibt zwar stellen an denen amd wie erwartet performt aber die sind ehr die Ausnahme. Wer da jetzt Schuld ist, amd oder rockstar, ist eher egal.

Die löschaktion im 1060 Thread war an Lächerlichkeit kaum zu überbieten. Vor allem wenn man bedenkt, dass das Zeug von skully im gcn Thread und sein ot-gebashe über die Fury im 1060 Faden immer noch steht.

soLofox
2016-07-21, 12:45:02
der ewige, niemals endende AMD vs. nVIDIA fight :usad:

als konsumer muss ich mich dann eben erstmal fragen, was ich hauptsächlich zocke. wenn jemand quasi nur GTA V spielt, dann kauft er sich eben nVIDIA. spielt jemand hauptsächlich doom, kauft er AMD.

und selbst wenn 1-2 games dabei sind, wo AMD oder nVIDIA schlechter sind, niemand wird wegen ein paar fps weniger sterben ;)

die RX 480 ist nach dem treiber update eine gute karte geworden und wie immer bleibt es am ende geschmacksache, ob AMD oder nVIDIA. ich persönlich bleibe AMD treu, aber nur damit sie weiter konkurrenzfähig bleiben. nVIDIA liefert wie seit jahren gute produkte, die leider halt deutlich teurer als AMD sind. bei mir persönlich hat nVIDIA seit dem GTX 970 3,5GB skandal erstmal verkackt.

trotzdem finde ich die GTX 1070/1080 performance top =)

deekey777
2016-07-21, 12:45:21
Jup tausend mal Doom Vulkan Benches posten um zu zeigen wie scheiße doch die 1060 ist aber Game's die sich um den Faktor 5 besser verkauft haben soll man totschweigen. :up: GTA5 ist im Gegensatz zu Doom Vulkan wirklich final,daher würde ich mal sagen das ein fertiges Game sinnvoller für einen Vergleich ist.
Bist du sicher, dass AMD nicht wieder cheatet? Siehe Q3A, wo die Farbtiefe von 32 bit auf 16 bit reduziert wurde.

dildo4u
2016-07-21, 12:45:33
Die Frage ist aber berechtigt.

Ich habe auch schon mehrfach darauf hingewiesen, das eine Prognose auf Grund des Doom Benchmarks und Hitman, völlig absurd ist. Besonders aber bei Doom.

Die Benchmarks unter DX 12 wo Nvidia nicht völlig abkackt, werden natürlich gekonnt ignoriert oder aber die Engines werden als der "letzte" Rotz bezeichnet sobald AMD nicht mehr so gut da steht.
Jup kein Wort mehr zu Ashes,das war vor kurzem noch der Fokus zuletzt bei der Vorstellung der 480.

http://abload.de/img/gtx-1060-review-782np7b.jpg

soLofox
2016-07-21, 12:52:13
http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-01-20g-a1477778.html

329€ jetzt für die nitro+ OC zum vorbestellen.

memakr
2016-07-21, 12:54:45
http://geizhals.de/sapphire-radeon-rx-480-nitro-oc-11260-01-20g-a1477778.html

329€ jetzt für die nitro+ OC zum vorbestellen.

...und die 4GB für ca. 260€

Screemer
2016-07-21, 12:55:06
Ich finds immer noch lustig, dass hier scheinbar so gut wie niemand mitbekommen hat, dass nv bei Doom mit Vulkan massiv Frames dropt. Die Rendern wesentlich mehr als sie ausgeben. Sobald dieses Problem gefixt ist sollten die avg. Fps in Doom ziemlich ansteigen.

kuj0n
2016-07-21, 12:57:13
...und die 4GB für ca. 260€
Über Preise kann man nachdenken wenn die großen Händler Preise listen. Gerade bei der Nitro hat man in den letzten Tagen alle möglichen Preise gesehen.

memakr
2016-07-21, 13:00:59
Über Preise kann man nachdenken wenn die großen Händler Preise listen. Gerade bei der Nitro hat man in den letzten Tagen alle möglichen Preise gesehen.

Ja - gerade die aktuellen 70€ Aufpreis für die zusätzlich 4GByte wäre Overkill. Allerdings sehe ich die 260 Basis schon als realistisch an (ggf. 250 und dann für die 8er 290€)

Screemer
2016-07-21, 13:01:51
@linmoum: Jup das war die erst presi von Doom und vulkan. Da gabs die framedropprobleme (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11108639#post11108639) wohl noch nicht.

Menace
2016-07-21, 13:02:20
Jup kein Wort mehr zu Ashes,das war vor kurzem noch der Fokus zuletzt bei der Vorstellung der 480.

http://abload.de/img/gtx-1060-review-782np7b.jpg

Verstehe Dich nicht ganz. Sieht doch gar nicht schlecht aus?

Was für ein Bohei um Vulkan/DX12/DX11 gemacht wird. Die einzige vernünftige Vorgehensweise ist doch die von soLofox; man schaut, wofür man seine Grafikkarte benötigt und kauft entsprechend (bei mir kommt immer noch OpenCl dazu), wobei sich in letzter Zeit die Karten bis auf die Effizienz und der Preis sowieso nicht geben.

Ich warne mal die AMD-Fan-Gemeinde weiterhin nvidia zu unterschätzen (wie damals, als mantle eingeführt wurde). Kaum war sich nvidia einer möglichen Gefahr bewusst, haben sie entsprechende Titel mehr DX11 Treiberarbeit gewidmet und dadurch auch wieder für Ausgleich gesorgt (sofern man keine alte/schwache CPU hatte).

Und was soll das Entweder/Oder von Vulkan/DX12/DX11. Ist doch prima, wenn möglichst viel parallel vorliegt, so dass jeder das gewünschte wählen kann.

Eine sparsame Custom RX480 ist noch immer nicht in Sicht, oder? Quasi eine RX480 Nano?

Linmoum
2016-07-21, 13:03:03
Ja - gerade die aktuellen 70€ Aufpreis für die zusätzlich 4GByte wäre Overkill. Allerdings sehe ich die 260 Basis schon als realistisch an (ggf. 250 und dann für die 8er 290€)
Bei OCUK wird's die 4GB Nitro für umgerechnet 238€ geben, insofern glaube ich nicht an 260€ hier.

290€ für die 8GB könnten allerdings realistisch sein.

Schnoesel
2016-07-21, 13:03:22
Was wäre eigentlich, wenn die LL-Zukunft dann eher das Bild von AotS oder des zweiten Quantum Break Benches zeigt? Oder Doom mit vollständiger AC-Unterstützung auf allen GPUs plötzlich kein RX-480-Vorzeigetitel mehr wäre?

Naja also bis auf ROTR zeigen eigentlich alles DX 12 Benches in eine Richtung:

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-15.html

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-16.html

Das kann jetzt Zufall sein oder eben nicht. Deus EX wird AMD Karten sicher auch voll ausreizen als GE Titel, für BF 1 erwarte ich auch keine schlechten Ergebnisse und Watchdogs 2, seit dem Ubisoft wohl nicht mehr auf Gameworks setzt glaube ich auch nicht an umgekehrte Vorzeichen. Stand jetzt würde ich tippen dass AMD mehr von den LL APIs profitiert als Nvdia nicht zuletzt, da AMD unter DX11 wegen dem CPU Overhead immer hinten lag.

Warte wir doch mal die AS Implementierung von Nvidia in Doom ab (falls sie denn mal kommt, Maxwell sollte doch auch sowas bekommen :confused:) dann kann man immer noch sehen. Nicht das das ganze wieder in einem funfact endet: https://twitter.com/PellyNV/status/702556025816125440

deekey777
2016-07-21, 13:04:47
...

Keine Ahnung, wo was zum ersten Mal gezeigt wurde, Anfang Mai allerdings wurde Doom @Vulkan auf einer 1080 gezeigt. Daher verwundert das aktuelle Ergebnis bei Nvidia umso mehr.

https://www.youtube.com/watch?v=ueRjbYdcXbs

Du hast geschrieben:

Gerade bei Doom und Hitman (und auch bei z.B. AotS) hatte AMD massiv die Finger im Spiel

Jetzt weißt du aber nicht, dass Doom@Vulkan zum ersten Mal überhaupt auf einem event von Nvidia, genauer gesagt bei der Präsentation der GTX 1080 gezeigt wurde. Was denn nun?

Was kommt als Nächstes? Doom läuft so gut, weil die Konsolen eine Custom-APU von AMD haben?

dildo4u
2016-07-21, 13:08:57
Verstehe Dich nicht ganz. Sieht doch gar nicht schlecht aus?

Ebend es sieht für die 1060 nicht schlecht aus,selbe Leistung bei 40 Watt weniger Verbrauch.Hier wird davon gesprochen das sich die 480 spürbar in DX12 absetzen wird,dargo hat sogar geschrieben das die 470 an die 1060 kommen wird.

dargo
2016-07-21, 13:09:37
Das kann jetzt Zufall sein oder eben nicht. Deus EX wird AMD Karten sicher auch voll ausreizen als GE Titel, für BF 1 erwarte ich auch keine schlechten Ergebnisse und Watchdogs 2, seit dem Ubisoft wohl nicht mehr auf Gameworks setzt glaube ich auch nicht an umgekehrte Vorzeichen.

Zu Watch Dogs 2...
Watch Dogs 2 Features DirectX 12 Support; Will Be Highly Optimized for AMD
http://www.thecountrycaller.com/54684-watch-dogs-2-features-directx-12-support-will-be-highly-optimized-for-amd/

Ebend es sieht für die 1060 nicht schlecht aus,selbe Leistung bei 40 Watt weniger Verbrauch.Hier wird davon gesprochen das sich die 480 spürbar in DX12 absetzen wird,dargo hat sogar geschrieben das die 470 an die 1060 kommen wird.
Custom!!!

fondness
2016-07-21, 13:11:51
Was wäre eigentlich, wenn die LL-Zukunft dann eher das Bild von AotS oder des zweiten Quantum Break Benches zeigt? Oder Doom mit vollständiger AC-Unterstützung auf allen GPUs plötzlich kein RX-480-Vorzeigetitel mehr wäre?


Ich probiere es mal mit Logik: Findest du es nicht seltsam, dass angeblich (fast) alle DX12/Vulkan-Spiele auf den kleinen GPU-Underdog AMD und nicht auf Nvidia mit fast 80% Marktanteil optimiert sein sollen? Wäre da im Umkehrschluss die Devs nicht reichlich dumm, bzw. müsste man sich da nicht die Frage stellen, ob Nvidia den Dev-Support sträflich vernachlässigt? Oder könnte nicht doch etwas dran sein, dass AMD-GPUs einfach mehr von LL-APIs profitieren? -> plötzlich würde auch Mantle einen Sinn ergeben :)

dildo4u
2016-07-21, 13:15:04
Zu Watch Dogs 2...

http://www.thecountrycaller.com/54684-watch-dogs-2-features-directx-12-support-will-be-highly-optimized-for-amd/
Text lesen das sind Schlussfolgerungen vom Schreiber keine Handfesten Informationen von Ubisoft.

Ubisoft refrained from giving away more information, or even adding details to what kind of improvements are fans in for with Watch Dogs 2’s DirectX 12 integration


Die Gesinnung von dem Typ ist klar.

recent releases of pro-NVIDIA games have already done enough damage as it is.

Schnoesel
2016-07-21, 13:16:04
Watch Dogs 2 Features DirectX 12 Support; Will Be Highly Optimized for AMD

Das ist aber im Text nicht mehr sooo eindeutig:

"That being said, seeing the developer’s presence at AMD’s press briefing suggests that the sequel is going to be highly optimized for the red team’s graphical units. "

Also auch hier abwarten.

Die Gesinnung von dem Typ ist klar.


Er hat ja recht damit dass die Gameworkstitel AMD großen Schaden zugefügt haben. Da kann ich keine Gesinnung daran erkennen.

Menace
2016-07-21, 13:20:10
Ebend es sieht für die 1060 nicht schlecht aus,selbe Leistung bei 40 Watt weniger Verbrauch.Hier wird davon gesprochen das sich die 480 spürbar in DX12 absetzen wird,dargo hat sogar geschrieben das die 470 an die 1060 kommen wird.

Ja, der Stromverbrauch der 1060 ist schon recht nett. Trotzdem ist die 480 gleich schnell (als Referenz). Genau zwischen der 1060 und GTX980. Ist doch gut, wenn so eine Konkurrenz herrscht. Im Schnitt zu den DX11 Spielen also sogar als Referenz vers. Custom schneller. Gute Arbeit (von beiden; AMD und nivida).

Wer sich wo und unter welchen Bedingungen absetzen kann ist doch immer wieder sehr unterschiedlich. Vielleicht auch abhängig, wer gerade das Spiel unterstützt.

Schnoesel
2016-07-21, 13:22:05
Beide Karten gleich schnell und gleich gut? Nein das darf nicht sein. Hersteller A muss Hersteller B immer vernichten!!111

Rancor
2016-07-21, 13:23:22
Ich probiere es mal mit Logik: Findest du es nicht seltsam, dass angeblich (fast) alle DX12/Vulkan-Spiele auf den kleinen GPU-Underdog AMD und nicht auf Nvidia mit fast 80% Marktanteil optimiert sein sollen? Wäre da im Umkehrschluss die Devs nicht reichlich dumm, bzw. müsste man sich da nicht die Frage stellen, ob Nvidia den Dev-Support sträflich vernachlässigt? Oder könnte nicht doch etwas dran sein, dass AMD-GPUs einfach mehr von LL-APIs profitieren? -> plötzlich würde auch Mantle einen Sinn ergeben :)

Bis auf Quantumbreak und Hitman ist da aber nicht mehr viel. Doom muss man erstmal abwarten, was NV da mit dem Framedropping und dem AC Treiber hin bekommt. Ich finde ihr seid ein wenig zu euphorisch und vorschnell im roten Lager. Ja es sieht nicht schlecht aus für AMD, aber ich würde NV da noch nicht abschreiben

AtTheDriveIn
2016-07-21, 13:29:55
Ebend es sieht für die 1060 nicht schlecht aus,selbe Leistung bei 40 Watt weniger Verbrauch.

Wie kann man sich an 40 Watt nur so aufgeilen? :D

Nach 25h (Spielbetrieb) hast du eine kWh mehr auf dem Stromzähler. Wir reden hier von Entertainment-Hardware, nicht von Industrieprodukten bei der Effizienz schnell ein Tausende-Euro-Thema ist.

dildo4u
2016-07-21, 13:32:26
Bis auf Quantumbreak und Hitman ist da aber nicht mehr viel. Doom muss man erstmal abwarten, was NV da mit dem Framedropping und dem AC Treiber hin bekommt. Ich finde ihr seid ein wenig zu euphorisch im roten Lager.
Hitman läuft schon unter DX11 besser auf AMD,hat schon mal nix mit der Low Level API zu tun.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-7.html

Dino-Fossil
2016-07-21, 13:35:11
Eine sparsame Custom RX480 ist noch immer nicht in Sicht, oder? Quasi eine RX480 Nano?

Hätte ich auch gerne, aber ich fürchte die Hersteller kennen da nur eine Richtung.
Ich setze meine Hoffnung eher auf die 470.
Wobei ich noch nicht weiß, ob ich da ne 8Gb Variante nehmen würde, so Sie denn kommt.

AtTheDriveIn
2016-07-21, 13:35:22
Hitman läuft schon unter DX11 besser auf AMD,hat schon mal nix mit der Low Level API zu tun.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-7.html

AMD gewinnt dennoch dazu bei Hitman@DX12

fondness
2016-07-21, 13:38:45
Bis auf Quantumbreak und Hitman ist da aber nicht mehr viel. Doom muss man erstmal abwarten, was NV da mit dem Framedropping und dem AC Treiber hin bekommt. Ich finde ihr seid ein wenig zu euphorisch im roten Lager.

Ich sehe Quantum Break, Hitman, Forza 6, Doom und Gear of War. Auf Nvidia Seite sehe ich nur Tomb Raider. Ashes läuft mittlerweile zumindest auf Pascal ganz gut, da hat Nvidia wohl fleißig optimiert.

BK-Morpheus
2016-07-21, 13:38:56
Hitman läuft schon unter DX11 besser auf AMD,hat schon mal nix mit der Low Level API zu tun.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73040-nvidia-gtx-1060-6gb-review-7.html

AMD gewinnt dennoch dazu bei Hitman@DX12
Nicht füttern bitte.


[...]
Eine sparsame Custom RX480 ist noch immer nicht in Sicht, oder? Quasi eine RX480 Nano?
Was soll denn eine sparsame 480 sein? Meinst du eine kompakte, eine abgespeckte?

Wenn es um den Verbrauch geht, kannst ja jede x-beliebige 480 kaufen und sie dir dann sparsam (und wenn du willst auch langsamer) machen mit Wattman.

Menace
2016-07-21, 13:40:17
Hitman läuft schon unter DX11 besser auf AMD,hat schon mal nix mit der Low Level API zu tun.


Dildo, ist doch prima für die AMD Kunden. In beiden Fällen schneller als die 1060. Danke für den Link.

Hätte ich auch gerne, aber ich fürchte die Hersteller kennen da nur eine Richtung.
Ich setze meine Hoffnung eher auf die 470.
Wobei ich noch nicht weiß, ob ich da ne 8Gb Variante nehmen würde, so Sie denn kommt.

Wäre das dann ein äquivalent zu den x850iger Karten (also 6850, 7850)? War ja vor der Nano meine Richtung. :biggrin:

Schlammsau
2016-07-21, 13:42:06
Wie kann man sich an 40 Watt nur so aufgeilen? :D

Nach 25h (Spielbetrieb) hast du eine kWh mehr auf dem Stromzähler. Wir reden hier von Entertainment-Hardware, nicht von Industrieprodukten bei der Effizienz schnell ein Tausende-Euro-Thema ist.
Und das auch nur im Worst Case Szenario, in Wirklichkeit sind viel weniger Watt zwischen beiden Karten. Laut CB liegen nur ~30W zwischen beiden Karten beim Gesamtsystemverbrauch. 30 Watt unterschied unter absoluter Volllast! Rechne dir aus was das an Mehrkosten im Jahr bedeutet.

Das sind keine 10€ im Jahr! ;)

Menace
2016-07-21, 13:42:07
Was soll denn eine sparsame 480 sein? Meinst du eine kompakte, eine abgespeckte?

Wenn es um den Verbrauch geht, kannst ja jede x-beliebige 480 kaufen und sie dir dann sparsam (und wenn du willst auch langsamer) machen mit Wattman.

Gemeint war:
- sparsam
- kühl
- leise
- klein

Da die für den PC meiner Tochter ist, weiß ich nicht, ob ich sie gleich an den Wattman lassen soll. :wink:

Schnoesel
2016-07-21, 13:47:27
Dann würde ich auf die RX470 warten. Die soll auch in meinen HTPC eben wegen

- sparsam
- kühl
- leise
- klein

BK-Morpheus
2016-07-21, 13:50:44
@Menace:
Achso okay.

Kühler und leiser ist verständlich, nennt sich Custom Karte und kommt leider verspätet (wohl innerhalb der nächsten 2 Wochen).

Kleiner verstehe ich auch, deine Tochter hat wohl ein ITX Miniaturgehäuse und entsprechend keinen Platz für Standardkarten.

Aber in wie weit eine "sparsame" Edition kommen könnte ist mir unklar. Sollte diese dann RX480 ECO heißen und 1100 MHz Boost bei weniger Spannung haben, oder wie?
Evtl. suchst du eine Custom RX470 statt einer 480?
Ich frage, weil ich noch nie gesehen/gehört habe, dass von einer bestimmte Graka eine spezielle "sparsame" Version raus kommt. Ich glaube bei manchen Grakas kamen mal Mini-/Kompakt-Versionen raus und leider mussten manche dieser Karten durch die kompakten Maße und den daher auch kompakten Kühler Abstriche beim Takt machen. Die waren quasi etwas "gebremst", aber eine sparsam-Edition sollte das vermutlich auch nicht sein.

StefanV
2016-07-21, 13:52:28
Und ein Bekannter hat sich im Mai noch eine GTX 980 für knapp 500€ gekauft trotz meiner Warnung, weil unbedingt VR und so.

Eine R9 390 war ihm zu stromhungrig weil er ja NUR ein be quiet Straight Power e9 480 Watt hat. :freak:

Manchen Leuten ist leider echt nicht zu helfen...

Jetzt ist er ständig angepisst wenn ich ihm mit Benchmarks komme. :D

Tja pech gehabt. :biggrin:

/edit: Und das Beste, er ist ein Kandidat der Grakas extrem lange behält (Geiz ist geil ;)) Seine HD 6870 aus dem Jahre 2012 musste bis zum Kauf der 980 herhalten. ;D :freak:
Und das ist dann der Anfang davon, dass er nie wieder nVidia kaufen wird, eben aus diesem Grunde...

Das schöne ist, dass sich das ganze so langsam ein wenig herum spricht...
Und wenn das bei den meisten nicht so gut informierten Nutzern herumgesprochen hat, schaut es für nVidia nicht mehr ganz so toll aus. Und genau das scheint gerade der Fall zu sein, dass sich dieses rumspricht...

Rancor
2016-07-21, 13:53:12
Ich sehe Quantum Break, Hitman, Forza 6, Doom und Gear of War. Auf Nvidia Seite sehe ich nur Tomb Raider. Aber ja, abwarten.

http://cdn.wccftech.com/wp-content/uploads/2016/07/NVIDIA-GeForce-GTX-1060-Performance_DirectX-12.png ?

Ich denke abwarten ist das richtige.

fondness
2016-07-21, 13:54:01
http://cdn.wccftech.com/wp-content/uploads/2016/07/NVIDIA-GeForce-GTX-1060-Performance_DirectX-12.png ?

Ich denke abwarten ist das richtige.

Das sind nvidia Benchmarks die du hier verlinkst, da vertraue ich Golem doch etwas mehr^^

Messias
2016-07-21, 13:56:34
Das schöne ist, dass sich das ganze so langsam ein wenig herum spricht...
Und wenn das bei den meisten nicht so gut informierten Nutzern herumgesprochen hat, schaut es für nVidia nicht mehr ganz so toll aus. Und genau das scheint gerade der Fall zu sein, dass sich dieses rumspricht...

Wie kommst du darauf, daß es sich gerade jetzt rumspricht?
Immerhin haben wir das Phänomen schon seit einigen Jahren, daß nVidia Karten nach ihrer Ablösung durch einen Nachfolger im Vergleich zu AMD Karten anfangen, stark nachzulassen.
Sieht man ja auch an dem Fakt, daß 3DC regelmäßig die Performance Ratings anpasst und bisher immer zugunsten von AMD.

Das Problem ist eher die Kurzsichtigkeit der Käufer, die sich nur für die Performance zum Kaufzeitpunkt interessieren... wo es doch viel interessanter ist, ob ich auch nächstes Jahr noch alle großen Titel spielen kann.

Naja, aber auch das ist Ansichtssache...

fondness
2016-07-21, 13:56:52
Hier alle Details zur Devil:
https://www.computerbase.de/2016-07/powercolor-red-devil-rx-480-29.-juli/

Tru
2016-07-21, 14:00:38
Hier alle Details zur Devil:
https://www.computerbase.de/2016-07/powercolor-red-devil-rx-480-29.-juli/
Wo immer auch die 1.367 MHz herkommen: Auf der Produktseite, in der Pressemitteilung und im Schriftverkehr mit den PR-Menschen ist immer von 1.330 MHz im OC-Modus, 1.276 MHz im Silent-Modus die Rede.

StefanV
2016-07-21, 14:03:55
Ich probiere es mal mit Logik: Findest du es nicht seltsam, dass angeblich (fast) alle DX12/Vulkan-Spiele auf den kleinen GPU-Underdog AMD und nicht auf Nvidia mit fast 80% Marktanteil optimiert sein sollen? Wäre da im Umkehrschluss die Devs nicht reichlich dumm, bzw. müsste man sich da nicht die Frage stellen, ob Nvidia den Dev-Support sträflich vernachlässigt? Oder könnte nicht doch etwas dran sein, dass AMD-GPUs einfach mehr von LL-APIs profitieren? -> plötzlich würde auch Mantle einen Sinn ergeben :)
Könnte im Umkehrschluss auch ein Stinkefinger in Richtung nVidia sein, da man schlicht keinen Bock mehr auf deren Gängelung hat.

Wenn selbst solche Developer wie Ubisoft sich nicht mehr von nVidia vor den Karren spannen lassen, nach dem Gameworks Debakel und jetzt sogar mit AMD zusammenarbeiten, sollten so langsam die Alarmglocken leuten...

Fliwatut
2016-07-21, 14:05:18
Frag mich warum man das OC+ Modell bestellen sollte. Zwei Mausklicks mit Wattman. :D
Sind vllt. nochmal selektierte Chips?

StefanV
2016-07-21, 14:05:48
Ja, der Stromverbrauch der 1060 ist schon recht nett.
Bitte nicht das 192bit Speicherinterface vergessen!

Das sind allein schon etwa 6W für die beiden Speicherchips + Leistungsverbrauch vom Speichercontroller des Chips selbst.
Das allein sind also schon 10-20W, also so viel toller ist das jetzt auch nicht unbedingt...

Dino-Fossil
2016-07-21, 14:10:47
Aber in wie weit eine "sparsame" Edition kommen könnte ist mir unklar. Sollte diese dann RX480 ECO heißen und 1100 MHz Boost bei weniger Spannung haben, oder wie?
Evtl. suchst du eine Custom RX470 statt einer 480?


Nun, alle customs bisher setzen klar auf OC, vermutlich mit der zu erwartenden Folge für die Leistungsaufnahme.
Da wäre eine custom mit normalem oder etwas niedrigerem Takt aber guter Kühlung und undervolting bei absenken PT von Haus aus für mich interessanter.
Aber klar, das kann man natürlich auch selbst per Wattman erreichen.

Von daher ist die 470 für Leute wie uns wohl sinnvoller.

Schnoesel
2016-07-21, 14:11:14
Wenn selbst solche Developer wie Ubisoft sich nicht mehr von nVidia vor den Karren spannen lassen, nach dem Gameworks Debakel und jetzt sogar mit AMD zusammenarbeiten, sollten so langsam die Alarmglocken leuten...

Mir wird in sowas zu viel hineininterpretiert. Kann auch sein, dass man schlicht keine Lust hatte für GW Effekte zu zahlen die man auf Konsolen eh nicht anwenden kann.

N0Thing
2016-07-21, 14:13:37
http://abload.de/img/gtx-1060-review-61nsoa0.jpg

PS die 960 war echt ne grottige Karte.

In der Graphik ist aber nichts mehr von einer besonderen MSAA-Schwäche der RX 480 zu sehen. Zumindest sollte man erwarten, dass die RX 480 mit 4xMSAA stärker einbricht als mit 2xMSAA, wenn an deiner These der mangelnden Optimierung seitens AMD etwas dran sein sollte.

Mir fällt bei den Ergebnissen aber auf, dass die Min fps zwischen den beiden Szenarios von hardwarecanucks sehr ähnlich sind. Evtl. ist ihre Benchmarkstelle öfters mal im CPU-Limit. Das könnte dann auch die generell schlechtere Performance der AMD-Karten erklären, die ja unter DX11 noch am größeren CPU-Overhead zu knabbern haben.

StefanV
2016-07-21, 14:16:33
Mir wird in sowas zu viel hineininterpretiert. Kann auch sein, dass man schlicht keine Lust hatte für GW Effekte zu zahlen die man auf Konsolen eh nicht anwenden kann.
Richtig, das ist ein weiterer Faktor...

Aber ev. ist wirklich was dran, an meiner Theorie, dass man keinen Bock mehr auf nVidia und die Behandlung bzw 'Optimierung' von denen hat. Und dass auch AMD als Partner, aufgrund der Konsolen, lohnender ist.

Rancor
2016-07-21, 14:18:18
Als PC Spieler nimmt das alles kein gutes Ende. Wenn Nvidia nun den Bach runtergeht, dann haben wir den gleichen Mist wie jetzt, nur dann mit AMD. Die beiden IHVs müssen auf Augenhöhe sein. Deshalb kann ich nicht verstehen, wieso der möglich Untergang von Nvidia so frenetisch herbeigesehnt wird. Das mir völlig unverständlich.

Nehme wir einfach mal an die Szenarien, die hier gezeichnet werden treffen ein und man spinnt sie mal weiter:

Die LL Performance, die wir bisher von Nvidia gesehen haben, ist das Ende der Fahnenstange, weitere Leistungsgewinne sind weder durch DX12 noch durch Vulkan zu erreichen. Im Oktober kommt BF1. Auf Grund des immensen Einsatzes von AC, erreichen die Maxwell Karten kaum noch spielbare Framerates und auch Pascal steht nicht gut da. Die Custom RX 480 Karten erreichen die Performance der GTX 1070. Die Verkaufszahlen bei Nvidia brechen ein. Ein Shitstorm ungeahnten Ausmaßes geht auf Nvidia nieder. Vielen Kunden wechseln zur AMD, denn die RX 490 steht vor der Tür.

Ende des Jahre erscheint VEGA. Ein Compute Monster, das die GTX 1080 in allen Belangen vernichtet. Nvidia versucht mit einer 1080TI zu kontern, sieht aber, auf Grund der Architektur in den immer wichtiger werden LL Games, keinen Stich gegen VEGA.

Jetzt gehen noch 1 Jahr ins Land bis Nvidia mit Volta kontern kann. In der Zwischenzeit haben sich die Marktanteile dramatisch verschoben. AMD kommt auf über 70%.

Durch die sehr deutlichen Vorteile der LL APIs gelingt die Adaption am Markt viel schneller wie von Nvdia gedacht. Die neuen Konsolen ( PS4 Neo / Scorpio) sind auf dem Markt. Die Optimierungen auf die GCN Architektur werden immer stärker. Mit jedem neuen Spiel stehen die Nvidia Karten schlechter da.
Der Marktanteil von AMD steigt auf 80%.


Da Nvidia die Verluste anderweitig nicht kompensieren kann, verzögert sich aus finanziellen Gründen Volta. Ein Teufelskreis. 1 Jahr später meldet Nvidia Insolvenz an.

Ist es das was hier einige wollen?

fondness
2016-07-21, 14:20:42
Als PC Spieler nimmt das alles kein gutes Ende. Wenn Nvidia nun den Bach runtergeht, dann haben wir den gleichen Mist wie jetzt, nur dann mit AMD. Die beiden IHVs müssen auf Augenhöhe sein. Deshalb kann ich nicht verstehen, wieso der möglich Untergang von Nvidia so frenetisch herbeigesehnt wird. Das mir völlig unverständlich.

LOL, als ob auch nur im entferntesten die Gefahr bestehen wurde, dass Nvidia irgendwie untergeht.

y33H@
2016-07-21, 14:21:14
Bitte nicht das 192bit Speicherinterface vergessen! Das sind allein schon etwa 6W für die beiden Speicherchips + Leistungsverbrauch vom Speichercontroller des Chips selbst.
Das allein sind also schon 10-20W, also so viel toller ist das jetzt auch nicht unbedingt ...Gesetzt den Fall, Interface und Speicher werden überhaupt voll ausgelastet :P

dildo4u
2016-07-21, 14:22:14
In der Graphik ist aber nichts mehr von einer besonderen MSAA-Schwäche der RX 480 zu sehen. Zumindest sollte man erwarten, dass die RX 480 mit 4xMSAA stärker einbricht als mit 2xMSAA, wenn an deiner These der mangelnden Optimierung seitens AMD etwas dran sein sollte.

Mir fällt bei den Ergebnissen aber auf, dass die Min fps zwischen den beiden Szenarios von hardwarecanucks sehr ähnlich sind. Evtl. ist ihre Benchmarkstelle öfters mal im CPU-Limit. Das könnte dann auch die generell schlechtere Performance der AMD-Karten erklären, die ja unter DX11 noch am größeren CPU-Overhead zu knabbern haben.
CB hat die 480 mit dem neuen Treiber vor der 390,daher weicht GTA5 mit MSAA schon vom Schnitt ab.Wie andere ja schon gepostet hatten mit FXAA liegt die 480 deutlich besser.

Sunrise
2016-07-21, 14:23:08
Als PC Spieler nimmt das alles kein gutes Ende. Wenn Nvidia nun den Bach runtergeht, dann haben wir den gleichen Mist wie jetzt, nur dann mit AMD. Die beiden IHVs müssen auf Augenhöhe sein. Deshalb kann ich nicht verstehen, wieso der möglich Untergang von Nvidia so frenetisch herbeigesehnt wird. Das mir völlig unverständlich.
Drama baby, more drama! :eek:

Dino-Fossil
2016-07-21, 14:23:45
Ein Monopol gleich von welcher Seite kann nicht in unsrem Interesse sein.
Fanboys und trolle sind aber auch nicht der Maßstab.

Ich denke auch nicht, dass ernsthaft Gefahr besteht, Nvidia könnte den Anschluss verlieren.
Aber evtl. Steht AMD inder allgemeinen Wahrnehmung bald endlich wieder etwas besser da

Fliwatut
2016-07-21, 14:24:25
Oder könnte nicht doch etwas dran sein, dass AMD-GPUs einfach mehr von LL-APIs profitieren?
Es ist doch völlig logisch, dass die 480 mehr von LL-APIS profitiert als die 1060, dazu braucht man doch nur die Rohleistung zu vergleichen:
RX480 5161 vs. 3855 GFLOPS GTX1060. Je näher man jetzt an der Hardware programmiert, desto mehr kommt von der Rohleistung am Bildschirm an.

Sunrise
2016-07-21, 14:25:54
Es ist doch völlig logisch, dass die 480 mehr von LL-APIS profitiert als die 1060, dazu braucht man doch nur die Rohleistung zu vergleichen:
RX480 5161 vs. 3855 GFLOPS GTX1060. Je näher man jetzt an der Hardware programmiert, desto mehr kommt von der Rohleistung am Bildschirm an.
GCN würde noch mehr profitieren, wäre DCC auf einem Level mit NV. AMD muss das bei Vega mit HBM2 kompensieren. GDDR5X wäre theoretisch auch möglich, aber laut AMD-Folien ja nicht geplant.

dildo4u
2016-07-21, 14:26:45
Es ist doch völlig logisch, dass die 480 mehr von LL-APIS profitiert als die 1060, dazu braucht man doch nur die Rohleistung zu vergleichen:
RX480 5161 vs. 3855 GFLOPS GTX1060. Je näher man jetzt an der Hardware programmiert, desto mehr kommt von der Rohleistung am Bildschirm an.
Die 1060 hat nich nur 3.8 Tflops du vergisst den Boost.

https://en.wikipedia.org/wiki/GeForce_10_series

Laut CB boostet sie auch deutlich über die 4.3 TFlops.

https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_taktraten_der_founders_edition_und_msi_gaming

Grabhopser
2016-07-21, 14:33:17
Entweder beide mit Boost oder keiner.....

5,2 vs. 3.8 oder eben 5,8 vs. 4,3

Fliwatut
2016-07-21, 14:33:31
GCN würde noch mehr profitieren, wäre DCC auf einem Level mit NV.
Das ist ja jetzt mit Polaris schon besser geworden, wimre. Mit Vega wird das sicher weiter optimiert.

dildo4u
2016-07-21, 14:34:18
Nope ist nicht so einfach die 480 hält die 1266 nicht immer,die 1060 boost aber laut CB weit über 1.7Ghz.

Undertaker
2016-07-21, 14:35:23
Naja also bis auf ROTR zeigen eigentlich alles DX 12 Benches in eine Richtung

Genau das stimmt eben nicht: Bei Golem schneidet die RX 480 in AotS kaum besser ab als im DX11-Schnitt, in der einen Quantum Break Szene ist die Performance sogar äußerst schwach. In Total War hatten wir kürzlich einen ähnlichen Ausfall; hier wurden zwar softwareseitige Probleme ins Spiel gebracht, die aber wiederum gleichermaßen zum Ausschluss von Doom aus der Betrachtung führen müssten. Selbst wenn wir uns jetzt also mal nur auf AotS und Quantum Break beziehen, bleibt meine obige Frage noch immer unbeantwortet: Wenn es einen generellen, uneingeschränkten und massiven LL-Vorteil für die RX 480 gäbe, warum ist er dann hier nicht zu sehen?

Ich probiere es mal mit Logik: Findest du es nicht seltsam, dass angeblich (fast) alle DX12/Vulkan-Spiele auf den kleinen GPU-Underdog AMD und nicht auf Nvidia mit fast 80% Marktanteil optimiert sein sollen?

Zunächst einmal, siehe obiges; sämtliche Ausreißer auszuklammern und dann "(fast) alle" zu schreiben, ist doch etwas selektiv. Aktuell haben wir die Situation, das schon ein einziges neues DX12-Spiel einen Mittelwert dieser API um zweistellige Prozente verschieben könnte, weil die Datenbasis so klein ist.

Zu deiner Optimierungsfrage: Hitman ist ein Gaming Evolved Titel, der mMn gerne wie entsprechende GameWorks-Spiele in ein breites Gesamtrating einfließen darf, aber denkbar schlecht zur Bewertung einer allgemeinen API-Performance taugt. Doom nutzt derzeit lediglich auf der RX 480 die Fähigkeiten der Hardware aus; das ist ein nicht wegzudiskutierender Vorteil (wir hatten schließlich auch genügend andere Spiele, die erst nach Wochen oder Monaten auf AMD-Hardware anständig liefen), aber ebenfalls kein geeigneter Indikator für die künftige Performance mit beiderseits optimierten Treibern. Derzeit ist AMD unter den wenigen LL-Titeln zweifellos stärker engagiert, sicherlich auch, weil sich diese mit weniger Man-Power als viele DX11-Spiele optimieren lassen. Wie sich das in ein oder zwei Jahren mit 15, 20 oder noch mehr DX12-Spielen mit umfassender Optimierung über den gesamten Entwicklungsprozess darstellt, kann man derzeit kaum seriös vorhersagen. Folglich lässt sich auch nicht ausschließen, dass wir ein Leistungsbild wie in AotS oder der zweiten Quantum Break Szene von Golem sehen. Das Gegenteil davon natürlich ebensowenig.

Fliwatut
2016-07-21, 14:35:47
Entweder beide mit Boost oder keiner.
Der Boost ist imho nicht zuverlässig, weil man nie sagen kann, ob er dauerhaft gehalten werden kann, selbst bei den 1080ern muss man mit Afterburner rumschrauben, damit der Boost dauerhaft gehalten wird.

Flusher
2016-07-21, 14:36:27
Alleine schon die Diskussionen in diesem Thread zeigen, dass die RX480 nicht das indiskutable bessere Produkt ist und AMD es somit (mal wieder) verkackt hat.

Wieso muss bei AMD Karten in letzter Zeit immer ein "aber" dabei sein? Wieso kann es nicht einfach mal schlichtweg das rundere Produkt sein als das was NVIDIA abliefert. Jedes Mal hakt es an irgendwelchen Kleinigkeiten. Mal der Stromverbrauch, mal die Lautstärke, mal (oder meist) Treiberbugs und/oder die etwas geringere Performance.

Und die AMD Fanboys fangen an nach rechtfertigungen zu suchen. Das R&D Team ist kleiner, mit Untervolten würde es doch weniger Strom ziehen, die Lüfterkurve könne man ja anpassen und dieses mal: mit LL-APIs ist die RX480 doch das schnellere Produkt.

Menace
2016-07-21, 14:40:49
Dann würde ich auf die RX470 warten. Die soll auch in meinen HTPC eben wegen

@Menace:
Kühler und leiser ist verständlich, nennt sich Custom Karte und kommt leider verspätet (wohl innerhalb der nächsten 2 Wochen).


Danke, Euch beiden.


Aber in wie weit eine "sparsame" Edition kommen könnte ist mir unklar. Sollte diese dann RX480 ECO heißen und 1100 MHz Boost bei weniger Spannung haben, oder wie?


Warum nicht? Ich sehe die von mir geliebte Nano so. Man suchte sich den Sweetspot und hat eine relativ effiziente Karte. Das Custom-OC spüre ich als Kunde doch in den meisten Fällen sowieso nicht. Es könnte sogar sein, dass durch das werkseingestellte OC nur die Effizienz leidet.

Mir ist eine breit angelegte, sparsame Karte wichtiger (wobei das auch reine Esoterik meinerseits sein kann :confused: ).

Aber ich habe keine Eile und warte auf jeden Fall noch die RX470 ab (wobei das jetzt ot ist). :)

Dino-Fossil
2016-07-21, 14:43:00
Wieso muss bei AMD Karten in letzter Zeit immer ein "aber" dabei sein? Wieso kann es nicht einfach mal schlichtweg das rundere Produkt sein als das was NVIDIA abliefert. Jedes Mal hakt es an irgendwelchen Kleinigkeiten. Mal der Stromverbrauch, mal die Lautstärke, mal (oder meist) Treiberbugs und/oder die etwas geringere Performance.

K.A. ob hier nur mein Ironie-Detektor versagt, aber der Punkt ist doch auch, dass es zur Zeit keine Karte gibt, die immer und in allem Fällen unbestreitbar das bessere Angebot ist.
Jede Karte, ob AMD oder NVidia, hat den einen oder anderen "Haken", der dann auch von den persönlichen Ansprüchen abhängt.

Megamember
2016-07-21, 14:46:06
Wieso muss bei AMD Karten in letzter Zeit immer ein "aber" dabei sein? Wieso kann es nicht einfach mal schlichtweg das rundere Produkt sein als das was NVIDIA abliefert. Jedes Mal hakt es an irgendwelchen Kleinigkeiten. Mal der Stromverbrauch, mal die Lautstärke, mal (oder meist) Treiberbugs und/oder die etwas geringere Performance.



Das Problem für AMD ist halt egal was sie bringen Nvidia hat schon die passende Antwort in der SChublade die meist einen Ticken besser ist. Die 480 ist gewiss nicht schlecht aber vor allem die Referenzversion sieht aus als wäre sie überhastet und nicht ganz durchdacht released worden. Die 1060 ist im Gesamtpaket eben besser.

Schnoesel
2016-07-21, 14:47:11
@Undertaker

du bist hier der einzige der hier von einem "generellen, uneingeschränkten und massiven LL-Vorteil für die RX 480" spricht. Ich spreche lediglich davon das AMD in größerem Maße von DX 12 als Nvida proftiert was auch korrekt ist. Wenn du anderen Leute Worte in den Mund legen musst um Recht zu behalten ist das für mich keine Diskussionsgrundlage mehr.

Stand jetzt würde ich tippen dass AMD mehr von den LL APIs profitiert als Nvdia nicht zuletzt, da AMD unter DX11 wegen dem CPU Overhead immer hinten lag.


Das waren meine Worte.

Menace
2016-07-21, 14:48:02
Die 1060 ist im Gesamtpaket eben besser.

Wie immer gilt auch hier: Eben nicht für alle.

Sunrise
2016-07-21, 14:48:53
Alleine schon die Diskussionen in diesem Thread zeigen, dass die RX480 nicht das indiskutable bessere Produkt ist und AMD es somit (mal wieder) verkackt hat.
Ach so, weil A besser als B ist, hat B verkackt. Digitale Logik oder wie nennt man das? Zwischen 1 und 0 gibt es keine andere Wertung mehr, oder?

Schnoesel
2016-07-21, 14:50:31
Verkackt? Das sehen offenbar nicht alle so:

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Overclockers-UK-GTX-1060-Verkaeufe-1202290/

Undertaker
2016-07-21, 14:51:43
du bist hier der einzige der hier von einem "generellen, uneingeschränkten und massiven LL-Vorteil für die RX 480" spricht.

Sry für etwaige Missverständnisse, der letzte Satz war nicht mehr unbedingt auf dein Zitat bezogen. Derartige Andeutungen kamen eher von anderen Diskussionsteilnehmern, die allerdings bewusst die vorhandenen Ausreißer in der Gegenrichtung ignorieren. Wer anhand einer einstelligen Anzahl von Spielen, die z.T. noch betahafte LL-Implementierungen enthalten, sowie bei weitem nicht finalen Treibern eine Gesamttendenz ableiten möchte, sollte die angesprochenen Ausreißer auch erklären können.



Das waren meine Worte.

Stand jetzt würde ich tippen dass AMD mehr von den LL APIs profitiert als Nvdia nicht zuletzt, da AMD unter DX11 wegen dem CPU Overhead immer hinten lag.


Gegen solche Formulierungen würde ich gar nichts einwänden. :) Auch würde ich zweifellos sagen, das AMD / die RX 480 LL-treiberseitig derzeit sehr gut aufgestellt ist.

N0Thing
2016-07-21, 14:51:53
CB hat die 480 mit dem neuen Treiber vor der 390,daher weicht GTA5 mit MSAA schon vom Schnitt ab.Wie andere ja schon gepostet hatten mit FXAA liegt die 480 deutlich besser.

Wenn man das Review bei Guru3D (http://www.guru3d.com/articles_pages/geforce_gtx_1060_review,20.html) mit hinzu zieht, scheinen eher die Ergebnisse von hardwarecanucks abzuweichen. Der starke Einbruch mit 2xMSAA gegenüber dem moderaten Einbruch mit 4xMSAA bei hardwarecanucks deutet eher auf einen Messfehler oder o.Ä. hin.

Die Ergebnisse von CB hatte ich als Beispiel dafür verlinkt, dass AMD im Gegensatz zu deiner Aussage offensichtlich auch für GTA 5 gut optimiert hat. Deren Ergebnisse decken sich auch mit denen der PCGH.

Der_Korken
2016-07-21, 14:52:31
GCN würde noch mehr profitieren, wäre DCC auf einem Level mit NV. AMD muss das bei Vega mit HBM2 kompensieren.

Ich kann mir nicht vorstellen, dass der geringere Bandbreitenbedarf von GCN nur an irgendeiner besseren Kompression hängt. Die 1060 erreicht mit 75% der Bandbreite eine leicht bessere Leistung und scheint (?) auch weniger durch die Bandbreite limitiert zu sein. Wenn das allein durch eine Kompression der Daten erreicht wird, die zwischen GPU und VRAM übertragen werden, müsste die 1060 in ihren 6GB VRAM quasi auch mehr Daten unterbringen können, als die 480 in 8GB, denn was beim übertragen weniger Bits braucht, braucht auch weniger Bits im Speicher. Ich denke man sieht, dass das Quatsch ist. Es dürfte viel eher so sein, dass Nvidia geschickter puffert und die Daten besser lokal vorhält. Dadurch würde man nicht nur Bandbreite (sowohl extern als auch intern) sparen, sondern auch Energie. Aber das gehört eigentlich schon wieder in den Spekulationsthread ...

Ätznatron
2016-07-21, 14:55:15
Gibt's denn irgendwo schon ausführliche Vergleiche der Bildqualität?

Schnoesel
2016-07-21, 14:55:38
@Undertaker

Lass ich gelten im Eifer des Gefechts. Die LL APIs werden kein Gamebreaker sein, so dass AMD plötzlich vor Nvidia liegt aber sie werden beide Hersteller in der Leistung näher zusammenrücken lassen und das kann doch nur gut für uns sein. Ausreißer wird es dabei nach wie vor geben. Solange ich meinen Vishera noch habe kann ichs gar nicht erwarten bis sich die LL Apis durchsetzen ;-)

N0Thing
2016-07-21, 14:56:39
Wenn das allein durch eine Kompression der Daten erreicht wird, die zwischen GPU und VRAM übertragen werden, müsste die 1060 in ihren 6GB VRAM quasi auch mehr Daten unterbringen können, als die 480 in 8GB, denn was beim übertragen weniger Bits braucht, braucht auch weniger Bits im Speicher.

Das ist afaik nicht korrekt. Die bei der Übertragung komprimierten Daten müssen im Speicher wieder entpackt gespeichert werden, damit die Anwendung auch auf die Daten zugreifen kann. Man spart in dem Fall also wirklich nur Bandbreite durch die Komprimierung, keinen Speicherplatz.

Undertaker
2016-07-21, 14:59:49
@Undertaker

Lass ich gelten im Eifer des Gefechts. Die LL APIs werden kein Gamebreaker sein, so dass AMD plötzlich vor Nvidia liegt aber sie werden beide Hersteller in der Leistung näher zusammenrücken lassen und das kann doch nur gut für uns sein. Ausreißer wird es dabei nach wie vor geben. Solange ich meinen Vishera noch habe kann ichs gar nicht erwarten bis sich die LL Apis durchsetzen ;-)

Unterschreibe ich ebenfalls ohne Einschränkungen. Ohne die RX 480 wären wohl auch das allgemeine Preisniveau in dieser Leistungsklasse höher ausgefallen. Und wenn AMD die RX 480 unter LL-APIs einfacher auf eine gute Performance optimieren kann, hat das ebenfalls nur Vorteile. :)

medi
2016-07-21, 15:06:08
Gibts eigentlich sowas wie ne Art Framelimiter bei der Karte? Wo dann auch der Verbrauch gedrosselt ist? Ich brauch nämlich selten mehr als 60FPS und da ich viele ältere Spiele spiele wo auch meine 660er noch völlig ausreichend ist, bin ich an weniger Wärmeentwicklung sehr interessiert.

Schnoesel
2016-07-21, 15:09:33
Gibts eigentlich sowas wie ne Art Framelimiter bei der Karte? Wo dann auch der Verbrauch gedrosselt ist?

Im Treiber:

https://s32.postimg.org/ygfnf42kl/image.png

Wie gut der funktioniert? Keine Ahnung.

Dino-Fossil
2016-07-21, 15:12:30
Wie gut der funktioniert? Keine Ahnung.

In meiner Erfahrung sehr gut!

Einziges Problem das ich hatte war ein Bug mit den Radeon-Settings selbst, durch den manchmal Spieleprofilwerte ins globale Profil leaken.

Schaffe89
2016-07-21, 15:13:49
Wie erwartet dürften die customs durchaus konkurrenzfähig zu GTX1060 customs sein:


Schön dass die Nitro bald verfügbar ist, allerdings wirst du bei der Nitro dann schon einen exorbitanten Stromverbrauch hinnehmen müssen um auf eine GTX 1060 @ 2050mhz aufzuschließen.

Allerdings sind 1420mhz eine Hausmarke und unter Directx12 dürfte die rx480 dann die GTX 1060 10% überholen.

Schaffe89
2016-07-21, 15:21:10
Was wäre eigentlich, wenn die LL-Zukunft dann eher das Bild von AotS oder des zweiten Quantum Break Benches zeigt? Oder Doom mit vollständiger AC-Unterstützung auf allen GPUs plötzlich kein RX-480-Vorzeigetitel mehr wäre??

Genauso wird es später aussehen und einige wieder auf den Boden der Tatsachen holen. Selbst die Entwickler von Doom haben gesagt dass Vulkan auf der GTX 1060 noch nicht optimal läuft, trotzdem wird nur dieser Benchmark immerwieder verlinkt. Wäre Nvidia dort soweit vorne, würde sich jeder auf die Entwickler berufen die sagen, man habe noch nicht für AMD optimiert.


Wow, über 27% Leistungszuwachs bei 18,3%iger Kerntaktsteigerung. :O Das ist wirklich mal eine phänomenal gute Skalierung. Wenn man bedenkt, dass auch der Speicher etwas bremsen dürfte, wird das sogar noch beeindruckender. :O Wer kann mir erklären, wie das geht?

Ich habe irgendwie das Gefühl dass Nvidia nahe Quellen die Nitro und die Custommodelle überhypen, damit nachher wieder Enttäuschung eintritt.
1425mhz dürften so ziemlich das absolut Mögliche sein bei >200 Watt Strombedarf und die Skalierung sieht für mich so aus, als ob das Phantasiewerte sind.

fondness
2016-07-21, 15:22:34
Genau das stimmt eben nicht: Bei Golem schneidet die RX 480 in AotS kaum besser ab als im DX11-Schnitt,


Wenn die RX480 ~ gleichschnell ist wie die GTX1060, ist das allemal besser als im DX11 Schnitt.


in der einen Quantum Break Szene ist die Performance sogar äußerst schwach.

Ähm, das ist keine andere Quantum Break Szene, sondern einfach nur mit Medium Details. In Ultra Details liegt die RX480 klar vorne. Klar können wir jetzt anfangen Details zu reduzieren, die einem Hersteller nicht schmecken...


In Total War hatten wir kürzlich einen ähnlichen Ausfall; hier wurden zwar softwareseitige Probleme ins Spiel gebracht, die aber wiederum gleichermaßen zum Ausschluss von Doom aus der Betrachtung führen müssten.

Doom läuft auch ohne Async Compute auf AMD deutlich schneller. Man braucht ja nur ohne TSSAA zu benchen, denn nur dort wird AC verwendet.

Es bleibt dabei, dass Nvidia nur unter Tomb Raider einen Vorteil hat, wo die AMD DX12 Performance deutlich unter der in DX11 liegt, man also getrost von einem Spieleproblem sprechen kann.
In den anderen 6 Spielen liegt die RX480 zumindest (zum Teil deutlich) besser wie im DX11 Schnitt laut den Zahlen von Golem.
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Schaffe89
2016-07-21, 15:29:11
Dann würde ich auf die RX470 warten. Die soll auch in meinen HTPC eben wegen

"- sparsam
- kühl
- leise
- klein "

Ich will wirklich nicht unken, aber seid ihr nicht zu euphorisch?
AMD hat selbiges auch zur rx480 behauptet und da die GTX 1060 schneller ist als AMD lieb ist und vermutlich auch günstiger ist als AMD lieb ist, will man die Salvage SKU der rx470 sparsam anbieten?

Man wird aller Wahrscheinlichkeit nach den gleichen Stunt wie bei der rx480 hinlegen. Zuviel rausquetschen und den Chip nicht im Sweetspot betreiben.
Angeblich 110 watt TDP, das wären real bis zu 60 watt weniger als die rx480, das wird man mit den kolportierten 1202mhz Boosttakt niemals erreichen können, wenigstens bleibt die Karte dann innerhalb der Spezifikationen, aber sparsam, wenn der Top Dog schon nicht sparsam ist, halte ich doch für sehr unwahrscheinlich. Sparsam dürfte hoffentlich die rx460 werden.

Custom!!!

Wenn mich nicht alles täuscht, dann takten die rx480 Customdesigns allesamt leicht unter 1300mhz in der Praxis.
Von der GTX 1060 gibt es auch Customarten, daher ergibt dein Hinweis keinen Sinn.

Flusher
2016-07-21, 15:29:45
K.A. ob hier nur mein Ironie-Detektor versagt, aber der Punkt ist doch auch, dass es zur Zeit keine Karte gibt, die immer und in allem Fällen unbestreitbar das bessere Angebot ist.
Jede Karte, ob AMD oder NVidia, hat den einen oder anderen "Haken", der dann auch von den persönlichen Ansprüchen abhängt.

Na die 970 GTX wurde ja vor der Enthüllung der 3.5 GB-Problematik uneingeschränkt empfohlen.

captain_drink
2016-07-21, 15:29:56
Bei Doom unter Vulkan werden @NV Frames gedropped, eine Vergleichbarkeit zu AMD ist auch ohne AC nicht gegeben.

fondness
2016-07-21, 15:35:25
Bei Doom unter Vulkan werden @NV Frames gedropped, eine Vergleichbarkeit zu AMD ist auch ohne AC nicht gegeben.

Hier sollte Nvidia langsam mal brauchbare Treiber bringen.

Schaffe89
2016-07-21, 15:38:13
Und das ist dann der Anfang davon, dass er nie wieder nVidia kaufen wird, eben aus diesem Grunde...

Das schöne ist, dass sich das ganze so langsam ein wenig herum spricht...

Es ist aber eine Verschwörungstheorie die vor allem von dir gestreut wird, lieber Stefan, obwohl du eigentlich ein alter Hase bist.
Die GTX 980 ist bis heute nicht langsamer geworden als die 390 oder r9 390x.
Zu Release letztes Jahr war die r9 390 und die GTX 970 gleichauf gelegen, schaue ich heute CB rein hat sich die r9 390 in Full HD gerade mal 4% abgesetzt.
Ich finde das ehrlichgesagt einen ziemlichen Strohhalm sich an wenigen Prozent aufzuhängen. ( Wie gut das Computerbase kein World of War raft. Projec Cars oder Wolfenstein im test hat und in GTA5 FXAA statt MSAA einstellt)
Die Fury Karten werden aufgrund des geringen V-rams bald ziemlich baden gehen, dann erhoffe ich von dir bitte die gleiche Kritik dass die Karten über die Jahre schwächer werden.

Hier sollte Nvidia langsam mal brauchbare Treiber bringen.

Als AMD monatelang unter Open GL in Doom noch viel schwächer war, hast du das schön übergangen.
Und jetzt wenn Nvidia mal noch Treiber nachliefern muss, wo das ansonsten so oft AMD´s Problem ist, reitest du darauf rum.

Die Doppelmoral ist selbst für mich als AMD Anhänger 10 Meter gegen den Wind zu riechen.:tongue:

Cyphermaster
2016-07-21, 15:40:22
Man wird aller Wahrscheinlichkeit nach den gleichen Stunt wie bei der rx480 hinlegen. Zuviel rausquetschen und den Chip nicht im Sweetspot betreiben.Das kommt aus meiner Sicht im Wesentlichen darauf an, wie der noch recht unbekannte nVidia-Counterpart zu dieser Karte landen wird. Wenn GP107/GP108 eher auf die P11 hin entwickelt wurden, um deren absehbar sehr niedrigen Preispunkt auszukontern (= eher niedrige Performance), bliebe für eine sparsame RX470 genug Luft im Performance-Portfolio - wenn die aber eher nahe an GP106 aufgestellt wären, müßte man die 470 wohl tatsächlich auch so weit hochtreiben.

captain_drink
2016-07-21, 15:41:45
Hier sollte Nvidia langsam mal brauchbare Treiber bringen.

Ach fondness, geht es nicht mal ohne solche Insinuationen? Als ob die Treiber wegen ein paar gedroppter Frames nicht brauchbar wären.

Der_Korken
2016-07-21, 15:42:55
Das ist afaik nicht korrekt. Die bei der Übertragung komprimierten Daten müssen im Speicher wieder entpackt gespeichert werden, damit die Anwendung auch auf die Daten zugreifen kann. Man spart in dem Fall also wirklich nur Bandbreite durch die Komprimierung, keinen Speicherplatz.

Enthält der Speicher denn dann auch zusätzliche Logik zum dekomprimieren? Die GPU kann es ja nicht machen, weil sie am anderen Ende der Leitung sitzt. Ich muss mir mal genauer angucken, wie das funktioniert.

Dennoch kann ich mir nicht vorstellen, dass Nvidias Kompression noch mal so krass schneller ist, als die von AMD. Man hat ja einen abnehmenden Ertrag bei Kompressionsverfahren, da finde ich einen so krassen Vorsprung vorne weg irgendwie komisch.

Edit:

Ich hab nochmal kurz drüber nachgedacht: Komprimiert im Speicher ist doof, weil viele Probleme und wenig Gewinn. Der Punkt aus meinem vorigen Beitrag fällt also weg.

Schaffe89
2016-07-21, 15:43:58
Bitte nicht das 192bit Speicherinterface vergessen!
Das sind allein schon etwa 6W für die beiden Speicherchips + Leistungsverbrauch vom Speichercontroller des Chips selbst.
Das allein sind also schon 10-20W, also so viel toller ist das jetzt auch nicht unbedingt...

Liegt bestimmt auch am Speicherinterface, dass Nvidia weniger Strom verbraucht. Hätte AMD eine bessere Bandreiten Kompression, könnten sie den Chip auch mit kleinerem Interface verkaufen, ist nunmal nicht so. Es zählt was hinten herauskommt, an was das liegt ist da mal völlig sekundär.

iuno
2016-07-21, 15:44:20
Ach fondness, geht es nicht mal ohne solche Insinuationen? Als ob die Treiber wegen ein paar gedroppter Frames nicht brauchbar wären.
Natuerlich sind sie in der Situation unbrauchbar, weil sie das ganze Ergebnis voellig verfaelschen. Erst wenn das behoben ist, kann man auch wieder anstaendige Vergleiche ziehen.

Das ist afaik nicht korrekt. Die bei der Übertragung komprimierten Daten müssen im Speicher wieder entpackt gespeichert werden, damit die Anwendung auch auf die Daten zugreifen kann. Man spart in dem Fall also wirklich nur Bandbreite durch die Komprimierung, keinen Speicherplatz.
Das ergibt keinen Sinn. Wie Der_Korken schon sagt, muesste der Speicher selbst dann die entsprechende Logik haben, das auszupacken.
Man reserviert genausoviel Speicher wie ohne Kompression, weil man vorher nicht weiss, wie viel eingespart wird. Deshalb spart man sich auch keinen Speicherplatz. Man liest/schreibt aber dann eben nur die komprimierte Menge.

Liegt bestimmt auch am Speicherinterface, dass Nvidia weniger Strom verbraucht. Hätte AMD eine bessere Bandreiten Kompression, könnten sie den Chip auch mit kleinerem Interface verkaufen, ist nunmal nicht so. Es zählt was hinten herauskommt, an was das liegt ist da mal völlig sekundär.
Ich sehe das wie Der_Korken. Dass Nvidias Kompression so viel besser ist, muesste erstmal bewiesen werden. Ich denke, Nvidia arbeitet da woanders etwas besser.

fondness
2016-07-21, 15:46:32
Von den dadurch hervorgerufenen µRucklern ganz zu schweigen.

Schnoesel
2016-07-21, 15:46:46
Ich glaube captain_drink hat das so verstanden, dass der Nvidia Treiber generell nicht brauchbar wäre was natürlich Unsinn ist. Imo hat sich Fondness auf Doom bezogen.

Schlammsau
2016-07-21, 15:50:12
Ich probiere es mal mit Logik: Findest du es nicht seltsam, dass angeblich (fast) alle DX12/Vulkan-Spiele auf den kleinen GPU-Underdog AMD und nicht auf Nvidia mit fast 80% Marktanteil optimiert sein sollen? Wäre da im Umkehrschluss die Devs nicht reichlich dumm, bzw. müsste man sich da nicht die Frage stellen, ob Nvidia den Dev-Support sträflich vernachlässigt? Oder könnte nicht doch etwas dran sein, dass AMD-GPUs einfach mehr von LL-APIs profitieren? -> plötzlich würde auch Mantle einen Sinn ergeben :)
Amd gehören 2/3 des Marktes .... 😉

Vergiss die Konsolen nicht!

Schaffe89
2016-07-21, 15:58:17
Und was hat es AMD bis dato gebracht? Gar nix, obwohl das auch immer wieder zum großen Vorteil hochstilisiert wurde.
Einige werden sich noch wundern wie gut Nvidia unter Directx12 mit GP102 und den restlichen Derivaten abschneiden wird.
Ashes of the Singularity wurde zumindest auch bei Nvidia recht gut auf deren Karten optimiert und siehe da, die rx480 ist gleichauf mit der GTX 1060.

Das Bild wird wahrscheinlich oft genauso aussehen. Ich bin gespannt wann das Treiberupdate zu Doom kommt, ich vermute dass danach Doom nicht mehr als Beleg für die hohe Diretx12/Vulkan Leistung der AMD´s wie Ashes verlinkt wird.:tongue:

Cyphermaster
2016-07-21, 16:04:06
Kriegt euch bzw. euer Diskussionsniveau bitte wieder ein, bevor es wieder Karten setzt, sonst ist das Gejammer wieder groß.

Ätznatron
2016-07-21, 16:20:22
Hier sollte Nvidia langsam mal brauchbare Treiber bringen.

Sehe ich auch so. Und solange darauf gewartet werden muss, ist halt der Ist-Zustand derjenige, der bewertet werden muss.

Screemer
2016-07-21, 16:50:32
Doom läuft auch ohne Async Compute auf AMD deutlich schneller. Man braucht ja nur ohne TSSAA zu benchen, denn nur dort wird AC verwendet.

was aber wohl an den genutzten shader instrincts von amd liegt. mich würde interessieren, ob man rovs und cr auf ähnliche art und weise nutzen könnte um bei der leistung von seiten nv aufzuholen. außerdem bin ich schon sehr gespannt was es an fps bringt, wenn nv endlich das framedropproblem in doom löst.

im luxx hat jemand seine 480 unter wasser und ich habe das gefühl, dass polaris sehr stark auf temperatur reagiert. 1450MHz scheinen bei den ersten versuchen keinerlei probleme zu machen.

http://www.3dmark.com/3dm/13480530

http://www.hardwareluxx.de/community/f305/amd-rx480-polaris-10-sammelthread-faq-1125127-65.html#post24771568

Linmoum
2016-07-21, 16:59:32
Wer auf Tests von Raff wartet muss sich wohl noch gedulden, zumindest was die Nitro und Devil angeht :freak:

Die Sapphire RX 480 Nitro, sowohl in einer 8- als auch einer 4-GiByte-Version, und die Powercolor RX 480 Red Devil hängen leider im Zoll fest und kommen nicht mehr rechtzeitig an.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Asus-RX-480-GTX-1080-ROG-Strix-OC-Testlabor-1202312/

fondness
2016-07-21, 17:00:41
im luxx hat jemand seine 480 unter wasser und ich habe das gefühl, dass polaris sehr stark auf temperatur reagiert. 1450MHz scheinen bei den ersten versuchen keinerlei probleme zu machen.

http://www.3dmark.com/3dm/13480530

http://www.hardwareluxx.de/community/f305/amd-rx480-polaris-10-sammelthread-faq-1125127-65.html#post24771568

Er schafft 1465Mhz bei 1070 mV, not bad. Mehr Spannung scheint allerdings nichts zu bringen.

Hakim
2016-07-21, 17:07:32
Hatte bestimmt damit zu tun das auf der Verpackung Nitro aufgedruckt war :)

Dural
2016-07-21, 17:12:59
Kein Wunder mit einer 85er ASIC :rolleyes:

Blediator16
2016-07-21, 17:20:10
Kein Wunder mit einer 85er ASIC :rolleyes:

Alles klar streichen wir dann mal das Ergebnis - zählt nicht. :freak:

Hübie
2016-07-21, 17:41:56
Hatte bestimmt damit zu tun das auf der Verpackung Nitro aufgedruckt war :)

Hahahaaaaa:D Zwischen all den Grabenkämpfen endlich mal ein sinniger Beitrag.

Raff
2016-07-21, 17:44:28
Zeitnahe Videos gibt's trotzdem. ;) Genug zu tun ist auch mit den anwesenden Karten.

MfG,
Raff

Nightspider
2016-07-21, 17:46:13
Ob so eine Nitro unter Wasser auch >=1500Mhz schafft? :D

dildo4u
2016-07-21, 17:48:54
Wenn mich nicht alles täuscht, dann takten die rx480 Customdesigns allesamt leicht unter 1300mhz in der Praxis.
Von der GTX 1060 gibt es auch Customarten, daher ergibt dein Hinweis keinen Sinn.
Raff musste bei der ersten Custom 480 das Powertraget anheben um über 1.3Ghz zu kommen.Er sagt es ist nicht das finale Bios schätze mal die Karte kommt dann mit einem von Werk Erhöhtem Powertarget,der Kühler alleine reichte nicht den Verbrauch deutlich genug zu senken.

Nightspider
2016-07-21, 17:52:42
Jedenfalls sind die Taktraten gar keine schlechte Aussicht auf Vega.

Vega unter Wasser @Vulkan = niiiice. :D

Undertaker
2016-07-21, 18:35:40
Wenn die RX480 ~ gleichschnell ist wie die GTX1060, ist das allemal besser als im DX11 Schnitt.

Wollen wir uns ernsthaft über Größenordnungen <5% streiten? In AotS ist die RX 480 bei Golem marginal hinten, lass es im DX11-Schnitt wenige Prozentpünktchen mehr sein. Jetzt reden wir schon beinahe über Messtoleranzen.

Ähm, das ist keine andere Quantum Break Szene, sondern einfach nur mit Medium Details. In Ultra Details liegt die RX480 klar vorne. Klar können wir jetzt anfangen Details zu reduzieren, die einem Hersteller nicht schmecken...

Darum wirst du insbesondere mittelfristig gar nicht umhinkommen. 1440p- und 4K-Displays sind im Massenmarkt angekommen, da sind Ultra-Settings mit einer RX 480 oder vergleichbar nicht mehr drin. Selbst die 37 fps der RX 480 in medium @ Quantum Break 4K sind für einen avg-Wert schon arg grenzwertig. Bedenke, was du in der Lebensdauer der Karte noch alles reduzieren werden musst. Wir können aber gerne festhalten, dass die RX 480 in diesem heutigen Spiel für FullHD-Eigner in Führung liegt, bei Besitzern hochauflösenderer Monitore in Verbindung mit angepassten Settings im Rückstand. Auch da ergibt sich schon ein sehr viel differenzierteres Bild, als mancher hier vermitteln möchte.

Doom läuft auch ohne Async Compute auf AMD deutlich schneller. Man braucht ja nur ohne TSSAA zu benchen, denn nur dort wird AC verwendet.

Das Problem ist offensichtlich nicht nur AC, wenn die OpenGL-Version (die als HL-API maximal gleich schnell sein dürfte) eine wirklich merklich bessere Performance abliefert. Stichwort gedroppte Frames, wurde hier im Forum schon mehrfach erwähnt. Du darfst gerne anderer Ansicht sein, aber ich würde doch anregen, bzgl. Vulkan noch mit Verschiebungen zu rechnen. Der Hersteller hat doch recht klar vermittelt, das aktuell noch daran gearbeitet wird. Auf die von mir angesprochene Problematik von Hitman als Gaming-Evolved-Vorzeigetitel bist du ebenfalls nicht eingegangen; ich hattet bereits erwähnt, dass ich bewusst vom AMD/Nvidia geförderte Spiele gerne in ein ausgewogen zusammengestelltes Gesamtrating einbeziehen würde, jedoch nicht isoliert als brauchbaren Indikator für die Gesamteinordnung der RX 480 sehe. Du widersprichst dem? :)

Birdman
2016-07-21, 19:24:47
Klar können wir jetzt anfangen Details zu reduzieren, die einem Hersteller nicht schmecken...
Ich erinnere dich dann gerne an diese Aussage, wenn Du beim nächsten mal wieder gehen hohe Tesselations Faktoren wetterst.

Kriton
2016-07-21, 19:27:49
Die Frage ist aber berechtigt.

Ich habe auch schon mehrfach darauf hingewiesen, das eine Prognose auf Grund des Doom Benchmarks und Hitman, völlig absurd ist. Besonders aber bei Doom.

Du meinst weil bei Nvidia noch AC fehlt? Ich bin gespannt ob es kommt - denn so genau hat das niemand gesagt, sondern eigentlich nur: Wir schauen (zusammen mit Nvidia) was geht.

Hübie
2016-07-21, 19:30:19
Also wenn ich ehrlich bin regen mich hohe Tesselationfaktoren auch auf. Und irgendwo seh ich es nicht ein die aufgebrummt zu bekommen. Das hat nun aber nix mit asynchronous shader oder der RX480 zu tun. Bisher erwiesen sich GCN-Karten als eine bessere Langzeitinvestition, mit schwankender Performance.

fondness
2016-07-21, 19:47:37
Ich erinnere dich dann gerne an diese Aussage, wenn Du beim nächsten mal wieder gehen hohe Tesselations Faktoren wetterst.

Keine Ahnung warum du mich jetzt anmachen musst. Und nein, hohe Tess-Faktoren, die meist wenig bis nichts bringen, aber (btw. auf beiden Herstellern) unnötig Leistung kosten, sind damit in keinster Weise vergleichbar IMO.

Und jetzt mit 4K Screens zu kommen, wie Undertaker es macht um einen Bench mit Medium-Details zu rechtfertigen....nuff said, da es ohnehin zu nichts führt.

Kriton
2016-07-21, 19:51:38
Bist du sicher, dass AMD nicht wieder cheatet? Siehe Q3A, wo die Farbtiefe von 32 bit auf 16 bit reduziert wurde.

Aha, die Zeit für substanzloses FUD ist mal wieder angebrochen... Sicher, dass Nvidia nicht wieder cheatet? Da haben sich vor Jahren (und Du redest schließlich von Q3A) beide mal nichts genommen. Aber irgend etwas wird schon hängen bleiben, wie? Das Niveau in diesem Thread findet vermutlich nicht einmal einer unser Ingenieure hier im Forum mit dem Elektronenmikroskop.

Alleine schon die Diskussionen in diesem Thread zeigen, dass die RX480 nicht das indiskutable bessere Produkt ist und AMD es somit (mal wieder) verkackt hat.

Deiner Logik folgend hätte AMD also bei gleich gutem Produkt wie Nvidia es "verkackt" - nuff said.

Kriton
2016-07-21, 19:58:27
Ach fondness, geht es nicht mal ohne solche Insinuationen? Als ob die Treiber wegen ein paar gedroppter Frames nicht brauchbar wären.

Woher kommt das mit den drops eigentlich? Hat da mal jemand eine Quelle?

fondness
2016-07-21, 20:01:18
Asus Radeon RX 480 Strix im Test
https://www.computerbase.de/2016-07/asus-radeon-rx-480-strix-test/

Einen niedrigere Temperatur scheint dem Chip viel zu bringen:

Nutzt man die standardmäßige Gaming-Einstellung benötigt das System in Anno 2205 226 Watt und damit nur geringe elf Watt mehr als die Referenzkarte. Damit liegt die Karte ziemlich genau auf dem Niveau der MSI GeForce GTX 1060 Gaming 6G.

Selbe Leistungsaufnahme wie die GeForce GTX 1060 Gaming bei nur minimal weniger Leistung im Schnitt.

Der Kühler ist allerdings wie von ASUS gewohnt gelinde gesagt Müll und liegt nur halb am Chip auf.

dildo4u
2016-07-21, 20:06:17
Was für Sinnvoller Test dort testet man den Verbrauch mit einem Game wo die Karte massiv unterperformt.

Linmoum
2016-07-21, 20:12:06
Klassische Asus-Karte. :freak:

captain_drink
2016-07-21, 20:12:14
Steckdosenmessung noch dazu. Nicht wirklich aussagekräftig.

Woher kommt das mit den drops eigentlich? Hat da mal jemand eine Quelle?

Bitte: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11108152#post11108152

fondness
2016-07-21, 20:18:41
Sagen wir mal so, im Vergleich zu den 390(X)-Karte, die 200W mehr aus der Steckdose ziehen (und auch nicht schneller sind), ist das auf jeden Fall ein schöner Effizienzgewinn^^

Und Anno wird von vielen zur Messung der Leistungsaufnhame genommen AFAIK.

StefanV
2016-07-21, 20:21:00
Ich erinnere dich dann gerne an diese Aussage, wenn Du beim nächsten mal wieder gehen hohe Tesselations Faktoren wetterst.
Was soll der Quatsch?!

Das eine hat mit dem anderen mal rein gar nichts zu tun, denn hohe Tesselations Faktoren sind schlicht Bullshit und kosten nur unnötig Performance...

Von daher wäre es schön, wenn du aufhören würdest, hier einfach nur wilde Anschuldigungen zu verteilen und rumzupoltern und versuchen würdest, sachlich zu diskutieren.

StefanV
2016-07-21, 20:23:23
Steckdosenmessung noch dazu.
Weil?!
Verstehe nicht, was gegen Steckdosenmessung spricht, sofern das Equip halbwegs taugt...

Zumal die Leistungsaufnahme der CPU aufgrund diverser Dinge (wie Treiber) ja auch nicht unter den Tisch gefallen lassen werden sollte.

Dural
2016-07-21, 20:29:57
In einem test wo die 1060 37% schneller ist... zudem die msi laut pcgh ein pt von 200watt hat. Noch mal von vorne würde ich mal sagen.

uweskw
2016-07-21, 20:31:31
Steckdosenmessung noch dazu. Nicht wirklich aussagekräftig.



Bitte: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11108152#post11108152

Ansichtssache. Wenn die GraKa Berechnungen auf den Prozessor auslagert und damit der CPU Verbrauch hoch geht, dann interessiert mich in erster Linie der Gesamtverbrauch des Systems. Denn den bezahle ich.

greetz
US

Undertaker
2016-07-21, 20:40:22
Und jetzt mit 4K Screens zu kommen, wie Undertaker es macht um einen Bench mit Medium-Details zu rechtfertigen....nuff said, da es ohnehin zu nichts führt.

Ich hätte mich schon auf eine Begründung gefreut, warum 1440p/2160p med. im Zuge immer höher auflösender Monitore weniger Relevanz als 1080p ultra genießen soll, aber wie du magst. Mittelfristig werden wir bei einer Mittelklasse-Karte vom Schlage der RX 480 auch über 1080p med reden müssen, wenn man eine Lebenserwartung von 2-3 Jahren einplant.

Asus Radeon RX 480 Strix im Test
https://www.computerbase.de/2016-07/asus-radeon-rx-480-strix-test/

Man kann (aus Effizienzsicht) positiv festhalten, dass Asus die Karte mit den vorliegenden Taktraten nicht sinnlos "überfährt". Gerade der Silent-Mode sieht mir am sinnvollsten aus, Max-OC eher weniger.

Disco_STFU
2016-07-21, 20:40:35
Ein Test in dem eine Radeon auf Augenhöhe mit Nvidia ist.

Muss scheisse sein.

Geht doch bitte einfach...

edit: Ich würde gern mal wissen was Undervolting bei so ner Karte bringt. bestimmt das ein oder andere %.

captain_drink
2016-07-21, 20:42:56
Weil?!
Verstehe nicht, was gegen Steckdosenmessung spricht, sofern das Equip halbwegs taugt...

Zumal die Leistungsaufnahme der CPU aufgrund diverser Dinge (wie Treiber) ja auch nicht unter den Tisch gefallen lassen werden sollte.

Ansichtssache. Wenn die GraKa Berechnungen auf den Prozessor auslagert und damit der CPU Verbrauch hoch geht, dann interessiert mich in erster Linie der Gesamtverbrauch des Systems. Denn den bezahle ich.

greetz
US

Wenn es darum geht, was man letztlich zahlt, dann sind Steckdosenmessung ja (im Groben) i.O.
In dem Fall ging es aber um die Frage, ob die 480 hinsichtlich der Effizienz zur 1060 aufschließen kann, und in dem Fall sind die anderen Komponenten vollkommen irrelevant.
Für Effizienzbetrachtungen sollten die Karten isoliert und in einem Titel, der die Karten ähnlich auslastet, gemessen werden.

Voodoo6000
2016-07-21, 20:44:13
Die Asus enttäuscht, wobei etwas anderes habe ehrlich gesagt auch von Asus auch nicht erwartet. Der Kühler ist für kleine Chips einfach nicht gebaut.

dildo4u
2016-07-21, 20:46:39
Ein Test in dem eine Radeon auf Augenhöhe mit Nvidia ist.

Das ist der Punkt bei Anno 2205 ist sie nich auf Augenhöhe daher macht der Verbrauchs test damit kein Sinn.Es ist wesentlich interessantere für ein potenziellen Käufer wie sich die Karte/Kühlung verhält wenn sie wirklich belastet wird.

uweskw
2016-07-21, 20:46:44
......Für Effizienzbetrachtungen sollten die Karten isoliert und in einem Titel, der die Karten ähnlich auslastet, gemessen werden.


Dann aber bei gleicher Arbeitsleistung. Und die ist nicht gegeben wenn die eine Karte Arbeit an die CPU wegschiebt.

greetz
US

edit:
gibts irgenwo eine Betrachtung die zeigt wie die CPU-Auslastung bei Anno mit den verschiedenen GraKas ist?

Schlammsau
2016-07-21, 20:47:13
Wer sagt das sie in Anno nicht voll ausgelastet ist?

Linmoum
2016-07-21, 20:48:06
Die Asus enttäuscht, wobei etwas anderes habe ehrlich gesagt auch von Asus auch nicht erwartet. Der Kühler ist für kleine Chips einfach nicht gebaut.
Asus macht es einem auf jeden Fall immer wieder leicht, die Finger von deren Karten zu lassen.

Irgendwie schade, aber wahrscheinlich lernt man dort auch in den nächsten Jahren nicht dazu...

Disco_STFU
2016-07-21, 20:48:38
Wer sagt das sie in Anno nicht voll ausgelastet ist?

Das frag ich mich allerdings auch.

captain_drink
2016-07-21, 20:52:40
Dann aber bei gleicher Arbeitsleistung. Und die ist nicht gegeben wenn die eine Karte Arbeit an die CPU wegschiebt.

greetz
US

Was verstehst du unter "Wegschieben"?

o3
2016-07-21, 20:55:02
Damit ist klar, das ASUS es wieder verkackt hat.

Mal sehen wie das bei Sapphire und MSI aussieht.

fondness
2016-07-21, 20:59:42
Ich hätte mich schon auf eine Begründung gefreut, warum 1440p/2160p med. im Zuge immer höher auflösender Monitore weniger Relevanz als 1080p ultra genießen soll, aber wie du magst. Mittelfristig werden wir bei einer Mittelklasse-Karte vom Schlage der RX 480 auch über 1080p med reden müssen, wenn man eine Lebenserwartung von 2-3 Jahren einplant.


Ich habe schon zu viele solche Mass-Quotes mit dir geführt, um zu wissen, wohin das führt. Du gibts ohnehin nicht nach, ich auch nicht und am Ende hat man maximal den Thread geschrottet.

Das ist der Punkt bei Anno 2205 ist sie nich auf Augenhöhe daher macht der Verbrauchs test damit kein Sinn.Es ist wesentlich interessantere für ein potenziellen Käufer wie sich die Karte/Kühlung verhält wenn sie wirklich belastet wird.

Andere Testseiten veröffentlichen gar nicht die Performace bei ihren Strommessungen. BTW weißt du auch gar nicht, ob CB bei der Strommessung dieselbe Szene verwendet wie beim Performacetest. Und selbst wenn es so wäre, heißt das ja nicht automatisch, dass die Karte nicht voll ausgelastet ist.

Wer sagt das sie in Anno nicht voll ausgelastet ist?

Nachdem eine Erhöhung des PT mehr Leistung bringt, scheint die Karte auf jeden Fall ausgelastet und am PT-Limit zu operieren.

uweskw
2016-07-21, 21:06:57
Was verstehst du unter "Wegschieben"?

Keinen Plan wie das technisch bewerkstelligt wird. Aber es ist nicht der erste Test in dem das Gesamtsystem nicht den Verbrauchsvorteil der blanken NV Karte wiederspiegelt.
Und was mich als Kunde interessiert ist das Spiele Erlebnis und die damit entstehenden Kosten. Einzelbetrachtungen mögen aus akademischer Sicht interessant sein. Für mich zählen Kosten und Nutzen.
Obwohl mich 0,5 Cent mehr oder weniger pro Stunde Zocken eh nicht juckt.
Total überbewertet das Thema.


greetz
US

fondness
2016-07-21, 21:08:30
Keinen Plan wie das technisch bewerkstelligt wird. Aber es ist nicht der erste Test in dem das Gesamtsystem nicht den Verbrauchsvorteil der blanken NV Karte wiederspiegelt.
Und was mich als Kunde interessiert ist das Spiele Erlebnis und die damit entstehenden Kosten. Einzelbetrachtungen mögen aus akademischer Sicht interessant sein. Für mich zählen Kosten und Nutzen.
Obwohl mich 0,5 Cent mehr oder weniger pro Stunde Zocken eh nicht juckt.
Total überbewertet das Thema.


greetz
US

Du hast auf jeden Fall einen validen Punkt. Die bessere CPU-Auslastung unter DX11 gibt es bei nvidia natürlich auch nicht "for free". Das kann man durchaus mal erwähnen, wenn man über die niedrige Leistungsaufnahme der Karten und die tolle CPU-Auslastung berichtet. Unterm Strich verbraucht nämlich dann das Gesamtsystem u.U. eben nicht mehr weniger.

Fliwatut
2016-07-21, 21:10:24
Ich weiß gar nicht, warum der Stromverbrauch so ungeheuer wichtig ist. Wenn ich mir nen Porsche kaufe ist mir der Spritverbrauch auch total egal.

Undertaker
2016-07-21, 21:11:40
Ich habe schon zu viele solche Mass-Quotes mit dir geführt, um zu wissen, wohin das führt. Du gibts ohnehin nicht nach, ich auch nicht und am Ende hat man maximal den Thread geschrottet.

Warum wusste ich, dass diese sachliche Ontopic-Frage von dir nicht beantwortet werden wird? Schade, dass du nicht einmal eine differenzierte Betrachtung, die Vorteile unter FullHD + Ultra sowie die Nachteile und 1440p/2160p Med zusammenfasst, mitgehst. Eine derart selektive Sichtweise macht wirklich jede seriöse Diskussion kaputt.

Wer sagt das sie in Anno nicht voll ausgelastet ist?

Unabhängig davon, wo Anno jetzt verbrauchstechnisch einzuordnen ist, wäre eine etwas breitere Spielebasis für die Verbrauchsmessung schon schön gewesen.

https://www.computerbase.de/2016-06/radeon-rx-480-test/9/#diagramm-leistungsaufnahme-des-gesamtsystems-anno-2205

Beim Referenzmodell gehörte Anno eher zu jenen Spielen, bei denen die RX 480 in Relation sehr wenig verbraucht.

Edit: Beim Blick auf die zugehörigen fps-Raten muss ich doch sagen, dass Anno hier kein sinnvolles Spiel für die Verbrauchsmessung darstellt. Da sollte doch eher ein Fall gewählt werden, der in etwa dem allgemeinen Mittel (Verbrauchs- und Performance-seitig) nahe kommt.

fondness
2016-07-21, 21:13:13
Warum wusste ich, dass diese sachliche Ontopic-Frage von dir nicht beantwortet werden wird? Schade, dass du nicht einmal eine differenzierte Betrachtung, die Vorteile unter FullHD + Ultra sowie die Nachteile und 1440p/2160p Med zusammenfasst, mitgehst. Eine derart selektive Sichtweise macht wirklich jede seriöse Diskussion kaputt.


Wirklich extrem unnötig da jetzt noch nachzutreten, aber so ist man es von dir ja gewohnt und genau deshalb habe ich keine Lust auf eine solche Diskussion, denk mal drüber nach. :)

Jetzt eine Diskussion anzuzetteln, warum man nicht besser 4K + Medium Details statt allen Details benchen sollte, sorry aber das geht mir wirklich zu weit und ist auch IMO sicher nicht mehr OnTopic :ugly:

captain_drink
2016-07-21, 21:20:08
Unterm Strich verbraucht nämlich dann das Gesamtsystem u.U. eben nicht mehr weniger.

Bessere CPU-Auslastung geht aber auch mit höherer Leistung einher. An den Verhältnissen ändert sich also nicht viel, auch wenn absolut ähnliche Zahlen rauskommen mögen.

Ätznatron
2016-07-21, 21:20:24
Nach Vorstellung der GTX 1060 schnellt offenbar der Absatz von AMD-Karten in die Höhe:

Demnach seien die Verkäufe der Geforce GTX 1060 durchaus solide gewesen, jedoch seien am 19. Juli vor allem die Zahlen von anderen Modellen hochgeschossen. Im Falle der Radeon RX 480 im Referenzdesign habe es einen kleinen Schub gegeben. Sprichwörtlich explodiert seien die Vorbestellungen der Sapphire RX 480 Nitro.

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Overclockers-UK-GTX-1060-Verkaeufe-1202290/

Undertaker
2016-07-21, 21:21:15
Wirklich extrem unnötig da jetzt noch nachzutreten. Ich bin jetzt lange genug auf deine immer wieder neuen Konstrukte eingegangen. Aber jetzt eine Diskussion anzuzetteln, warum man nicht besser 4K + Medium Details statt allen Details benchen sollte, sorry aber das geht mir wirklich zu weit und ist auch IMO sicher nicht mehr OnTopic :ugly:

Es ist absolut ontopic, nicht nur die von dir selektierten RX-480-Benchmarks zu betrachten sondern die komplette Datenbasis des entsprechenden Artikels. Beide Szenarien spiegeln vergleichbar spielbare Settings auf einer Mittelklasse-GPU wieder und ich sehe keine Begründung, warum du dich darauf versteifst die RX 480 ausschließlich als FullHD @ Ultra statt 1440p/2160p @ Med Karte anzusehen. Das wird jeder Käufer anders sehen und ich halte beide Messungen für gleichermaßen relevant. :)

Edit: Und damit überlasse ich dir nun wirklich das letzte Wort. Vielleicht ja ebenfalls mit Themenbezug? :)

fondness
2016-07-21, 21:22:06
Bessere CPU-Auslastung geht aber auch mit höherer Leistung einher. An den Verhältnissen ändert sich also nicht viel, auch wenn absolut ähnliche Zahlen rauskommen mögen.

Das wäre nur der Fall, wenn man davon ausgeht, dass nvidia das zusätzliche Multithreading keine Effizienz kostet - das halte ich für arg optimistisch. Was der nvidia-Treiber da sonst noch so macht weiß ohnehin schon lange niemand mehr, jedenfalls kostet jede Berechnung auf der CPU natürlich auch Strom.

Kriton
2016-07-21, 21:23:22
Steckdosenmessung noch dazu. Nicht wirklich aussagekräftig.



Bitte: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11108152#post11108152

Danke. Wobei ich den Post insoweit nicht verstehe ob das ein Problem mit G-Sync unter Vulkan ist (durch den Post auf den er sich bezieht) oder generell.

o3
2016-07-21, 21:24:09
@Ätznatron

Und das wundert dich?

Von den tollen Versprechen Nvidias sind lausige 6% übriggeblieben.
Ich glaube mit so einem Tiefschlag bei der, auch besonderns von der dt. "Fachpresse" mit Vorschusslorbeeren überhäuften GTX 1060, haben nur ein paar Realisten gerechnet.

captain_drink
2016-07-21, 21:25:06
Ist ein generelles Problem.

Schnoesel
2016-07-21, 21:26:09
Abgesehen davon, dass die Asus:

- out of the box zu laut ist
- wahrscheinlich zu teuer ist
- brutal riesig ist

finde ich die Karte an sich doch gar nicht schlecht. Bei der Performance nahezu gleich auf mit einer MSI 1060 Gaming die derzeit auch viel zu teuer verkauft wird. Sapphire wirds wohl als einziger Hersteller wieder richten aber sonst gefällt mir eigentlich schon wohin die Reise geht.

fondness
2016-07-21, 21:26:12
Es ist absolut ontopic, nicht nur die von dir selektierten RX-480-Benchmarks zu betrachten sondern die komplette Datenbasis des entsprechenden Artikels. Beide Szenarien spiegeln vergleichbar spielbare Settings auf einer Mittelklasse-GPU wieder und ich sehe keine Begründung, warum du dich darauf versteifst die RX 480 ausschließlich als FullHD @ Ultra statt 1440p/2160p @ Med Karte anzusehen. Das wird jeder Käufer anders sehen und ich halte beide Messungen für gleichermaßen relevant. :)

Eben hast du noch geschrieben du lässt mir das letzte Wort, war wohl nichts LOL. :ugly:

Achso, du hast es schon wieder Wegeditiert. :)

Kriton
2016-07-21, 21:26:47
Wenn es darum geht, was man letztlich zahlt, dann sind Steckdosenmessung ja (im Groben) i.O.
In dem Fall ging es aber um die Frage, ob die 480 hinsichtlich der Effizienz zur 1060 aufschließen kann, und in dem Fall sind die anderen Komponenten vollkommen irrelevant.
Für Effizienzbetrachtungen sollten die Karten isoliert und in einem Titel, der die Karten ähnlich auslastet, gemessen werden.

Wäre es interessant, falls ein Treiber z.B. besondere CPU-Last erfordert, zu sehen wie das Gesamtsystem Strom verbraucht? Der Gedanke ist übrigens IHV-agnostisch. Wenn ich nicht irre gelint Nvidia die bessere DX11-Performance im Treiber ja insbesondere durch bessere Nutzung des Multithreadings und nicht Reduktion der Last als solcher.

Ätznatron
2016-07-21, 21:26:49
@Ätznatron

Und das wundert dich?

Von den tollen Versprechen Nvidias sind lausige 6% übriggeblieben.
Ich glaube mit so einem Tiefschlag bei der, auch besonderns von der dt. "Fachpresse" mit Vorschusslorbeeren überhäuften GTX 1060, haben nur ein paar Realisten gerechnet.

Nö, das wundert mich nicht.

captain_drink
2016-07-21, 21:30:24
Wäre es interessant, falls ein Treiber z.B. besondere CPU-Last erfordert, zu sehen wie das Gesamtsystem Strom verbraucht? Der Gedanke ist übrigens IHV-agnostisch. Wenn ich nicht irre gelint Nvidia die bessere DX11-Performance im Treiber ja insbesondere durch bessere Nutzung des Multithreadings und nicht Reduktion der Last als solcher.

Ich fände es generell interessant, mal die Wechselwirkungen der verschiedenen Komponenten hinsichtlich Leistungsaufnahme und Effizienz zu untersuchen. Konkrete Tests kenne ich zu dem Thema keine, weshalb man sich oft auf Vermutungen verlassen muss.

Edit: Insbesondere LL-APIs könnten hier auch noch spannend sein (OGL/DX11 gg. Vulkan/DX12)

Ätznatron
2016-07-21, 21:34:16
Ich fände es generell interessant, mal die Wechselwirkungen der verschiedenen Komponenten hinsichtlich Leistungsaufnahme und Effizienz zu untersuchen. Konkrete Tests kenne ich zu dem Thema keine, weshalb man sich oft auf Vermutungen verlassen muss.

Es gab vor einiger Zeit mal Messungen zu dem Thema (iirc auf CB), und es war wohl tatsächlich so, dass die Leistungsaufnahme der CPUs mit nVidia-Karten höher war.