PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R9 380 (X) vs. GTX 960 mit Intel i3; i5; i7


marc-05
2016-01-19, 20:22:10
PC Labs hat mal R9 380 (x) gegen die GTX 960 (http://pclab.pl/art67799.html)antreten lassen .Darunter verschieden Hersteller bei
der GTX960 von Asus; Gainward; Gigabyte; Inno; MSI; PNY
R9 380 (X) sind Asus; Sapphire; XFX mitbei.
Dazu auch mal mit verschieden Prozessoren i3 4130 ; i5 4570 und den i7 6700 mit 4,7 Ghz

Hier mal ordenlichen ausreißer bei der R9 380 X bei Mini-FPS mit dem i3 im Vergleich der GTX 960
http://pclab.pl/art67799-41.html

Crysis 3 (The Root of all Evil)
R9 380x -30% gegenüber GTX 960
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/01/gfx_r9380x_gtx960/charts/cpu/c3r_1920vh.png

Fallout (Boston Common)
sind 33% wo die 960er schneller ist
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/01/gfx_r9380x_gtx960/charts/cpu/f4b_1920u.png

GTA 5
liegt der maximale Vorsprung fast 60 % ! (58,33 %)
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/01/gfx_r9380x_gtx960/charts/cpu/gta5p_1920h.png

Leonidas
2016-01-20, 05:23:49
Das sieht böse aus für AMD. Getestet wird üblicherweise mit 6700K, die Käufer dieser Karten sitzen aber eher bei 4570 und kleiner - und dort ist AMD klar schlechter. Muß thematisiert werden.

dildo4u
2016-01-20, 06:34:02
AMD will das aussitzen bis DX12 Standard wird,ich hätte gedacht,das sich da spätestens mit Crimson was tun wird dem ist aber nicht so.Ich hab mir jetzt eine Wakü für mein AMDX6 geholt und werde ihn weiter nutzen,da ist für mich nur Nvidia eine Option egal welche Ramsch Preise AMD anbietet.

Mr. Lolman
2016-01-20, 06:41:30
Blabla, wie oft denn noch die alte Geschichte, dass NVs (indirekt durch Mantle angeleierte) Threadoptimierungen dazu führen, dass der CPU-Load nun geringer ist.

Und wers nicht glauben will, soll sich zuerst mal Skalierungsbenchmarks mit Veröffentlichungsdatum VOR Mantle ansehen.Ich warte auch auf DX12 und Async Shader, dann hat meine 290X ihren 2. Frühling - momentan komm ich jedoch mit einem 4770K@4.3 mehr als gut zurecht.

Warum diese Benchmarks sogar prinzipiell schlecht sind:

a) PCLab.pl - ich hab noch nie einen Benchmark von denen gesehen, wo NV verglichen mit anderen HW-Seiten nicht tendenziell etwas stärker dagestanden wär.

b) Wer mit seiner GraKa im CPU-Limit spielt, hat ein suboptimal zusammengestelltes System, komisch gewählte Settings, oder sonst irgendwas nicht so recht verstanden.

c) @TS: Mini-FPS sind per se als Wert auch fragwürdig, ich würde zB. nie am gleichen System AMD und NV gegeneinander antreten lassen (auch wenn das alle machen - eigtl. braucht man 2 baugleiche Systeme) und -30% != +30%

dildo4u
2016-01-20, 06:46:00
Der PC Lab Bench bestätigt Digital Foundry scheint mir nicht weit hergeholt.

https://youtu.be/imcj_BxGqD4

Heute sind fast alle AAA Games Open World und CPU lastig (Far Cry4,Watch Dogs,AC:Syndicate,Witcher 3,Batman AK,Fallout 4,Metal Gear 5,Dying Light,Just Cause 3,GTA5,The Crew) es ist ein massives Problem aber schön weiter kleinreden.

Mr. Lolman
2016-01-20, 06:52:49
CPU-lastig schon, nur liegt das CPU-Limit meistens in fps Gefilden, wo man wegen GraKa-Limit schon lang nicht mehr hinkommt*. Auch ist die Latenz, bis das Bild generell am Schirm ist bei NV höher als bei AMD.

*ok, vll nur ich, ich spiel halt lieber mit 3840x1632 und soviel AA wie geht, anstatt mit Pixelgrafik und doppeltsoviel fps. Ich kenn zumindest keine CPU-lastigen Openworldshooter, der hohe fps braucht, und wo die Grafik ein Nebeneffekt ist.

Ich spiel am PC, weil ich gute Grafik will, und für die muss halt hauptsächlich die GraKa ackern, bei mir zumindest.

dildo4u
2016-01-20, 07:00:41
Wenn ich mit der Maus zocke brauch ich 60fps alles andere füllt sich scheiße an.
Irgendwie kann ich Latenz auf dem PC weniger verzeihen als auf der Konsole vermutlich weil ich weiß wie schnell mein Monitor im Vergleich zu meinem TV ist.
Ich schätze mal das wird einigen PC Gamern so gehen ansonsten gäbs kein Markt für 120/144hz TFT's.

Mr. Lolman
2016-01-20, 07:25:45
Wenn ich mit der Maus zocke brauch ich 60fps alles andere füllt sich scheiße an.

Liegt evtl an der Grafikkarte. ;D

z3ck3
2016-01-20, 07:35:33
Könnten das ggf. auch Nebenwirkungen von Nvidias Gameworks sein? Wenn es rein auf AMD zurückzuführen wäre, dann müsste es eigentlich konstanter der Fall sein. Aber nicht mal bei den Spielen wo es so ist, ist es bei jedem Szenario so.

(del)
2016-01-20, 08:50:01
Mit Fallout 4 und GTA V sind es aber auch Spiele, die AMD generell nicht sonderlich liegen. Gerade die Frametimes in GTA V sind auf allen AMD-Karten stellenweise grenzwertig, selbst auf einem 5930K @4.2 GHz. Crysis 3, naja. Da kann man mit einzelnen Szenen wirklich Cherry-Picking betreiben und sich das Ergebnis vorher schon zurechtlegen :)

Vergleichen wir zunächst die FPS, wo die 380X leicht mehr zu bieten hat (Benchmarks, in denen eine GTX 960 die R9 380X plättet, nehme ich nicht für voll):

http://imgur.com/jtPkOpX.png

Vergleichen wir jedoch die Frametimes beider Karten (gemittelt nach dem jeweiligen Durchschnitt), wird es schon aufschlussreicher:

http://imgur.com/bmp86pu.png

http://imgur.com/bJC5Zpl.png

Die Beurteilung der Glätte des Verlaufs spricht dann Bände:

http://imgur.com/mXAJ1pu.png

http://imgur.com/IL6JXUF.png

Gerade AMD-Karten zeigen in GTA V stellenweise echte Hopser/Drops, an manchen Locations sogar reproduzierbar, vor allem nachts. Das ist eher ein Treiberproblem und zieht sich über alle Karten bis hin zur FuryX.
Fallout 4 ist zudem Nvidia-lastig und ich bin mir nicht sicher, ob in dem verlinkten Review die ini so modifiziert wurde, dass das ganze Ray-Geraffel komplett deaktiviert war. Allein im Optionsmenü ausschalten reicht nicht.

PC Labs hat mal R9 380 (x) gegen die GTX 960 antreten lassen. Darunter verschieden Hersteller bei der GTX960 von Asus; Gainward; Gigabyte; Inno; MSI; PNY R9 380 (X) sind Asus; Sapphire; XFX mitbei.

Clevere Methode, um das Kartenarchiv mal wieder aufzufüllen und die Boardpartner zu schröpfen:D

M4xw0lf
2016-01-20, 09:27:34
Mit Fallout 4 und GTA V sind es aber auch Spiele, die AMD generell nicht sonderlich liegen. Gerade die Frametimes in GTA V sind auf allen AMD-Karten stellenweise grenzwertig, selbst auf einem 5930K @4.2 GHz. Crysis 3, naja. Da kann man mit einzelnen Szenen wirklich Cherry-Picking betreiben und sich das Ergebnis vorher schon zurechtlegen :)
PClabs hat das Cherry-Picking zur Kunstform erhoben. Wenn die nicht von Nvidia bezahlt werden, dann muss das das Welthauptquartier von NV-Fanboys sein.

dargo
2016-01-20, 09:43:26
Gerade AMD-Karten zeigen in GTA V stellenweise echte Hopser/Drops, an manchen Locations sogar reproduzierbar, vor allem nachts. Das ist eher ein Treiberproblem und zieht sich über alle Karten bis hin zur FuryX.

Kann ich nicht nachvollziehen.

Ich hatte GTA V komplett durchgespielt (allerdings mit reduziertem LoD) und das lief hier mit der R9 390 astrein. Gerade eben GTA V mit Crimson 16.1 angeschmissen. Immer noch alles im grünen Bereich beim rumdüsen in der Stadt.
54526

Beim Crimson muss man nur aufpassen und die Taktraten im Auge behalten sonst kann es sein, dass man eine böse Überraschung erlebt. ;) AMD hat bei vielen Systemen mit Crimson ein Problem mit dem Powermanagement. Ohne Clockblocker kann es passieren, dass die Taktrate öfter mal kurz tief fällt was sich natürlich in den Frametimes und vorallen den min.fps bemerkbar macht. Ich hoffe das hatte die Seite da oben auch mitbedacht.

Screemer
2016-01-20, 09:47:50
Ganz sicher nicht. Denn die Erkenntnisse hab ich noch auf keiner Seite publiziert gesehen. Wäre doch mal was für igor. Allein die letzten 3 seiten aus dem 16.1 thread im Hilfeforum geben Hinweise ohne Ende in die Richtung.

dildo4u
2016-01-20, 10:04:57
PClabs hat das Cherry-Picking zur Kunstform erhoben. Wenn die nicht von Nvidia bezahlt werden, dann muss das das Welthauptquartier von NV-Fanboys sein.
GTA5 und Fallout 4 gehören zu den meist verkauften AAA Games überhaupt,das macht einfach Sinn die zu testen,wenn man für die Masse relevante Test's erstellen will.Und wie ich ja schon aufgezählt hab es gibt massiv AAA Open World Games die CPU lastig sind und Probleme machen können.

Match-Maker
2016-01-20, 10:16:07
Auch ist die Latenz, bis das Bild generell am Schirm ist bei NV höher als bei AMD.
Das lese ich zum ersten Mal. Quelle/Proof? :)

Ich hatte GTA V komplett durchgespielt (allerdings mit reduziertem LoD) und das lief hier mit der R9 390 astrein.
Wahrscheinlich gibt es erst mit maximalem LoD verstärkt Probleme. Klingt nach Overhead/CPU-Limit.

(del)
2016-01-20, 10:19:44
Die "Seite da oben" bedenkt sicher einiges nicht, aber das ist hier ja auch nicht das Thema.

@Dargo:
Man mus zwei ähnlich performante Systeme direkt vergleichen können, um den Unterschied subjektiv wahrnehmen zu können. Da habe ich es natürlich etwas einfacher. Aber gerade nachts in der Stadt, wenn man im Auto sitzt oder außerhalb der Stadt, bei großer, freier Sicht, hoppelt es bei AMD nun mal etwas mehr.

@dildo4u:
Blockbuster hin oder her, mit nur wenigen, sehr ähnlich agierenden Spielen, hat man noch lange kein Recht, solche Pauschalaussagen zu treffen. Warum hat kein Mensch im Test parallel dazu die CPU-Last der Kerne mitprotokolliert? DAS wäre eines der wenigen Erkenntnisse gewesen, die ich aus dem oben verlinkten Artikel überhaupt hätte mitnehmen können. Takt vs. Threads....

dildo4u
2016-01-20, 10:19:46
Das lese ich zum ersten Mal. Quelle/Proof? :)

Das hängt natürlich vom Game ab.Bei CPU lastigen Games verhindern die miesen Frametimes bei AMD natrülich eine Konstantes Ansprechverhalten,da ist es also schon mal Quark.



@dildo4u:
Blockbuster hin oder her, mit nur wenigen, sehr ähnlich agierenden Spielen, hat man noch lange kein Recht, solche Pauschalaussagen zu treffen. Warum hat kein Mensch im Test parallel dazu die CPU-Last der Kerne mitprotokolliert? DAS wäre eines der wenigen Erkenntnisse gewesen, die ich aus dem oben verlinkten Artikel überhaupt hätte mitnehmen können. Takt vs. Threads....

Ich hab alle diese Games und weiß wie sie sich auf einer schwachen CPU verhalten,da die meisten Reviewer oft nur mit neuen Intel Quads oder Sixcore's testen fällt das natürlich wenig auf.
Jedes von mir aufgezählte Game würde ich nich mit einem i3 und z.b einer 380 zocken wollen,so ein System sollte normal nicht zu unausgewogen sein,da die Neuen i3 locker schneller als die Konsolen CPU's sind.

(del)
2016-01-20, 10:48:08
Wie gesagt, ich würde diesem Artikel oben gern widersprechen, denn ich habe Fallout 4 z.B. auch mit einer relativ miesen CPU gegengetestet. Selbst dort ist die 960 langsamer als eine 380 non-X, immer vorausgesetzt, man hat die INI-angepasst. Ich gehöre wirklich nicht zu denen, die VGA-Fußhupen nur mit Mörder-CPUs testen. ;)

http://www.tomshardware.de/fallout-4-performance-benchmark-grafikkarten-igpu,testberichte-241977-3.html

Außerdem sieht es so aus, als hätten sie die kleineren CPUs außer dem 6700K nur emuliert, also Takt runter und Kerne / HT aus. Das ist völliger Blödsinn, wenn man es nicht richtig macht und wird immer zu Einbrüchen führen. Den Link oben nimmt doch wohl hoffentlich niemand ernst, oder?

M4xw0lf
2016-01-20, 10:54:41
Den Link oben nimmt doch wohl hoffentlich niemand ernst, oder?
Er hat sicher schon einen festen Platz in dildos Evangelium.

(Und Leonidas hat vermutlich einen darauf basierenden Main-Artikel schon halb fertig.)

FatBot
2016-01-20, 11:01:01
Außerdem sieht es so aus, als hätten sie die kleineren CPUs außer dem 6700K nur emuliert, also Takt runter und Kerne / HT aus. Das ist völliger Blödsinn, wenn man es nicht richtig macht und wird immer zu Einbrüchen führen.
Kurze Verständnisfrage: Was kann man falsch machen bzw. was muss berücksichtigt werden und welche Auswirkungen hätte das auf die Testergebnisse?

(del)
2016-01-20, 11:20:09
Kurze Verständnisfrage: Was kann man falsch machen bzw. was muss berücksichtigt werden und welche Auswirkungen hätte das auf die Testergebnisse?

Erstens sind die Caches meist unterschiedlich groß, was das Ganze schon mal ad absurdum führt, zweitens sind die Latenzen (Core-to-Core) um so höher, wie physikalische Kerne vorhanden sind. Die sinken aber nicht wieder ab, wenn man per BIOS mal eben so zwei Kerne abschaltet. Das Nächste ist die richtige Einstellerei von Basistakt (Multi) und Turbo-Core (hier müssen die identischen Werte der kleineren CPU für jeden Kern richtig abgestuft manuell auch mit geändert werden). Je nach BIOS muss auch die erlaubte TDP angepasst und die Voltage manuell eingestellt werden. Das, was das BIOS bei Turbo-Core selbst automatisch verbricht, hat mit den Werten der "echten" CPU oftmals nichts zu tun.

Erfahrungswerte haben über die Jahre gezeigt, dass "emulierte" kleinere CPUs oftmals langsamer agieren als ihre realen Gegenstücke. Vor allem die Latenzen sind echt eine Crux (aber nur in bestimmten Fällen, dann aber heftig). Ich habe das das letzte Mal mit dem i7 5960X versucht, indem ich damit den 5930K und 5920K emuliert habe. Die Originale waren, testabhängig, ca. 2-5% schneller. Emulieren ist Betrug am Leser.

Sonyfreak
2016-01-20, 11:47:28
Weil ne Schwankungsbreite von 2 bis 5% die Ergebnisse auch so extrem verzerren? :freak:

mfg.

Sonyfreak

dildo4u
2016-01-20, 11:55:47
Wie gesagt, ich würde diesem Artikel oben gern widersprechen, denn ich habe Fallout 4 z.B. auch mit einer relativ miesen CPU gegengetestet. Selbst dort ist die 960 langsamer als eine 380 non-X, immer vorausgesetzt, man hat die INI-angepasst. Ich gehöre wirklich nicht zu denen, die VGA-Fußhupen nur mit Mörder-CPUs testen. ;)

Fallout 4 ist an Gewissen stellen massiv CPU limitiert z.b in Diamond City dort fällt bei mir die fps Rate selbst mit einer 970 im freien Land gibt's weniger Probeleme.
Mit einer schwachen CPU + AMD in Diamond City wird es garantiert massive FPS Einbrüche geben.

seba86
2016-01-20, 11:58:15
Eigentlich hielt ich mich bisher immer für neutral zwischen beiden Herstellern bzw. minimal für Ati/AMD. Aber irgendwie scheinen die Nvidia-Karten insgesamt viel stabiler in den Frames zu sein, als die AMD-Karten, was dieser Test auch wieder bestätigt. Z.B. erinnere ich mich an einem Thread, wo man mit ner AMD Karte reprozudierbar an der gleichen Stelle in Crysis einen extremen Ruckler bekam bzw. es einige Stellen gabs, wo es merkbar runterging, während eine vergleichbare NV-Karte alles konstant ging.

Dann die Sache mit der hohen CPU-Abhängigkeit. Dann die Sache mit dem Einbrüchen bei Speichermangel, welche bei AMD deutlicher zu spüren sind.

In vielen Bereichen rettet AMD das P/L. Aber richtig pudelwohl fühl ich mich zZ. nur mit einer Nvidia-Karte :freak:

FatBot
2016-01-20, 12:11:06
@Format_C: danke für die Erklärung, insbesondere zu den Latenzen.

Man könnte aber mit der Methode von pc.labs zumindest davon ausgehen, dass sozusagen eine fiktive schwache CPU für beide Karten simuliert wurde.
D.h. für die oben genannten Spiele und den vermutlich nvidia/ Gameworks-spezifischen Einstellungen in Verbindung mit möglicherweise Treiberproblemen bei AMD hätte ich den beschriebenen Einbruch bzw. schlechteren Frametimeverlauf bei der AMD-Karte, richtig?

Wäre das Testergebnis bezogen auf diese zwei Spiele dann so falsch, da ja anscheinend auch die durchschnittlichen fps einbrechen? Ich hab jetzt nicht den Test lesen können, da ich kein polnisch spreche/ verstehe, und weiß nicht, wie detailliert sie die eingestellten Optionen beschrieben haben. Im von Format_C verlinkten TH-Test wird das ja sehr ausführlich beschrieben.

(del)
2016-01-20, 12:11:18
Weil ne Schwankungsbreite von 2 bis 5% die Ergebnisse auch so extrem verzerren? :freak:
mfg.
Sonyfreak

Diese 5% sind beim i7 5960X schon eine Menge Holz (beim 6700K sollte es sogar mehr sein) und ich traue den Ergebnissen im Artikel definitv nicht über den Weg. Wer permanent eine 960 vor der 380X misst, hat echt ein technisches Problem. :D

seba86
2016-01-20, 12:17:31
Ich kann mir gut vorstellen, dass ein und diesselbe Hardware +/- 2.5% leistet je nach Fertigungsqualität etc. 5% finde ich absolut gleichwertig/Toleranzbereich. Erst ab 20% kann man einen schnelleren Kandidaten ausmachen imho.

Was noch interessant wäre, wo es leider kein Test (??) gibt:

Könnte man nicht 5* exakt das gleiche HW-/Software-System (d.h. dasselbe System gibt es physisch 5*) benchmarken? Ich bin mir sicher, dass man selbst unter absolut gleichen Testbedingungen unterschiedliche Werte erhält.

Pirx
2016-01-20, 12:28:55
Eigentlich hielt ich mich bisher immer für neutral zwischen beiden Herstellern bzw. minimal für Ati/AMD. Aber irgendwie scheinen die Nvidia-Karten insgesamt viel stabiler in den Frames zu sein, als die AMD-Karten, was dieser Test auch wieder bestätigt. ...
Wer neutral sein will, sollte "Tests" von pclabs.pl nicht so ernst nehmen.

(del)
2016-01-20, 12:37:13
Ich kann mir gut vorstellen, dass ein und diesselbe Hardware +/- 2.5% leistet je nach Fertigungsqualität etc. 5% finde ich absolut gleichwertig/Toleranzbereich. Erst ab 20% kann man einen schnelleren Kandidaten ausmachen imho.

Was noch interessant wäre, wo es leider kein Test (??) gibt:

Könnte man nicht 5* exakt das gleiche HW-/Software-System (d.h. dasselbe System gibt es physisch 5*) benchmarken? Ich bin mir sicher, dass man selbst unter absolut gleichen Testbedingungen unterschiedliche Werte erhält.

Nein erhält man nicht. Ich habe drei identische X99 Bench Tables und die Ergebnisse stimmen bis auf den letzten FPS in den gemittelten 3-5 Runs meiner Benchmarks exakt überein :)
Bei Grafikkarten innerhalb einer Modellreihe gibt es deutlich höhere Abweichungen als bei CPU, Mainboard und RAM zusammen.

Was noch dazu kommt, ist die abweichende IPC, wenn man mal eben nur 2 Cores wegschaltet. Emulieren ist Kokolores und wird es auch bleiben. Die ganzen Werte aus dem verlinkten Artikel sind mir echt suspekt. Warum steckt man nicht einfach die echten CPUs ins Mainboard? Die Dinger kosten ja nun wirklich nicht die Welt :(
Und bitte: was sind Min FPS? Dieser Wert ist völlig sinnfrei, weil er nichts aussagt! Da muss man schon mal diese eine Sekunde analysieren und sehen, wie sich die Frametimes zueinander verhalten. Warum sehe ich nirgendwo eine Frametine-Analyse? Wenn man sich mit so einem Thema so weit aus dem Fenster lehnt, sollte man schon ordentlich liefern. FPS sind nicht gleich FPS, wenn es ums subjektive Empfinden geht. Das weiß mittlerweile jeder Hauptschüler :D

dargo
2016-01-20, 13:08:31
@Dargo:
Man mus zwei ähnlich performante Systeme direkt vergleichen können, um den Unterschied subjektiv wahrnehmen zu können. Da habe ich es natürlich etwas einfacher. Aber gerade nachts in der Stadt, wenn man im Auto sitzt oder außerhalb der Stadt, bei großer, freier Sicht, hoppelt es bei AMD nun mal etwas mehr.

Wie schon Match-Maker gesagt hat wäre es denkbar, dass bei max. Details bzw. max. LoD es erst zu stärkeren Fluktuationen kommt. Das kann ich nicht sagen da mir hohe fps wichtiger sind. Und dafür eignet sich das LoD u.a. ideal. Auch verwende ich kein MSAA. Flukturiert MSAA zufällig stärker? Die wichtigste Frage bei Tests mit Crimson ist... hat der Reviewer die anliegenden Taktraten bei jedem Durchgang mit der AMD-GPU gegen geprüft? Wer mir nicht folgen kann sollte mal den Crimson 16.1 Thread verfolgen. Dort gibt es einige Diagramme von mir zum Thema und auch ein Video von The2Brainn.

Lowkey
2016-01-20, 13:30:46
Wie machen das eigenlich diese Progamer. Da sind weltweit Spieler unterwegs und spielen um Millionen. Die haben doch ein immenses Interesse an "perfekter" Hardware. Wenn die Latenz eine Rolle spielt (das tut sie bestimmt nicht pro Komponente, sondern in der Summe der Einzellatenzen), dann müßte es doch Latenztests mindestens für Tastaturen und Mäuse geben? Und bei der Grafikkarte müßte es auch ein Interesse an der besten Latenz geben?

Oder setzen sie nur auf Sponsor Hardware? Die Jungs verdienen über 1 Millionen im Jahr. Da würde doch Geld für gezielte Hardwaretests fließen?

N0Thing
2016-01-20, 13:46:40
Oder setzen sie nur auf Sponsor Hardware? Die Jungs verdienen über 1 Millionen im Jahr. Da würde doch Geld für gezielte Hardwaretests fließen?

Das wird in jeder Sportart so gemacht, würde mich nicht wundern, wenn das im E-Sportbereich genauso ist, sofern man die Wahl der Hardware seitens des Sponsors hat. Fußballspieler binden sich ja auch an einen Hersteller, obwohl ihnen vielleicht ein Modell des Konkurrenten besser liegen würde.

Wenn man in der Wintersport schaut, wird dort durchgehend am Material optimiert, getestet und geforscht. Nur wäre man schön blöd die Ergebnisse öffentlich zu stellen. Ähnlich wäre es beim E-Sport. Wenn ich weiß, welche Hardware mir einen Vorteil beschert, behalte ich das für mich, sonst wäre es kein Vorteil mehr. ;)

Achill
2016-01-20, 13:58:11
Wie machen das eigenlich diese Progamer. Da sind weltweit Spieler unterwegs und spielen um Millionen. Die haben doch ein immenses Interesse an "perfekter" Hardware. Wenn die Latenz eine Rolle spielt (das tut sie bestimmt nicht pro Komponente, sondern in der Summe der Einzellatenzen), dann müßte es doch Latenztests mindestens für Tastaturen und Mäuse geben? Und bei der Grafikkarte müßte es auch ein Interesse an der besten Latenz geben?

Oder setzen sie nur auf Sponsor Hardware? Die Jungs verdienen über 1 Millionen im Jahr. Da würde doch Geld für gezielte Hardwaretests fließen?

Wenn es um richtige E-Sports Wettkämpfe geht, so scheint die HW immer genormed zu sein und auch System+Spiel werden gestellt. Damit es eben ein fairer Wettkampf ist und auch nichts manipuliert wird. Die Gamer dürfen oft ihr eigene Mause / Tastatur mitbringen/wählen, dass war es dann aber auch.

Ansonsten gehe ich ganz stark davon aus, dass HW gestellt/gesponsort wird - das war Führer schon die Regel für Redakteure von IT-Seiten/-Shows (weiß ich aus erster Hand).

(del)
2016-01-20, 14:05:44
Latenz zwischen den Kernen ungleich Latenz bei Ein- und Ausgabegeräten ;)
Außerdem wird wohl kaum jemand mit künstlich verkrüppelter Hardware antreten

Lowkey
2016-01-20, 14:45:31
Sie brauchen dennoch "Experten" für den reibungsfreien Ablauf. Es fiel mir mal auf, als es Probleme mit einem Spiel gab, aber keiner der Youtube Streamer hatte Probleme.

BlacKi
2016-01-20, 15:02:21
Die Originale waren, testabhängig, ca. 2-5% schneller. Emulieren ist Betrug am Leser.
das mag sein, aber das gilt doch für beide karten und die vergleichbarkeit zwischen den karten bleibt daher gleich, auch wenn die cpu performance zu den realen abweichen sollte.

Kriton
2016-01-20, 15:29:32
das mag sein, aber das gilt doch für beide karten und die vergleichbarkeit zwischen den karten bleibt daher gleich, auch wenn die cpu performance zu den realen abweichen sollte.

Bei den (CPU-basierten) Min-FPS und unterschiedlicher (CPU-)Nutzung durch den Grafikkartentreiber wohl nicht. :wink:

(del)
2016-01-20, 15:58:56
Ich stelle die Messwerte dort generell in Frage. Wie kann eine 960 in GTA V durchgehend schneller sein?

ux-3
2016-01-20, 16:00:00
Ich stelle die Messwerte dort generell in Frage. Wie kann eine 960 durchgehend schneller sein?

Das wäre nur bei groben Treiberfehlern denkbar.

marc-05
2016-01-20, 16:04:57
Außerdem sieht es so aus, als hätten sie die kleineren CPUs außer dem 6700K nur emuliert, also Takt runter und Kerne / HT aus. Das ist völliger Blödsinn...

Wenn dann hätte sie aber bei PCLap nicht i5 4xxx und i3 4xxx angeben sollen/dürfen sondern wenn simuliert wurde i7 @ 4Cores/2Cores + HT oder wenigstens i5/i3 der 6000 Serie.

PCLab
Wydajność z użyciem słabszych procesorów

Oprócz standardowych testów wydajności z użyciem naszej platformy testowej wyposażonej w naprawdę szybki procesor Intel Core i7-6700K @ 4,7 GHz przeprowadziliśmy kilka dodatkowych pomiarów w komputerach wyposażonych w słabsze jednostki: standardowo taktowany Core i5-4570 oraz Core i3-4130.
_____________________________________________________________
google translate
Ausbeute mit schwächeren Prozessor

Neben Standard-Performance-Tests mit unseren Testplattform mit einem wirklich schnellen Intel Core i7-6700K @ 4,7 GHz ausgestattet, mehrere zusätzliche Messungen in Computern mit schwächeren Einheiten durchgeführt: getaktete Standard-Core i5-4570 und Core i3-4130.


Bin nur dafür das wenn 200€ Karten getestet werden dann auch eine angemessen CPU werkelt und nicht fast ein doppelt so teuerer Prozessor antritt.

N0Thing
2016-01-20, 16:08:35
Bin nur dafür das wenn 200€ Karten getestet werden dann auch eine angemessen CPU werkelt und nicht fast ein doppelt so teuerer Prozessor antritt.

Das ist sicher interessant, wenn man genau diese Kombination im System betreiben will, bringt aber keine Information über die reine Leistungsfähigkeit der GPU, wenn die immer wieder im CPU-Limit hängt.
Als zusätzlichen Test zur einfacheren Einordnung der Ergebnisse wäre das definitiv nett, aber bei separaten Tests für GPUs und CPUs ohne entsprechende Limitierung kann man besser auf alle anderen Konfigurationen ableiten.

(del)
2016-01-20, 16:08:55
Im extra aufgelisteten Testaufbau steht nur der 6700K, also gehe ich davon aus, dass emuliert wurde. Sonst hätten sie ja auch die anderen CPUs mit angegeben. Chartsgrafiken sind geduldig und für mich zählt einzig und allein das, was explizit als Testsystem aufgeführt wurde. Sonst hätte man sich diese Seite ja gleich sparen können. Das sind Mindeststandards

FatBot
2016-01-20, 16:17:23
D.h. für die oben genannten Spiele und den vermutlich nvidia/ Gameworks-spezifischen Einstellungen in Verbindung mit möglicherweise Treiberproblemen bei AMD hätte ich den beschriebenen Einbruch bzw. schlechteren Frametimeverlauf bei der AMD-Karte?
kann man das für die gewählten Benchmarkszenen und schwächere CPU-Leistung so interpretieren, da auch die durchschnittlichen fps abfallen (abseits der Möglichkeit, dass die Tests zweifelhaft sind)?

captain_drink
2016-01-20, 19:43:20
Wer neutral sein will, sollte "Tests" von pclabs.pl nicht so ernst nehmen.

Das stimmt zwar, mit der Grundaussage stehen sie aber schließlich nicht alleine.
Digital Foundry empfiehlt schon seit Längerem keine AMDs mehr für einen i3, und bei CB konnte man ebenfalls sehen, dass AMD bei einem 2500k anstelle eines 4770k stärker Federn lassen musste als NV.

Blabla, wie oft denn noch die alte Geschichte, dass NVs (indirekt durch Mantle angeleierte) Threadoptimierungen dazu führen, dass der CPU-Load nun geringer ist.

AMD hat bis heute keinen Support für DX11-MT im Treiber. Selbiges ist der Grund, weshalb NV damals in Civilization 5 AMD völlig abgezogen hat.
Das war 2011, also weit vor Mantle und irgendwelchen urban legends, die AMD zum Retter der NV-CPU-Performance verklären wollen...

Flusher
2016-01-21, 09:57:31
Fallout 4 ist an Gewissen stellen massiv CPU limitiert z.b in Diamond City dort fällt bei mir die fps Rate selbst mit einer 970 im freien Land gibt's weniger Probeleme.


Das könnte aber auch "andere" Ursachen haben :freak:

dildo4u
2016-01-21, 10:02:59
Nein ich verstehe den Unterschied von GPU limitiert und CPU limitiert.Die Godray kosten auch auf Nvidia massive Performance,daher hab ich sie nur auf Medium das ist keine reine AMD Bremse,die Einbrüche in den Städten sind aber in jedem Fall CPU bedingt.

Flusher
2016-01-21, 10:06:03
PCLab
Wydajność z użyciem słabszych procesorów

Oprócz standardowych testów wydajności z użyciem naszej platformy testowej wyposażonej w naprawdę szybki procesor Intel Core i7-6700K @ 4,7 GHz przeprowadziliśmy kilka dodatkowych pomiarów w komputerach wyposażonych w słabsze jednostki: standardowo taktowany Core i5-4570 oraz Core i3-4130.

Da steht, nichts von Simulation/Emulation der genannten CPUs sondern, dass sie die CPUs tatsächlich mit ihrem Standardtakt verwendet/vermessen haben.

ABER: da steht auch, dass es sich nicht um das selbe System handelt. Da wurde also nicht einfach die CPU ausgetauscht sondern tatsächlich ein anderer "Computer" eingesetzt.

Eine Beschreibung der "anderen Computer" lässt sich im Artikel allerdings nicht finden. Interessant finde ich auch, dass die Systembeschreibung des eigentlichen Testsystem (i7 6700k) folgendes schreibt:

AMD Radeon Software Crimson Edition 15.12, 16.1,

Die haben offenbar mit zwei verschiedenen Treibern gemessen. Die Probleme beim Update von Crimson sind hinlänglich bekannt. Wenn da nicht sauber der alte Treiber deinstalliert und der neue installiert wurde, oder noch besser das System komplett neu aufgesetzt wurde, dann sind die Messungen völlig für die Katz.

KHJ
2016-01-25, 11:34:36
Ob es thematisiert werden muss oder nicht liegt eher daran wie schnell DX12 sich etabliert .

Denn es war auch bis jetzt schon bekannt das NV cpu effektiver arbeitet, weswegen ja AMD auch Mantle entwickelt hatte.
Mit DX12 sollte sich das ganze wieder mehr angleichen denke ich mal.

Wie sieht das mit dem emulieren von verschiedenen Kernen aus von einem 6 Kernern ausgehend, wenn man nur aufzeigen will wie gut eine Engine mit Kernen skaliert.
Für so einen Fall müsste das doch ausreichend sein oder ist das ebenfalls mit einer zu grossen Abweichung der Ergebnisse verbunden?

Pirx
2016-01-25, 12:01:17
...
Denn es war auch bis jetzt schon bekannt das NV cpu effektiver arbeitet, weswegen ja AMD auch Mantle entwickelt hatte...
Deswegen wurde Mantle sicher nicht (oder nur in letzter Linie) entwickelt.

Screemer
2016-01-25, 15:07:34
Der cpu-overhead viel bei NV erst so massiv nach dem erscheinen/ankündigung von mantle gesenkt. Da wurde der Treiber scheinbar das erste mal ordentlich multothreaded. Davor war der unterschied bei weitem nicht so gravierend.

Flusher
2016-01-25, 15:41:26
Ob es thematisiert werden muss oder nicht liegt eher daran wie schnell DX12 sich etabliert .

Denn es war auch bis jetzt schon bekannt das NV cpu effektiver arbeitet, weswegen ja AMD auch Mantle entwickelt hatte.



Umgekehrt - erst durch AMDs Mantle, sah sich NVIDIA gezwungen den CPU-Overhead der eigenen Treiber zu minimieren/optimieren.

So gesehen haben es die NVIDIA Nutzer die aktuelle Performance unter anderem AMD zu verdanken.

Ich kann auch nachvollziehen warum AMD die DX11 Sache aussitzen möchte. Erst haben die einen Haufen Arbeit in Mantle gesteckt und in der Öffentlichkeit ist am Ende nur hängen geblieben, dass NVIDIAs Treiber einen geringeren Overhead @ DX11 haben. Da würde ich auch keine Lust mehr haben nochmal soviel Geld in die Hand zu nehmen, nur um am Ende wieder von den Medien eins auf den Deckel zu bekommen, dass die Verbesserungen nicht ausreichen oder ähnliches.

Man bekommt langsam das Gefühl, dass was auch immer AMD tut, es trotzdem nicht richtig ist, während NVIDIA alles verziehen wird.

Lurtz
2016-01-25, 16:45:45
Umgekehrt - erst durch AMDs Mantle, sah sich NVIDIA gezwungen den CPU-Overhead der eigenen Treiber zu minimieren/optimieren.

So gesehen haben es die NVIDIA Nutzer die aktuelle Performance unter anderem AMD zu verdanken.

Ich kann auch nachvollziehen warum AMD die DX11 Sache aussitzen möchte. Erst haben die einen Haufen Arbeit in Mantle gesteckt und in der Öffentlichkeit ist am Ende nur hängen geblieben, dass NVIDIAs Treiber einen geringeren Overhead @ DX11 haben. Da würde ich auch keine Lust mehr haben nochmal soviel Geld in die Hand zu nehmen, nur um am Ende wieder von den Medien eins auf den Deckel zu bekommen, dass die Verbesserungen nicht ausreichen oder ähnliches.

Man bekommt langsam das Gefühl, dass was auch immer AMD tut, es trotzdem nicht richtig ist, während NVIDIA alles verziehen wird.
Das bringt ja nichts, von Dank kann AMD auch nicht überleben.

Mantle hätte die Chance geboten, ein eigenes Ökosystem wie nVidia aufzubauen. Das einzige, was jetzt aber hängenbleibt ist, dass es weitgehend effektlos verpufft ist und man mit nVidia dank DX12 vergleichbar niedrigen Overhead bekommt. Also kein Kaufargument für AMD, und Kaufanreize bräuchte die Firma viel mehr als Dank.

Pirx
2016-01-25, 16:55:59
Was jetzt dabei rausgekommen ist, ist viel besser und viel größer als Mantle.
Eigene Hersteller-APIs wären auch nicht im großen Stil durchzuhalten und für den PC Markt tödlich.

Lurtz
2016-01-25, 17:04:21
Was jetzt dabei rausgekommen ist, ist viel besser und viel größer als Mantle.
Eigene Hersteller-APIs wären auch nicht im großen Stil durchzuhalten und für den PC Markt tödlich.
Für uns als Kunden, ja. Für AMD, nein.

Welchen Grund gibt es denn, eine Radeon zu kaufen? Der Preis allein scheint im Zeitalter von Gameworks und Co. nicht mehr zu ziehen, die Kunden legen gerne auch mehr Geld auf den Tisch.

dargo
2016-01-25, 17:20:11
Welchen Grund gibt es denn, eine Radeon zu kaufen?
Ist das eine Fangfrage?

Von meinem Standpunkt aus kann ich sagen lange keine Sorgen wegen zu wenig Speicher und Freesync. P/L ist auch besser. Zudem entwickelt sich die Konkurrenz in der letzten Zeit immer stärker zu einer Firma mit der ich mich nicht unbedingt identifiziere.

marc-05
2016-01-25, 17:33:49
Für uns als Kunden....
Welchen Grund gibt es denn, eine Radeon zu kaufen? Der Preis ....
Wobei die Radeons allein vom Preispunkt nicht grad attracktiv sind.
"Früher" konnte man durch P/L Punkten
380(x) 4GB sind teuerer als GTX 960er
die 390 kosten fast gleich viel gegenüber der Krüppel 970er.

Lurtz
2016-01-25, 17:35:47
Ist das eine Fangfrage?

Von meinem Standpunkt aus kann ich sagen lange keine Sorgen wegen zu wenig Speicher und Freesync. P/L ist auch besser. Zudem entwickelt sich die Konkurrenz in der letzten Zeit immer stärker zu einer Firma mit der ich mich nicht unbedingt identifiziere.
Nein, das ist eine Frage die einem in der Kaufberatung ständig begegnet.

Und das sind schon Leute, die sich immerhin überhaupt informieren.

dildo4u
2016-01-25, 18:12:51
Mann kann AMD's empfehlen wenn Leute neue Systeme mit Skylake Quad's bauen,angeblich werden die Fury Pro bald so billig wie die Nano's deutlich besseres Angebot als eine 980.
Mich kotzt es nur an wenn es von Fanboys blanke AMD Empfehlungen gibt,ohne die CPU Faktor zu beachten.
Viele meinen ja ich wäre ja der Mega Fanboy ich hab aber nie wie Flucher z.b blind Schrott wie einen 8320 gekauft.Mein AMDX6 ist und war ne gute Alternative zu einem 2500k.Und die 970 hatte ein super Preis/Leistungverhältnis und es war als ich sie gekauft hatte nix zu den 3.5GB bekannt.

-/\-CruNcher-/\-
2016-01-25, 18:21:22
Ist das eine Fangfrage?

Von meinem Standpunkt aus kann ich sagen lange keine Sorgen wegen zu wenig Speicher und Freesync. P/L ist auch besser. Zudem entwickelt sich die Konkurrenz in der letzten Zeit immer stärker zu einer Firma mit der ich mich nicht unbedingt identifiziere.

Aha aber du kannst dich mit einer Firma identifizieren die durch die Konsolenkonvergenz versucht druck auf ihren Kontrhahenten auszuüben mit dem Ziel alleine am Ender der Kette zu stehen.

Erzähl keinen quatsch beide versuchen zu dominieren und beide versuchen das gegenseitig zu verhindern solange das ausgleichend funktioniert ist alles palleti es darf nur nicht kippen.

GameWorks ist ein Schutzschild der nach der Konsolenkonvergenz kräftig erweitert wurde eben um diese Balance zu wahren.

Aber Nvidia ist nicht doof sie denken auch an einen Totalverlust deshalb bauen sie sich ihre eigenen Platformen auf abseits vom PC.

Es ist zu lange nach Nvidias seite gekippt es wird zeit für den Ausgleich und der kommt jetzt.

Lurtz
2016-01-25, 18:46:53
Aha aber du kannst dich mit einer Firma identifizieren die durch die Konsolenkonvergenz versucht druck auf ihren Kontrhahenten auszuüben mit dem Ziel alleine am Ender der Kette zu stehen.
Durch welche Maßnahmen hat AMD Druck ausgeübt? Wo ist AMD aktiv in der Portierung von Konsolenspielen beteiligt um Druck auszuüben?

Als nVidias Chips in PS3 und XBox 360 steckten, haben sie da Druck auf AMD ausgeübt? Warum hat nVidia in dieser Gen auf Konsolenchips verzichtet wenn das so ein gutes Druckmittel ist?

Erzähl keinen quatsch beide versuchen zu dominieren und beide versuchen das gegenseitig zu verhindern solange das ausgleichend funktioniert ist alles palleti es darf nur nicht kippen.
Es ist längst gekippt.

GameWorks ist ein Schutzschild der nach der Konsolenkonvergenz kräftig erweitert wurde eben um diese Balance zu wahren.
Welche Balance? 50/50 Marktanteil? Wer möglichst viel proprietäre Technik in möglichst viele Titel bekommt?

Es ist zu lange nach Nvidias seite gekippt es wird zeit für den Ausgleich und der kommt jetzt.
Durch was kommt der Ausgleich jetzt?

Screemer
2016-01-25, 19:11:33
nvidia hat auf konsolenchips verzichtet? realy?

dargo
2016-01-25, 20:36:45
Aha aber du kannst dich mit einer Firma identifizieren die durch die Konsolenkonvergenz versucht druck auf ihren Kontrhahenten auszuüben mit dem Ziel alleine am Ender der Kette zu stehen.

Du fantasierst etwas zu viel rum in letzter Zeit.

Lurtz
2016-01-25, 20:48:06
nvidia hat auf konsolenchips verzichtet? realy?
http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html

Wie auch immer man es nennen will.

Dass Gameworks nur entstanden ist, weil AMD in beiden Konsolen steckt und deshalb so viel Druck ausübte, halte ich für kaum beweisbar.

anddill
2016-01-25, 21:07:56
Was ich mal interessieren würde wäre, ob die Breite eines FX-83XX diesen Effekt verhindert oder ob seine schwache Singlethread-Leistung ihn verstärkt. Eigentlich sollte doch ersteres zutreffen, oder?

Screemer
2016-01-25, 21:10:48
http://www.golem.de/news/konsolenchips-nvidia-hatte-keine-lust-auf-die-playstation-4-1303-98209.html

Wie auch immer man es nennen will.

Dass Gameworks nur entstanden ist, weil AMD in beiden Konsolen steckt und deshalb so viel Druck ausübte, halte ich für kaum beweisbar.
Genau so wie man solche luftazssagen nicht für voll nehmen sollte. Das ist nur shargolder Beruhigung.

tdon
2016-01-25, 21:35:03
Könnten das ggf. auch Nebenwirkungen von Nvidias Gameworks sein?


Typische Allgemeinausrede. Das wurde schon versucht als Ausrede in Spielen ohne Gameworks als den Schuldigen hinzustellen. Ich erinnere mich nur an den pcars Schwachsinn (da war es noch zusätzlich das nicht existierende GPU Physx)


Wenn es rein auf AMD zurückzuführen wäre, dann müsste es eigentlich konstanter der Fall sein. Aber nicht mal bei den Spielen wo es so ist, ist es bei jedem Szenario so.


Es ist konstant. Nur fällt es meistens nicht auf, weil die CPU im Test meist stark genug ist, außerdem ist nicht jedes Spiel bzw. jede Szene im Spiel CPU lastig. Besonders bei viel drawcalls wird es für AMD schwer unter DX11. Das wiederum ist nicht konstant, was die Schwäche eben verschleiert. Nvidia hat da einfach einen guten Job gemacht im Gegensatz zu AMD, das muss einfach mal akzeptiert werden.

captain_drink
2016-01-25, 21:41:05
Der cpu-overhead viel bei NV erst so massiv nach dem erscheinen/ankündigung von mantle gesenkt. Da wurde der Treiber scheinbar das erste mal ordentlich multothreaded. Davor war der unterschied bei weitem nicht so gravierend.

Umgekehrt - erst durch AMDs Mantle, sah sich NVIDIA gezwungen den CPU-Overhead der eigenen Treiber zu minimieren/optimieren.

So gesehen haben es die NVIDIA Nutzer die aktuelle Performance unter anderem AMD zu verdanken.


Hören diese urban legends denn nie auf? Dazu hatte ich oben schon was geschrieben:

AMD hat bis heute keinen Support für DX11-MT im Treiber. Selbiges ist der Grund, weshalb NV damals in Civilization 5 AMD völlig abgezogen hat.
Das war 2011, also weit vor Mantle und irgendwelchen urban legends, die AMD zum Retter der NV-CPU-Performance verklären wollen...

Ja, Mantle war ein Faktor, aber AMD hatte auch davor mitunter schon Probleme mit dem CPU-Overhead bzw. MT allgemein. Eine Zeit lang hatte NV ja auch mal Probleme mit DC, das war das umgekehrte Symptom.

Was auch noch ein Faktor ist: Vor Mantle war CPU-Overhead selten bis nie ein Thema, deshalb gab es auch kaum spezielle Benches dazu und man hat nicht gesondert darauf geachtet.

Screemer
2016-01-26, 09:40:40
Die Frage ist da wer die urban legends verbreitet. Ich den da keine massiven Probleme au seiten von amd. Weder n den release Benchmarks von 2010, noch in den benches um den release der 6870 oder 580 in 2011. der Rückstand sieht mit mehr nach vram Problem aus.

www.tomshardware.com/reviews/geforce-gtx-580-gf110-geforce-gtx-480,2781-10.html

http://www.techspot.com/review/320-civilization-v-performance/

2gb 5870 vs. 580
Http://www.hardocp.com/article/2010/11/09/nvidia_geforce_gtx_580_video_card_review/4

Zettabit
2016-01-26, 09:40:58
Hören diese urban legends denn nie auf?
Hier ein entsprechender Anandtech-Forumspost:

http://forums.anandtech.com/showpost.php?p=31520674&postcount=28

Das war Anno 2011. Da war Mantle noch nicht mal ein Gedankenspiel.

Flusher
2016-01-26, 10:10:18
Hören diese urban legends denn nie auf?

Wie erklärst du dir sonst die plötzlichen Performanceverbesserungen nach der Veröffentlichung von Mantle?


Viele meinen ja ich wäre ja der Mega Fanboy ich hab aber nie wie Flucher z.b blind Schrott wie einen 8320 gekauft.

Offtopic: Für meinen Einsatzzweck (Gaming + Videobearbeitung) ist die CPU sicherlich nicht "Schrott". Zudem waren die Platformkosten (CPU+Mobo) locker um 1/3 tiefer als ein vergleichbares Intel-System (welches zugegeben, für Gaming sicherlich besser gewesen wäre). Zudem weckt die CPU meine Bastelader, und rennt mit übertaktetem Uncore und Core ziemlich brauchbar.

Hübie
2016-01-26, 11:33:36
Die Frage ist da wer die urban legends verbreitet. Ich den da keine massiven Probleme au seiten von amd. Weder n den release Benchmarks von 2010, noch in den benches um den release der 6870 oder 580 in 2011. der Rückstand sieht mit mehr nach vram Problem aus.

www.tomshardware.com/reviews/geforce-gtx-580-gf110-geforce-gtx-480,2781-10.html

http://www.techspot.com/review/320-civilization-v-performance/

2gb 5870 vs. 580
Http://www.hardocp.com/article/2010/11/09/nvidia_geforce_gtx_580_video_card_review/4

Schaust du dir eigentlich die Benchmarks an, die du verlinkt? Eine GTX 460 1 GB hat auch keine VRAM Probleme. Und hardocp hat den Ansatz dass die soviel Grafikdetails wie möglich reinpressen und dennoch um die 60 fps heraus kommen. Schau mal auf die unterschiedlichen Einstellungen. ;)
Alles andere hat Ryan Smith bereits erzählt.

Wir reden hier nicht wirklich davon dass eine 960 die 380X abzieht? Das ist wohl eher Ausnahme und wie einige monierten auch der fachlichen Kompetenz geschuldet.
Man braucht AMD nicht schlechter diskutieren als diese sind... :rolleyes:

Screemer
2016-01-26, 11:54:24
Schaust du dir eigentlich die Benchmarks an, die du verlinkt? Eine GTX 460 1 GB hat auch keine VRAM Probleme. Und hardocp hat den Ansatz dass die soviel Grafikdetails wie möglich reinpressen und dennoch um die 60 fps heraus kommen. Schau mal auf die unterschiedlichen Einstellungen. ;)
Alles andere hat Ryan Smith bereits erzählt.

ähh und? war da nicht immer zur debatte gestganden, dass nv auch effizienter mit dem vram umgeht? sich war das aber dann auch fud. die analyse von ryan smith stell ich gar nicht in abrede. die praxisrelevanten tests von hardocp und auch der 2gb review bei thg zeigen zeigen aber, dass das verhalten in der praxis zu diesem zeitpunkt recht irrelevant war. in ryan smith post steht auch, dass zukünftige titel mit dx vermehrt von dx11mt gebrauch machen würden. wirklich was bei rumgekommen ist da aber nicht, wenn man bedenkt, dass amd immer noch kein mt im treiber nutzen soll. zumindest kann mich mich an keine tests mit vernichtenden ergebnissen, die auf dx11mt zurückzuführen waren, erinnern. außerdem hab ich bis jetzt noch keine tests aus 2010 und 2011 gefunden, die auf das verhalten von amd und nv im cpu-limit eingehen. mich würde da die entwicklung bis 2014/15 sehr interessieren. vor allem ab release/ankündigung der wundertreiber von nv <- no pun intended.

Zettabit
2016-01-26, 12:08:46
zumindest kann mich mich an keine tests mit vernichtenden ergebnissen, die auf dx11mt zurückzuführen waren, erinnern. außerdem hab ich bis jetzt noch keine tests aus 2010 und 2011 gefunden, die auf das verhalten von amd und nv im cpu-limit eingehen.
Du musst ja auch schon einen Test mit Treiberversion >270.91 haben, damit DX11-MT im Treiber implementiert ist.

Hier ein passender Test:
http://www.techspot.com/review/498-amd-radeon-hd7770-hd7750/page5.html

HD7770 vs. GTX560:

Crysis 2: GTX 560 11% schneller
CIV 5: GTX 560 31% schneller

Screemer
2016-01-26, 12:42:46
auch mit treibern >270.91 verhalten sich die karten wie damals üblich, zumindest in den für mich relevanten auflösungen:

http://www.techspot.com/review/423-gigabyte-geforce-gtx580-soc/page8.html

cherry picking. auch amd hat ihre treiber verbessert.

ich behaupte nicht, sollte auch niemand mit sinn und verstand, dass amd bei dx11 nicht einiges am cpu limit aufzuholen hat. möchte ich nur noch mal klarstellen. allerdings ist das in den wenigsten fällen für den user relevant. bei nem 2c/2t system vielleicht. wer nutzt sowas denn aber wirklich zum daddeln und dann auch noch mit einer 380x? da kann man seine kohle auch gleich verbrennen.

€dit: zum zeitpukt des von dir noch verlinkten benches aus dem feb. 2012 kostete eine 560 im übrigen um die 140-150€ und eine 7770 um die 115-125€. der mehrwert oder minderwert spiegelt sich also ziemlich genau im kaufpreis wieder. je nach game hat die amd karte auch das wesentlich bessere p/l.

Zettabit
2016-01-26, 13:25:11
auch mit treibern >270.91 verhalten sich die karten wie damals üblich, zumindest in den für mich relevanten auflösungen:

http://www.techspot.com/review/423-gigabyte-geforce-gtx580-soc/page8.html

cherry picking. auch amd hat ihre treiber verbessert.
Zeigt doch genau das, was mein Test zeigt: In Crysis ordnet sich die 6970 zwischen der 580 und 570 ein - unter CivV wird dagegen sogar von einer 560Ti geschlagen. Obwohl die 6970 mehr als die doppelte Shaderperformance hat!

Interessant wird der Punkt DX11-Overhead eben dann, wenn man eine MidRange-Karte eben nicht wie sonst üblich auf einem overclocked i7 bencht, sondern sie auf einem MidRange i3 oder i5 nutzt. Da können sich die Kräfteverhältnisse (je nach Spiel) durchaus drehen.

gbm31
2016-01-26, 13:50:42
... bei nem 2c/2t system vielleicht. wer nutzt sowas denn aber wirklich zum daddeln und dann auch noch mit einer 380x? da kann man seine kohle auch gleich verbrennen.
...


Soso...

Relativ viele mit kleinem Budget zocken z.B. mit der Paarung i3 ab Haswell + 960 kostengünstig und tauglich.
(und nicht anders als mit einem alten noob/non-oc i5-Sandy und einer 670/760)

Da wäre es gut zu wissen, ob das mit einer 380 auch so wäre (abgesehen davon, daß das Netzteil auf jeden fall eine Nummer größer ausfallen muss).

Glaubenskrieg hin oder her, ein guter Test würde mich interessieren.

aufkrawall
2016-01-26, 13:57:14
auch amd hat ihre treiber verbessert.

Was den CPU-Overhead angeht, offenbar schon lange nicht mehr.

marc-05
2016-01-26, 16:00:35
2c/2t system vielleicht. wer nutzt sowas denn aber wirklich zum daddeln und dann auch noch mit einer 380x

Manche wären froh hätten die i3 2xxx drin, die kommen ins CB Forum und fragen dann mit Intel Q6600 System ob sich eine GTX 960 lohnt.
Oder mit i5-750 2666 Sytstem und wird dem armen R9 390/ GTX 970 vorgeschlagen :freak:

captain_drink
2016-01-26, 22:00:14
Die Frage ist da wer die urban legends verbreitet. Ich den da keine massiven Probleme au seiten von amd. Weder n den release Benchmarks von 2010, noch in den benches um den release der 6870 oder 580 in 2011. der Rückstand sieht mit mehr nach vram Problem aus.

www.tomshardware.com/reviews/geforce-gtx-580-gf110-geforce-gtx-480,2781-10.html

http://www.techspot.com/review/320-civilization-v-performance/

2gb 5870 vs. 580
Http://www.hardocp.com/article/2010/11/09/nvidia_geforce_gtx_580_video_card_review/4

Ich habe extra noch mal in der damaligen PCGH nachgeschlagen. Ausgabe 06/11, S. 51 (Absatz "DirectX 11: Multithreading")
So erreicht eine Geforce GTX 570 mit dem 270.61 WHQL in unserem "485 Runden"-Benchmark 115 Bilder pro Sekunde, die üblicherweise ähnlich schnelle Radeon HD 6970 aber nur 67 Fps. Mit dem letzten Prä-265-erWHQL-Treiber, dem Geforce 263.09, erzielt die GTX 570 "nur" 85 Fps [...]

Hier ein entsprechender Anandtech-Forumspost:

http://forums.anandtech.com/showpost.php?p=31520674&postcount=28

Das war Anno 2011. Da war Mantle noch nicht mal ein Gedankenspiel.

Genau das meinte ich.

Wie erklärst du dir sonst die plötzlichen Performanceverbesserungen nach der Veröffentlichung von Mantle?

Das hatte ich ja geschrieben: Als Reaktion auf Mantle ("ein Faktor").
Dass die Leistung im CPU-Limit von NV verbessert wurde, impliziert aber keineswegs, dass NV nicht davor bereits Vorteile hatte, worauf vor Mantle aber niemand geachtet hatte (zum Vergleich: selbst Cruncher kannte das Wort "Overhead" noch nicht).

BlacKi
2016-01-27, 00:50:33
Was den CPU-Overhead angeht, offenbar schon lange nicht mehr.
aber man hat daran gearbeitet. die lösung wollte man dann so lösen:
http://www.golem.de/news/directx-11-amd-moechte-catalyst-treiber-im-cpu-limit-beschleunigen-1502-112537.html

tja, entweder keinen fähigen bekommen, oder stelle wieder gestrichen.


Relativ viele mit kleinem Budget zocken z.B. mit der Paarung i3 ab Haswell + 960 kostengünstig und tauglich.
(und nicht anders als mit einem alten noob/non-oc i5-Sandy und einer 670/760)

Da wäre es gut zu wissen, ob das mit einer 380 auch so wäre (abgesehen davon, daß das Netzteil auf jeden fall eine Nummer größer ausfallen muss).

als indikator mit bis zu 5% abweichung kannst du ja den test hernehmen der am anfang gepostet wurde. mit einem i3 kann man szenarien erzeugen wo eine 750ti unter fhd mehr fps bringt als die schnellste amd karte. bei echten 4 kernen allerdings ist der abstand zwischen 15-30% nicht mehr ganz so tragisch.

N0Thing
2016-01-27, 01:11:54
aber man hat daran gearbeitet. die lösung wollte man dann so lösen:
http://www.golem.de/news/directx-11-amd-moechte-catalyst-treiber-im-cpu-limit-beschleunigen-1502-112537.html

tja, entweder keinen fähigen bekommen, oder stelle wieder gestrichen.

Wenn ich es richtig sehe, wird für die Stelle noch immer Personal gesucht, haben also wohl noch keinen passenden Kandidaten gefunden, was mich doch verwundert, trotz der hohen Anforderungen. :confused: