PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Grafikkarten-Performance unter Far Cry 4


Leonidas
2014-11-26, 05:19:40
Link zu Teil 1:
http://www.3dcenter.org/news/die-grafikkarten-performance-unter-far-cry-4

Link zu Teil 2:
http://www.3dcenter.org/news/die-grafikkarten-performance-unter-far-cry-4-teil-2

NOFX
2014-11-26, 07:22:14
Da sehen wir imho den ersten Auswuchs der kommenden GameWorks-Problematik.

Man baut eine handvoll Effekte in die hohen Qualitätssettings ein, die besonders auf nVidia Hardware laufen und schon bekommt man den gewünschten Erfolg: "Die nVidia-Grafikkarten fahren dramatisch bessere Resultate ein...". Zukünftig heißt es dann wohl "AMD-Grafikkarten sind für hohe Qualitätseinstellungen nicht zu gebrauchen" oder so.

3DCenter berichtet ja auch von der GameWorks-Problematik, was jedoch die Mehrheit der "Testseiten" im Netz wohl nur anfangs oder nie tun werden.

PS: Das ist keine Kritik an der Berichterstattung hier, sondern soll die zukünftige Problematik aufzeigen.

M4xw0lf
2014-11-26, 08:39:10
Auf den ersten Blick zu erkennen ist ein deutlicher Klassenunterschied zwischen AMD und nVidia: Die nVidia-Grafikkarten fahren dramatisch bessere Resultate ein, trotz daß auf AMD-Seite bereits der für Far Cry 4 gedachte Beta-Treiber 14.11.2 benutzt wurde. Allerdings trifft diese Einschätzung nur in WorstCase-Situationen zu, bei den Messungen des TechSpots (auf beiderseits wesentlich höheren Frameraten in einer nicht so stark fordernden Testsequenz) kamen die AMD-Grafikkarten hingehen auf sehr gute Werte, faktisch gleich stark gegenüber nVidia. Augenscheinlich liegt in der benutzten Testsequenz der Unterschied: Steigen die Anforderungen, dann kommen unter Far Cry 4 die nVidia-Grafikkarten wesentlich besser zurecht als die AMD-Grafikkarten.
Alter. :facepalm:
Wie kann man bitte eine Performancebetrachtung von FC4 verfassen, ohne EIN WORT darüber zu verlieren, dass die PCGH-Werte mit Nvidias Gameworks-Features zustande gekommen sind, während die bei Techspot eben nicht verwendet wurden? "Steigende Anforderungen", my ass. Alles was man in diesen Benchmarks sieht, ist, dass Gameworks Maxwell beschleunigt und alles andere ausbremst.

Ach, im letzten Absatz steht was dazu, sehr gut :uup:

Pirx
2014-11-26, 09:09:46
Jepp, langsam beginne ich die Leute zu verstehen, die 3DCenter eine nV-Lastigkeit vorwerfen - das wäre eine echt traurige Entwicklung, wenn das so weitergeht.

Leonidas
2014-11-26, 09:27:50
TechSpot hat nix ausgeschaltet, denn:


The graphic settings were set to the 'ultra' preset with no changes made, which set ambient occlusion to SSBC (same as very high and high), anti-aliasing to SMAA (same as very high and high) while godrays were set to volumetric fog.



PS: Wenn irgendjemand komplette Benchmarks zu Gameworks/off geliefert hätte, würde ich da gern ein entsprechendes Faß aufmachen. Denn es sieht auf den ersten Blick wirklich so aus, als würde das ganze ein reiner Bremsklotz gegen AMD sein. Wer glaubt hier ernsthaft, daß ich darüber nicht *gern* berichten würde?

M4xw0lf
2014-11-26, 09:30:28
Ultra ist die Stufe OHNE Gameworks-Settings. Es gibt eine Stufe namens "Nvidia" dafür. :rolleyes:
Pcgh hat eben manuell alle Slider nach rechts geschoben, da ist das Zeug dann auch aktiv.

Leonidas
2014-11-26, 09:35:16
Ernsthaft? Das wäre ja saublöd von der PCGH.

PS: Wenn mir das jemand umgehend bestätigt, mach ich umgehend einen zweiten Teil zu dieser Meldung.

M4xw0lf
2014-11-26, 09:36:40
Doch schalten wir alle offensichtlichen Nvidia-Effekte ab und wählen die nächsthöchste Stufe, können AMD-Grafikkarten deutlich zu denen von Nvidia aufholen: So liefert die MSI GTX 970 Gaming in 1080p nun 59,7 Bilder pro Sekunde im Durchschnitt und 47 minimal, die ebenfalls von MSI stammende R9 290X Gaming kann mit 57,4 und 45 (durchschnittlich/minimal) viel verlorenen Boden gut machen. Die Geforce wird ohne Gameworks tatsächlich sogar langsamer. In der kommenden PCGH 01/2015 können Sie einige weitere Benchmarks zum Thema Gameworks finden.
Das ist genau das Leistungsbild, das man bei Techspot findet.

Kartenlehrling
2014-11-26, 09:47:26
Nvidia liefert doch selber Benchmarks wo man sehen kann was bremst (http://www.geforce.com/whats-new/guides/far-cry-4-graphics-performance-and-tweaking-guide)... und wenn man das ganz ausschalte beziehungweise reduziert sollten stabile >45fps drin sein.
Das sind viele Sachen bei die nur 2-3fps bringen wenn man sie abschalten man kann sogar Ultra lassen wenn es der G-Vram es zuläst.

Leonidas
2014-11-26, 09:47:56
Du hast was von einer extra Stufe "nVidia" gesprochen, die bislang nirgendwo erwähnt wird. Bevor ich einem Fehler einen weiteren hinzufüge, sollte ich es nun wirklich genauer wissen.

M4xw0lf
2014-11-26, 10:01:22
Es gibt ein "Nvidia"-Preset, das aber weder Techspot noch PCGH verwendet haben. Bei PCGH ist der einzige Unterschied zwischen dem Nvidia-Setting und dem verwendeten aber imo, dass kein TXAA sondern SMAA zum Einsatz kam.
Und wenn du es genauer wissen willst - dann informier dich halt, ist ja nicht so, dass mir diese Details von Engeln verkündet wurden. :|

http://www.gamestar.de/spiele/far-cry-4/artikel/far_cry_4_im_technik_check,49167,3080455,2.html

Leonidas
2014-11-26, 13:08:22
Hab ich versucht, auf die schnelle wirklich nichts gefunden. Daher danke für den Link. Nun wird mir die Sache klarer.

M4xw0lf
2014-11-26, 13:12:21
Sorry für meinen Tonfall übrigens, da ging die Gameworks-Tollwut mit mir durch ;)

Leonidas
2014-11-26, 14:27:19
Ist okay, vergessen. Zu allererst habe ich mal einen Fehler gemacht. Mal schauen, ob die Leitung heute gut genug ist, um die Korrektur schnellstmöglich hochzuladen.

MadManniMan
2014-11-26, 17:18:27
Mal angenommen, wir würden nicht gleiche Bildqualitäten vergleichen, sondern das Produkt aus Bildqualität und Bildrate.

Wäre es dann unlauter, Gameworks-Titel ohne Leistungsverlust auf Geforces, aber höherer Bildqualität gegen höhere Bildqualität mit Leistungsverlust auf Radeons zu stellen, sehr wohl aber in Ordnung, Mantle-Benchmarks gegen DX-11-Benches zu stellen, die keine Bildqualitätsveränderung nach sich ziehen, sehr wohl aber die Bildrate erhöhen?

N0Thing
2014-11-26, 17:32:46
@MadManniMan

Idealer Weise sollten in Benchmarks zu Spielen mit Mantle-Unterstützung auch die DirectX-Werte von AMD dabei sein und nach Far Cry 4 in Zukunft auch alle Spiele soweit möglich mit und ohne Gameworks-Techniken.

Wenn Mantle allen IHV offen steht, dann habe ich weniger Probleme mit AMD+Mantle vs. Nvidia+DX als beim Vergleich AMD+Gameworks vs. Nvidia+Gameworks.

MadManniMan
2014-11-26, 17:43:36
Ich weiß noch nicht, wie ich mich zu dem Problem positioniere, aber wenn es so sein sollte, dass die unterschiedlichen Grafikkarten unterschiedliche Bildqualität abliefern, dann muss man vielleicht doch vom Apples to Apples weg.

Ist ja schon jetzt so, dass Mantle aus MSAA automatisch CFAA macht, wenn ich mich recht entsinne.

M4xw0lf
2014-11-26, 18:28:31
Ist ja schon jetzt so, dass Mantle aus MSAA automatisch CFAA macht, wenn ich mich recht entsinne.
Es wird mit EQAA "aufgewertet" (kann zu Unschärfe führen, daher Anführungszeichen), und das auch nur in Civ:Beyond Earth.

MadManniMan
2014-11-26, 19:01:22
Danke, das hatte ich also nicht richtig in Erinnerung. Gibt es vernünftige Vergleiche?

M4xw0lf
2014-11-26, 19:17:34
Da hab ich spontan nix dazu im Kopf.

y33H@
2014-11-26, 20:17:09
Die Meldung klingt jez aber schon komisch ...

fair zu beiden Grafikchip-Entwicklern ist
zusätzlichen Features und Bildqualitätsoptionen nun nicht gerade nach gleich 20% Performanceverlust aussehen
auf nVidia-Hardware noch gerade so ohne Performanceverlust zu laufen und AMD-Hardware an ihren empfindlichen Stellen zu treffen
nicht auf die herauskommende Bildqualität ankommt, sondern nur auf den herauskommenden Performance-Eindruck
als würde es nur zur erheblichen Benachteilung von AMD-Grafikkarten existieren

von Richthofen
2014-11-26, 20:22:08
Schön, dass die Sache noch einmal so ausführlich und deutlich "richtig" gestellt wurde.

Beim letzten Durchgang lief das Assassins Creed so grottig auf den AMDs. Da hat man diesmal bei Ubi/nV wohl einen Wechsel in Betracht gezogen. Fällt besonders dann gleich viel weniger auf, wenn ohne den superdollen NV Bildquali.-Modus das andere Lager plötzlich vorn liegt.

Gast
2014-11-26, 20:55:41
Das hier versteh ich mal überhaupt nicht!

Auf einer Seite feiert man AMDs Mantle in den Himmel, was wohl auf nV nie laufen wird, stellt die Vorteile die AMD dadurch entstehen aber schön heraus, vergleicht dabei in Spielen Benchmarks, aber wenn nV sich was anderes proprietäres entwickeln um auch mithalten zu können, was eben auf den Maxwell besser läuft, wird das verpöhnt und drauf rumgetrappelt. Pfff.

Wenn man daran eins deutlich erkennt, ist dass 3d-center absolut nicht nV lastig ist, sondern eher AMD verliebt. (die armen dürfen alles, auch schon mal die Filterquali vernachlässigen und dann den Blödsinn verbreiten es wäre Ihnen beim Chipentwurf nicht aufgefallen, ja ja)

Was ein unnötiger Artikel. Zudem kann man noch nicht mal nachweisen wies funktioniert und spekuliert hier ziemlich mies durch die Gegend. Wenn das IT-Journalismus sein soll, naja.

Warum sollte man den nV-Modus jetzt nicht aktivieren und ihn auch beim beanchen deaktivieren? Lassen die AMDler Mantle dann auch aus?

Schaffe89
2014-11-26, 21:02:16
Eigentlich lächerlich was Nvidia da veranstaltet.
Irgendwelche Bildqualitätsmodi einführen, nur um AMD damit zu schaden.
Für den Spieler bringt das doch eh rein gar nichts.

M4xw0lf
2014-11-26, 21:23:36
Ich muss sagen, die Gameworks-Implementierung in FC4 finde ich ok - ohne die explizit Nvidia-affinen Features läuft das Spiel ausgezeichnet auf Radeons. Nur Benchmarks mit Gameworks und AMD-Hardware sind halt Käse um ein sinnvolles Bild von der Performance zu zeichnen, denn es wird wohl kaum ein Radeon-User so spielen.

von Richthofen
2014-11-26, 22:41:54
Nicht jeder Spieler weiss allerdings welche Features speziell nVidia oder AMD zugeneigt sind. Jemand mit einem schnellen Rechner aber wenig Ahnung setzt die Quali hoch und wird dann mit weniger Leistung (als üblich) bestraft. Ich lehne diese Einteilung in Klassen ab. Gameworks bleibt - vor allem weil proprietär - eine Seuche.

MadManniMan
2014-11-26, 23:11:55
Es ist halt wirklich eine Frage der Kommunikation: wenn an den Schiebereglern tatsächlich "Nvidia" dran steht, dann könnte man auch ein Popup dran flanschen, welches etwa "Dieses Feature ist für Geforce-Karten optimiert, die es ohne Geschwindigkeiteseinbußen darstellen können. Andere Grafikkarten verlieren nennenswert Performance." aussagt.

Wenn man schon ein Grafikmenü hat, kann man sowas meines Erachtens auch offen kommunizieren.

Leonidas
2014-11-27, 02:27:23
Ich weiß noch nicht, wie ich mich zu dem Problem positioniere, aber wenn es so sein sollte, dass die unterschiedlichen Grafikkarten unterschiedliche Bildqualität abliefern, dann muss man vielleicht doch vom Apples to Apples weg.


Normalerweise müsste man es ganz anders angehen: Für ein Spiel eine spielbare Framerate (bspw 45 fps) definieren und dann schauen, was für eine BQ mit welcher gfx jeweils möglich ist.

Problem: Dann vergleicht man keine Zahlen, sondern Screenshots. Ist ungenauer, subjektiver, die Maßstäbe gehen verloren. Und ist extrem zeitaufwendig und für den Leser auch (in kurzer Zeit) schlecht nachzuvollziehen.

HardOCP macht es so. Theoretisch sehr schön, praktisch schlecht, wenn ich mal schnell antworten haben will. Wir rechnen eben immer besser mit Zahlen als mit subjektiven Gesamteindrücken, die sich nicht quantifizieren lassen.





Auf einer Seite feiert man AMDs Mantle in den Himmel, was wohl auf nV nie laufen wird, stellt die Vorteile die AMD dadurch entstehen aber schön heraus, vergleicht dabei in Spielen Benchmarks, aber wenn nV sich was anderes proprietäres entwickeln um auch mithalten zu können, was eben auf den Maxwell besser läuft, wird das verpöhnt und drauf rumgetrappelt. Pfff.


Es gibt hier einige Unterschiede. Mantle steht auch NV offen - NV will nur nicht. Gameworks ist geschlossen, da sitzt NV drauf. Und zudem ändert Mantle auch nix an der Optik, ist ein reiner Beschleuniger. Was spricht dagegen, Beschleuniger zu aktivieren?

Gast
2014-11-27, 08:18:07
Es gibt hier einige Unterschiede. Mantle steht auch NV offen - NV will nur nicht. Gameworks ist geschlossen, da sitzt NV drauf. Und zudem ändert Mantle auch nix an der Optik, ist ein reiner Beschleuniger. Was spricht dagegen, Beschleuniger zu aktivieren?
a.) noch ist Mantle eben (noch) nicht offen. AMD will Mantle öffnen, hat es aber noch nicht getan (davon abgesehen ist unbekannt ob Mantle sich so 1:1 auf nV Hardware überhaupt umsetzen lässt).
b.) läuft Mantle, im gegensatz zu Gameworks, eben nur auf AMD....man kann also eben nicht "einfach mal den Beschleuniger einschalten"

Anders gesagt: wenn man Gameworks bei der Betrachtung aussen vorlässt, dann bitte auch Mantle (und das sage ich als ATI/AMD User).

Davon abgesehen ist nicht mal sicher ob AMD nicht mit absicht die Gamework features extra langsam bei sich ablaufen lässt...AMD würde ich dank Huddy momentan problemlos so einen PR Stunt zutrauen.

Leonidas
2014-11-27, 11:00:31
Möglich ist dies alles. Dennoch steht die Wahrscheinlichkeit, das Mantle auch auf Intel/NV umsetzbar ist, dramatisch höher als die Chance, das AMD aktiv Gameworks zu foppen versucht.

aufkrawall
2014-11-27, 11:04:41
Woher willst du das ohne sdk wissen?

Leonidas
2014-11-27, 12:06:56
Ich sehe es so:

AMD kündigt Mantle als frei an, kündigt das SDK kann an und würde ganz schön doof darstehen, wenn dies alles nicht passt - weil es in absehbarer Zeit überprüfbar wird.

Gameworks ist generell closed, das steht von Anfang an fest.

Gast
2014-11-27, 12:26:08
Es gibt hier einige Unterschiede. Mantle steht auch NV offen - NV will nur nicht. Gameworks ist geschlossen, da sitzt NV drauf. Und zudem ändert Mantle auch nix an der Optik, ist ein reiner Beschleuniger. Was spricht dagegen, Beschleuniger zu aktivieren?

Gameworks ist geschlossen? Aha. Und wieso laufen die Codeschnipsel dann auch auf AMD Hardware?!

Gameworks läuft über einen offenen Standard, an dem AMD mitgewirkt hat. Gameworks ist reiner HLSL Code, der von den DX Treiber interpretiert werden kann.

Mantle dagegen ist eine API, die für eine bestimmte GPU-Architektur entwickelt wurde. Also der Inbegriff von Proprietär.

Wir sehen hier also, dass Leute überhaupt keine Konkurrenz wollen, weil deren Lieblingshardwarehersteller(?) am Ende in einem fairen Wettbewerb besiegt werden kann.

Cubitus
2014-11-27, 12:28:27
Mich kotzt dieser Grabenkrieg nur noch an..
Dem Bereich PC-Gaming schadet so ein technisches Geplenkel enorm!

Weder AMD noch Nvidia scheinen das zu peilen, Bei Nvidia ist man zur Zeit eher auf "Melk die Kuh" bis die Euter Wund sind und lass uns danach abhauen. Bei AMD die "Wohltäter des freien PC Gamings" Allerdings hocken im Management bis auf den Technik -und den Never Settel Bereich nur Pfeifen!
Zumindest bekommt man bei AMD als Spieler nicht das Gefühl ernst genommen zu werden.

Zu Ubi:
Paar nette Werbevideos, halbgarer SchnickSchnack damit Nvidia seine neue Gen pusht.. Danach 0 Interesse an Support (Watch-Dogs-Verarsche)
Usw.. Fette Day one Patches für ein "fast fertiges Produkt" etc.... Im Prinzip sollte man jedes kommende Spiel von Ubi nur noch raub-kopiert durchspielen und danach das Spiel in diversen Foren zerreißen.. :ufinger: Sowas wäre die passende Antwort für diese Abzocker-Bande. Wenns ein CallIn-Channel ala 9 Live für PC Spiele gäbe, wäre Ubi-Soft die erste Adresse!

Und die Gameworks Features an sich sind irgendwie eh aufgesetzt, man hätte auf diesen Firlefanz auch verzichten können. Und als Hersteller lieber schauen das das Produkt bei beiden GPU-Herstellen 1A läuft. Wie das geht zeigt Rebellion mit seinem Sniper Elite . Das sowohl Nvidia entgegenkommt wie auch AMD mit Mantle..

Hübie
2014-11-27, 12:39:45
THIIIIS! Cubi bringts auf den Punkt. Wenn auch provokant und unablässig. Es wäre viel einfacher wenn beide an einem Strang ziehen würden.

Cubitus
2014-11-27, 12:45:20
THIIIIS! Cubi bringts auf den Punkt. Wenn auch provokant und unablässig. Es wäre viel einfacher wenn beide an einem Strang ziehen würden.

So bin ich....... ;D manchmal....

fondness
2014-11-27, 13:32:20
THIIIIS! Cubi bringts auf den Punkt. Wenn auch provokant und unablässig. Es wäre viel einfacher wenn beide an einem Strang ziehen würden.

Das war lange das was AMD wollte, nämlich das beide an einem Strang ziehen - nur wollte das halt NV nicht und hat sich auch dementsprechend verhalten.

aufkrawall
2014-11-27, 14:13:03
Deshalb sagt Huddy auch, Mantle wär eine GCN-API. :redface:
Wobei man bisher nichts wirklich davon gesehen hat, Dragon Age läuft im GPU-Limit ja sogar minimalst langsamer als mit D3D.
Wenn es ihnen nur darum geht, neue GPU-Features sofort nutzen zu können, sollten sie ihre Ressourcen besser mit NV zusammen in OGL Next stecken.

fondness
2014-11-29, 11:02:48
Wenn es ihnen nur darum geht, neue GPU-Features sofort nutzen zu können, sollten sie ihre Ressourcen besser mit NV zusammen in OGL Next stecken.

Und was hätte AMD davon außer das NV weiter ihr Gameworks-Zeug ausbreiten würde und die User wieder sagen würden "bei NV kann ich alles nutzen, bei AMD nicht".