PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21

Loeschzwerg
2015-05-22, 08:28:39
Du hast auf der einen Seite eine Firma die Geld verdienen will (um jeden Preis) und auf der anderen die Gutmenschen.

Was soll ich sagen, per se verurteilen kann ich da keine Seite. "How the world works" um jetzt mal einen Werbeslogan der jüngeren Zeit zu zitieren ;D

Wenn ich meinen Arbeitgeber anschaue... da könnte eine ordentliche Portion NV oder Intel nicht schaden. So geht halt alles langsam den Bach runter :freak:

Hübie
2015-05-22, 08:39:55
Ja so läuft das eben. Schade dass hier immer gleich alles auf n vs a vs i hinaus läuft. Beiträge wie von AlphaTier, Coda und auch Gipsel lassen ja mal hinter die Kulissen blicken. AlphaTier nennt oft Begriffe die ich erst mal googlen muss, aber wenigstens lernt man was. Die Sinnhaftigkeit der unterschiedlichen Lösungen für Probleme können Devs auch sicher besser beurteilen als wir. Da misst man wenigstens in Millisekunden, nicht Sekunde/x :rolleyes:

robbitop
2015-05-22, 08:41:59
Es ist schon ziemlich offensichtlich, dass man die Schwäche von AMDs Karten - Tesselation - ausnutzt, um die Konkurenz schlechter darstehen zu lassen.
IMO ist das Vorgehen kritikwürdig.

Zum Glück bessert AMD diese Schwäche immer weiter aus. Ich würde darauf tippen, dass ab der R4xx Serie das ausgemerzt ist.

Ansonsten ist GCN eigentlich relativ rund. Die anderen Gameworkseffekte laufen IIRC mit vergleichbarem Performancehit, oder?

Hübie
2015-05-22, 08:50:12
Nichts anderes sagte ich bereits. Es ist aus unternehmerischer Sicht nun mal legitim Schwächen des Konkurrent-Produktes zu nutzen um sich einen Vorteil zu verschaffen. Schön ist das nicht, aber warum AMD so schwach über viele Generationen hinweg ist muss mir auch mal einer erklären.

M4xw0lf
2015-05-22, 08:52:51
Es ist schon ziemlich offensichtlich, dass man die Schwäche von AMDs Karten - Tesselation - ausnutzt, um die Konkurenz schlechter darstehen zu lassen.
IMO ist das Vorgehen kritikwürdig.
Das finde ich nicht mal. Wenn man etwas besser kann, dann kann man das auch ausnutzen.
Aber Hairworks geht dabei ja soweit, dass es auch auf der eigenen Hardware einfach schlecht performt. Diese Softwarebremse in Kauf zu nehmen (und dem User auch keine Konfigurationsmöglichkeit zu geben - von AMDs Tess-Schalter abgesehen), weil die Konkurrenz noch stärker davon gebremst wird, das finde ich das Kritikwürdige daran.

Hübie
2015-05-22, 08:59:59
Ack! Grestorn nannte das schon. Sowas sollte parametisierbar sein und fertig.

Grestorn
2015-05-22, 09:01:38
Wäre interessant, ob der Tessellation-Faktor wirklich nicht konfigurierbar ist, oder ob CDP nur vergessen hat, ihn in die Ini Datei aufzunehmen. Den MSAA Faktor von Hairworks kann man schließlich einstellen, also ist es nicht so, dass das ganze Verfahren nicht parametrisierbar implementiert worden wäre.

Die Beschleunigung im Patch 1.03 ist nicht zufällig durch eine Reduktion des Tessellation-Faktors entstanden?

Und noch etwas: Ist die Tessellation-Kapazität wirklich das primär limitierende Element eines Keplers oder einer 960, verglichen mit einer 970 oder 980? Es hat sicher jemand nen Benchmark wieviel % z.B. eine 960 mit Hairworks verliert und wieviel % eine 980 verliert parat, den er verlinken kann.

M4xw0lf
2015-05-22, 09:04:44
PCGH hat Benchmarks zu TitanX, 970 und 960 (neben vielen anderen ;) http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/).
HW kostet bei den Maxwells überall etwa 20%. Bei der 290X knapp 40%, bei der 285 30%.

Grestorn
2015-05-22, 09:13:23
PCGH hat Benchmarks zu TitanX, 970 und 960 (neben vielen anderen ;) http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/).
HW kostet bei den Maxwells überall etwa 20%. Bei der 290X knapp 40%, bei der 285 30%.

Wenn es bei allen Maxwells gleichermaßen 20% kostet, ist das Argument, dass sich nVidia damit selbst ins Knie schießt für die eigenen, schwächeren Karten ja nicht korrekt, oder?

Die Kepler-Schwäche mal außen vor, da ist ja noch völlig unklar, woher die schwache Performance kommt. Offensichtlich ja nicht (nur) durch Hairworks.

Wenn irgendein Spiel einen Effekt anbietet, und der auf der einen Architektur 20% und auf der anderen 40% kostet, dann gab es deswegen noch nie einen Shitstorm, man hat das einfach hingenommen und gut ist. Niemand hat geprüft, ob man den Effekt nicht vielleicht auch besser und/oder günstiger hätte machen können. Das war schlicht Sache des Spieleentwicklers, Punkt. Jetzt wird da aber ein Riesen-Bohai draus gemacht. Selbst wenn AlphaTier Recht haben sollte (ich weiß dazu viel zu wenig um das beurteilen zu können), dass man das besser auch ohne Tessellation hätte machen können, es bleibt ein optionales EyeCandy, das ganz nett ist, aber wirklich nicht essentiell. Wenn nVidia das nicht (sicher aus reinen Marketing-Gründen) ins Spiel gedrückt hätte, gäb's das halt einfach gar nicht. Für niemanden. Ich verstehe nicht, was daran besser wäre.

Knuddelbearli
2015-05-22, 09:16:17
es geht nicht um die eigenen schwächeren Karten ( wer hat sowas geschrieben? ) sondern das auch NV mit x16 statt x64 weniger verlieren würde bei keinerlei optischen Nachteilen. x8 bei minimalen Nachteilen, wodurch man dann natürlich auch ne stärkere Karte benötigt.

Und das ist auch was ich mies finde. Ich hätte kein kein Problem damit wenn es die optimale Lösung wäre und die dann auf AMD schlechter Performt. Aber wie gesagt hier wurde von NV bewusst nichtmal die 2t beste Lösung genommen sondern die 3t beste.

Hübie
2015-05-22, 09:17:07
Prozente und avg fps sagen erst mal nichts konkretes aus. Ist nur ne Einordnung.
Wenn es einstellbar ist dann muss man die Variable kennen um diese in die xml-Datei einzupflegen. Denn wie ich das verstanden habe kann man das Menü darüber beliebig modifizieren.

M4xw0lf
2015-05-22, 09:18:02
Wenn es bei allen Maxwells 20% kostet, ist das Argument, dass sich nVidia damit selbst ins Knie schießt für die eigenen, schwächeren Karten ja nicht korrekt, oder?

Die Kepler-Schwäche mal außen vor, da ist ja noch völlig unklar, woher die schwache Performance kommt. Offensichtlich ja nicht (nur) durch Hairworks.
20% sind eine Menge Holz für einen einzigen Effekt.

robbitop
2015-05-22, 09:23:42
Das finde ich nicht mal. Wenn man etwas besser kann, dann kann man das auch ausnutzen.
Aber Hairworks geht dabei ja soweit, dass es auch auf der eigenen Hardware einfach schlecht performt. Diese Softwarebremse in Kauf zu nehmen (und dem User auch keine Konfigurationsmöglichkeit zu geben - von AMDs Tess-Schalter abgesehen), weil die Konkurrenz noch stärker davon gebremst wird, das finde ich das Kritikwürdige daran.
Genau. Zumal 64x Tess keinen sichtbaren Vorteil ggü 16x bringt. Ein vernünftiger Ansatz wäre es, wie ihr vorschlagt, es parametrierbar zu machen.


Interessant wäre, ob Patch 1.03 die HW Performance, wie Grestorn schon anmerkte, eventuell durch die Reduzierung des Tessfaktors erreicht. Das könnte man feststellen, in dem man bei diesem Patch die AMD Karte mit 16x Tesselationscap und ohne Tesselationscap. vergleicht.

Es würde jedenfalls naheliegen, dieses Potenzial auch auszuschöpfen.

Grestorn
2015-05-22, 09:24:14
es geht nicht um die eigenen schwächeren Karten ( wer hat sowas geschrieben? ) sondern das auch NV mit x16 statt x64 weniger verlieren würde bei keinerlei optischen Nachteilen. x8 bei minimalen Nachteilen, wodurch man dann natürlich auch ne stärkere Karte benötigt.

Man weiß ja im Moment noch gar nicht, ob 8x oder 16x bei nVidia Karten überhaupt etwas bringen würde. Vielleicht kostet es da nahezu genauso viel, wie bei 64x, weil die Kosten eben nicht durch die Tessellation sondern durch andere Berechnungen entstehen.

del_4901
2015-05-22, 09:28:28
Transparenz braucht immer noch PLLs, sie sind nur schneller durch PixelSync.
Noe man kann damit bucketing betreiben, damit hat man bounded memory. Insertion in PPLL ist nicht so schlimm da es eh kaum contention gibt. Das sorting später wird mit buckets natürlich schneller.

Knuddelbearli
2015-05-22, 09:47:16
Man weiß ja im Moment noch gar nicht, ob 8x oder 16x bei nVidia Karten überhaupt etwas bringen würde. Vielleicht kostet es da nahezu genauso viel, wie bei 64x, weil die Kosten eben nicht durch die Tessellation sondern durch andere Berechnungen entstehen.

Ja gut man weiss es nicht aber es ist wohl zu 99,99% sicher.

Wenn man alles immer absolut sicher wissen müsste wäre das Forum hier recht leer ^^

Grestorn
2015-05-22, 09:52:12
Hm, wenn ein Spiel einen "Tessellation"-Regler hatte, hat sich der bei mir eigentlich nie wirklich heftig ausgewirkt. Auch nicht auf der 680 oder 980.

fondness
2015-05-22, 10:05:52
Man weiß ja im Moment noch gar nicht, ob 8x oder 16x bei nVidia Karten überhaupt etwas bringen würde. Vielleicht kostet es da nahezu genauso viel, wie bei 64x, weil die Kosten eben nicht durch die Tessellation sondern durch andere Berechnungen entstehen.

Tesslation ist kein billiges Feature, auch auf NV-Karten geht da die Leistung deutlich in die Knie, lässt sich gar nicht vermeiden. Mit 8x Tesslation verliert man auf eine Radeon bereits deutlich weniger Performance wie auf eine Geforce, mit 16x Tesslation ist der Performaceverlust bei Hairworks in Witcher 3 ziemlich genau gleich, mehr gibt es dazu nicht zu sagen.

Aber der eigentliche Kritikpunkt ist ja, dass man die Haare überhaupt mit Tesslation löst und deshalb auch noch haufenweise MSAA benötigt damit es nicht flimmert wie Hölle. Das kostet beide Hersteller deutlich mehr Performace als nötig, nur halt AMD überproportional mehr, deshalb macht es NV auch. Wird wohl nicht lange dauern bis NV eine anderen Ansatz vorstellt, sobald AMD eine schnelle Tesslationshardware hat. Man benachteiligt also auch seine eigenen Kunden nur um die Konkurrenz auszubremsen, das ist einfach letztklassig.

Grestorn
2015-05-22, 10:10:04
Man benachteiligt also auch seine eigenen Kunden nur um die Konkurrenz auszubremsen, das ist einfach letztklassig.

Simmer wieder beim alten Thema. Nein, das ist nicht letztklassig, auch wenn Du es so siehst. Das ist Kundensupport und Marketing.

In Deinem Sinne wäre dann ja auch Mantle letztklassig. Und die übliche Argumentation "nVidia kann doch auch Mantle implementieren" ist genauso wenig stichhaltig wie "AMD kann doch auch GPUs mit ordentlicher Tessellation-Leistung bauen".

-/\-CruNcher-/\-
2015-05-22, 10:12:38
Tesslation ist kein billiges Feature, auch auf NV-Karten geht da die Leistung deutlich in die Knie, lässt sich gar nicht vermeiden. Mit 8x Tesslation verliert man auf eine Radeon bereits deutlich weniger Performance wie auf eine Geforce, mit 16x Tesslation ist der Performaceverlust bei Hairworks in Witcher 3 ziemlich genau gleich, mehr gibt es dazu nicht zu sagen.

Aber der eigentliche Kritikpunkt ist ja, dass man die Haare überhaupt mit Tesslation löst und deshalb auch noch haufenweise MSAA benötigt damit es nicht flimmert wie Hölle. Das kostet beide Hersteller deutlich mehr Performace als nötig, nur halt AMD überproportional mehr, deshalb macht es NV auch. Wird wohl nicht lange dauern bis NV eine anderen Ansatz vorstellt, sobald AMD eine schnelle Tesslationshardware hat. Man benachteiligt also auch seine eigenen Kunden nur um die Konkurrenz auszubremsen, das ist einfach letztklassig.

Dann sollte mal jemand die bombe zünden etwas besseres implementieren und auf der Siggraph gegen Hairworks präsentieren reden aleine bringt nichts.

Auf implementationsseite ist bei AMD da fast nichts passiert in real titeln und das seit Tomb Raider 2013

Von Nvidia Hairworks gibt es seit dem schon zig POCs davon trotzdem nur sehr wenige überzeugend.

fondness
2015-05-22, 10:12:45
Simmer wieder beim alten Thema. Nein, das ist nicht letztklassig, auch wenn Du es so siehst. Das ist Kundensupport und Marketing.

In Deinem Sinne wäre dann ja auch Mantle letztklassig. Und die übliche Argumentation "nVidia kann doch auch Mantle implementieren" ist genauso wenig stichhaltig wie "AMD kann doch auch GPUs mit ordentlicher Tessellation-Leistung bauen".

Das ist in keinster Weise vergleichbar, weder bremst Mantle AMD-User aus, noch NV-User.

Dann sollte mal jemand die bombe zünden etwas besseres implementieren und auf der Siggraph präsentieren reden aleine bringt nichts.

Der Sourcecode ist frei verfügbar: http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/#downloadsamples

Muss halt auch jemand verwenden, ohne diverser "Business"-Vorteile.

robbitop
2015-05-22, 10:16:07
Ich finde es auch fragwürdig und hinterhältig. Klar ist das nicht unlegitim. Ich finde es hat ein negatives "Geschmäckle".

Malabolge
2015-05-22, 10:18:08
Aber der eigentliche Kritikpunkt ist ja, dass man die Haare überhaupt mit Tesslation löst und deshalb auch noch haufenweise MSAA benötigt damit es nicht flimmert wie Hölle. Das kostet beide Hersteller deutlich mehr Performace als nötig, nur halt AMD überproportional mehr, deshalb macht es NV auch. Wird wohl nicht lange dauern bis NV eine anderen Ansatz vorstellt, sobald AMD eine schnelle Tesslationshardware hat. Man benachteiligt also auch seine eigenen Kunden nur um die Konkurrenz auszubremsen, das ist einfach letztklassig.

Vergiss es , das wird enden wie beim "970er Problem" - Aussitzen und Verschweigen
Ändern wird sich Nix .

Und die Journalie und die Foren werden sich wieder mal "höflichst" zurückhalten mit der Kritik.
Aber gleichzeitig auf "ungelegten" Eiern herumtanzen ( siehe "Pirate Islands: Bermuda, Fiji, Treasur"-Thread wg 8Gb)
SO wurde damals auch 3Dfx "gedisst"


Erst wenn AMD wie 3Dfx zumacht, werden einige einsehen das Monopole wohl doch nicht so Spaßig sind.

-/\-CruNcher-/\-
2015-05-22, 10:24:44
Ich finde es auch fragwürdig und hinterhältig. Klar ist das nicht unlegitim. Ich finde es hat ein negatives "Geschmäckle".

Was du mit in deine überlegung einfliesen lassen solltes die in der R&D Abteilung sind sich darüber bewusst und spielen ja dann auch mit, stellen sich jedesmal auf die Bühne und reden darüber wie effizient doch Hairworks ist ;)
Das ist viel bedrückender als der Rest.

Grestorn
2015-05-22, 10:27:27
Das ist in keinster Weise vergleichbar, weder bremst Mantle AMD-User aus, noch NV-User.

In wie fern bremst Mantle nVidia nicht aus? Natürlich tut es das. Es ist von nVidia Kunden nicht nutzbar, weswegen die Performance schlechter ist, was dazu führt, dass Mantle Nutzer ggf. mehr Features und Eyecandy aktivieren können.

Natürlich ist das aber nicht AMDs Schuld oder AMDs Problem. Es ist völlig legitim eine solche Technik anzubieten und auch dafür zu sorgen, dass der eigene Kundenkreis Vorteile daraus zieht.

Ich finde es auch fragwürdig und hinterhältig. Klar ist das nicht unlegitim. Ich finde es hat ein negatives "Geschmäckle". Alle Dinge, die Hersteller A macht um die Kunden von Hersteller B auszusperren haben ein "Geschmäckle", natürlich. Hätte es das nicht, gäbe es keinen Druck die Produkte von Hersteller A zu kaufen. Kunden von B werden immer unglücklich und sauer sein, zu einem gewissen Grad auch zurecht.

Hinterhältig... naja, wenn eine solche Limitierung unnötig herbeigeführt wird, wie man es unterstellt mit dem Tessellation-Faktor, so kann man das wohl als Hinterfotzig bezeichnen. Aber AMD hat das ja selbst geschickt umgangen über die Treibereinstellung. Also sehe ich das Problem da nicht sonderlich. Und wie gesagt, ob nVidia die eigenen Kunden mit schwächeren Karten damit benachteiligt halte ich für zumindest unbestätigt.

-/\-CruNcher-/\-
2015-05-22, 10:30:54
In wie fern bremst Mantle nVidia nicht aus? Natürlich tut es das. Es ist von nVidia Kunden nicht nutzbar, weswegen die Performance schlechter ist, was dazu führt, dass Mantle Nutzer ggf. mehr Features und Eyecandy aktivieren kann.

Natürlich ist das aber nicht AMDs Schuld oder AMDs Problem. Es ist völlig legitim eine solche Technik anzubieten und auch dafür zu sorgen, dass der eigene Kundenkreis Vorteile daraus zieht.


Auch kann Mantle Pre Windows 10 targeten das ist ein garnicht so kleiner Vorteil was user reach angeht.

Apple hat schon für weit weniger user reach Standards verkrüppelt eingesetzt ;)

Troyan
2015-05-22, 11:25:34
Aber der eigentliche Kritikpunkt ist ja, dass man die Haare überhaupt mit Tesslation löst und deshalb auch noch haufenweise MSAA benötigt damit es nicht flimmert wie Hölle. Das kostet beide Hersteller deutlich mehr Performace als nötig, nur halt AMD überproportional mehr, deshalb macht es NV auch. Wird wohl nicht lange dauern bis NV eine anderen Ansatz vorstellt, sobald AMD eine schnelle Tesslationshardware hat. Man benachteiligt also auch seine eigenen Kunden nur um die Konkurrenz auszubremsen, das ist einfach letztklassig.

Und wo ist die Alternative zu Hairworks? Es ist die einzige Technik, die es in Spielen geschafft hat mehr als einen Charakter mit realistischem Haar zu rendern.

In The Witcher 3 kann man gegen ein Rudel von Wölfen kämpfen und gleichzeitig spielbare Frames erreichen.

Bei aller Kritik an nVidia sollte man nicht vergessen, dass die Konkurrenztechniken es nicht über die Anwendung von genau einem Charakter geschafft haben.

Mancko
2015-05-22, 12:38:46
Ich finde es auch fragwürdig und hinterhältig. Klar ist das nicht unlegitim. Ich finde es hat ein negatives "Geschmäckle".

Naja aber Spieleherstellern über die Konsolen versuchen zu sagen wie sie auf GCN optimieren können in der Hoffnung, dass die das dann 1:1 auf den PC übernehmen ist ja nun auch nichts anderes. Da versucht AMD auch seine Vorteile zu ziehen.

Für mich ist Gameworks einfach Nvidia's Weg ein Gegengewicht zu den Konsolen zu schaffen. Ich finde das weder hinterhältig noch verwerflich. Nvidia kann auch ganz einfach direkt in die Spieleentwicklung einsteigen. Ich würde das denen sogar dringend empfehlen. Einfach an wichigen Gamestudios Beteiligungen erwerben. Das macht m.E. langfristig Sinn, da sie ja selber auch versuchen auf anderen Plattformen Fuß zu fassen (Shield, Grid, Android Gaming etc.). Mehr Einfluss auf zukünftigen Content ist da m.E. strategisch sehr hilfreich.

Locuza
2015-05-22, 12:54:55
Man weiß ja im Moment noch gar nicht, ob 8x oder 16x bei nVidia Karten überhaupt etwas bringen würde. Vielleicht kostet es da nahezu genauso viel, wie bei 64x, weil die Kosten eben nicht durch die Tessellation sondern durch andere Berechnungen entstehen.
Natürlich würde es etwas bringen.
Bei Faktor 64 hast du ein dramatisch schlechteres Pixel-per-Polygon-Ratio.
Der Rasterizer arbeitet dann technisch bedingt deutlich ineffizienter.


Für mich ist Gameworks einfach Nvidia's Weg ein Gegengewicht zu den Konsolen zu schaffen. Ich finde das weder hinterhältig noch verwerflich.
Prinzipiell würde ich es Nvidia auch nicht verwerflichen, ich tue es auch nicht, sondern nur bei gewissen GameWorks Angeboten.
Von mir aus ist es closed source.
Aber einfach der Missbrauch an dieser Stelle, ist das hinterhältige.
Von mir aus ist Faktor 32x noch reasonable, von mir aus läuft es auf Nvidia technisch bedingt ein gutes Stück besser, als auf AMD.
Und von mir aus kann Nvidia ihre IP für sich geheim halten, wenn man so schreckliche Angst hat, aber Nvidia soll mal bitte unterlassen mit voller Absicht prinzipiell brauchbare Effekte so zu missbrauchen, damit die ganze Konkurrenz geknechtet wird und die eigene Hardware in Mitleidenschaft gezogen wird.

Knuddelbearli
2015-05-22, 12:56:42
Naja aber Spieleherstellern über die Konsolen versuchen zu sagen wie sie auf GCN optimieren können in der Hoffnung, dass die das dann 1:1 auf den PC übernehmen ist ja nun auch nichts anderes. Da versucht AMD auch seine Vorteile zu ziehen.

Für mich ist Gameworks einfach Nvidia's Weg ein Gegengewicht zu den Konsolen zu schaffen. Ich finde das weder hinterhältig noch verwerflich. Nvidia kann auch ganz einfach direkt in die Spieleentwicklung einsteigen. Ich würde das denen sogar dringend empfehlen. Einfach an wichigen Gamestudios Beteiligungen erwerben. Das macht m.E. langfristig Sinn, da sie ja selber auch versuchen auf anderen Plattformen Fuß zu fassen (Shield, Grid, Android Gaming etc.). Mehr Einfluss auf zukünftigen Content ist da m.E. strategisch sehr hilfreich.

du hast es nicht verstanden ...

Eine Lösung anbieten die bei einem selber am besten performt ist kein Problem und absolut in Ordnung.
Eine Lösung anzubieten die auch bei einem selbst suboptimal performt, bei dem Konkurrenten aber noch viel schlechter, die bessere Lösung aber nicht zu nutzen da die beim Gegner zu gut performt. Das ist nicht ok!

Grestorn
2015-05-22, 13:13:22
Natürlich würde es etwas bringen.
Bei Faktor 64 hast du ein dramatisch schlechteres Pixel-per-Polygon-Ratio.
Der Rasterizer arbeitet dann technisch bedingt deutlich ineffizienter.

Das bestreite ich nicht. Ich frage nur, wie die Tessellations-Kosten im Verhältnis zu den restlichen Kosten ist. Hairworks kostet beispielsweise etwa 20% bei 64x. Wenn es bei 16x eben 18% wären, dann wäre das zu vernachlässigen. Wo genau die Kosten bei der Berechnung der Haare sind, weiß zumindest ich nicht, und die wenigsten anderen außerhalb von nVidia dürften das genau wissen.

Eine Lösung anzubieten die auch bei einem selbst suboptimal performt, bei dem Konkurrenten aber noch viel schlechter, die bessere Lösung aber nicht zu nutzen da die beim Gegner zu gut performt. Das ist nicht ok!Nach aktuellem Stand der Dinge ist das aber bestenfalls eine Vermutung.

Isen
2015-05-22, 13:18:11
Bei x16 sind es eher 5% um es mal überspitzt zu nennen.

Schnoesel
2015-05-22, 13:20:40
Ein hoher Tessfaktor schadet natürlich auch den eigenen Karten:

http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/15/#diagramm-directx-sdk-subd11-tessellation

und das Diagramm hier geht nur bis 32x. Blödsinn zu behaupten auf NV Karten wäre der Faktor irrelevant.

Grestorn
2015-05-22, 13:23:46
Bei x16 sind es eher 5% um es mal überspitzt zu nennen.

Woher nimmst Du diese Sicherheit? Die Kosten von Hairworks bestehen ja nicht nur aus Tessellationskosten.

Isen
2015-05-22, 13:24:27
@Grestorn,

woher nimmst du deine 18% ;-)
Fällt dir was auf?

Troyan
2015-05-22, 13:26:21
Ein hoher Tessfaktor schadet natürlich auch den eigenen Karten:

http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/15/#diagramm-directx-sdk-subd11-tessellation

und das Diagramm hier geht nur bis 32x. Blödsinn zu behaupten auf NV Karten wäre der Faktor irrelevant.

Dort wird kein level of Detail eingesetzt.

Es ist auch erstaunlich, dass die Leute nicht über das Wasser in The Witcher 3 meckern, dass ebenfalls mit 64x gerendert wird. :freak:

Grestorn
2015-05-22, 13:27:18
@Grestorn,

woher nimmst du deine 18% ;-)
Fällt dir was auf?

Ich sage nur, dass es nicht bekannt ist, wieviel von der Tessellation verbraucht wird. Ich habe nicht BEHAUPTET, dass es 18% SIND, das war klar als Beispiel gekennzeichnet.

Ihr behauptet, ein geringerer Tessellationsfaktor würde sich spürbar auf die Performance auswirken. Das ist aber nur eine Vermutung, nichts weiter.

Ein hoher Tessfaktor schadet natürlich auch den eigenen Karten:

und das Diagramm hier geht nur bis 32x. Blödsinn zu behaupten auf NV Karten wäre der Faktor irrelevant.

Dein Fehler ist auch, dass Du davon ausgehst, dass die Kosten für Hairworks nur aus Tessellation bestehen. Wenn die Tessellation aber nur BEISPIELSWEISE nur 10% zu den Gesamtkosten von Hairworks beträgt (also von den 20% Performance-Verlust eben nur 2% auf die Tessellation gehen), dann ist der Faktor hier eben nahezu irrelevant.

Vorsicht mit dem Wort "Blödsinn" bitte.

Isen
2015-05-22, 13:28:12
@Troyan
Doch. Es wird gemeckert: Dass sinnlos hohe Faktoren verwendet werden, die weniger eingesetzt der Optik nicht schaden. Das deckt auch das Wasser und all die anderen Teilbereiche in denen dies zutrifft ab.


@Grestorn,

hm ne... wenn ich mit dem CCC auf x32 setzen würde ( Gilt ja Global für alles ), was für AMD schon zuviel ist, aber immerhin besser läuft als x64 ( selbiges auch bei Nvidia, wenn man es könnte ) und dabei keinen wirklichen Optischen Unterschied erkennt, dann reicht das schon aus, um zu sagen: Es ist übertrieben sinnlos viel.

N0Thing
2015-05-22, 13:30:53
In wie fern bremst Mantle nVidia nicht aus? Natürlich tut es das. Es ist von nVidia Kunden nicht nutzbar, weswegen die Performance schlechter ist, was dazu führt, dass Mantle Nutzer ggf. mehr Features und Eyecandy aktivieren können.

Natürlich ist das aber nicht AMDs Schuld oder AMDs Problem. Es ist völlig legitim eine solche Technik anzubieten und auch dafür zu sorgen, dass der eigene Kundenkreis Vorteile daraus zieht.

Kannst du mir erklären, wie jemand von etwas ausgebremst werden kann, von dem er gar nicht tangiert wird? Oder wenigstens einen Link posten, wo ein Entwickler einräumt, dass ihr Produkt auf Nvidia wegen des zusätzlichen Mantle-Pfades schlechter läuft?

Und natürlich ist es legitim Vorteile der eigenen Produkte auszunutzen, nur wenn das auf Kosten der eigenen Kunden geschehen sollte, zieht da kein Kundenkreis den maximalen Vorteil heraus, sondern nur der Hersteller.

Schnoesel
2015-05-22, 13:31:43
Dein Fehler ist auch, dass Du davon ausgehst, dass die Kosten für Hairworks nur aus Tessellation bestehen. Wenn die Tessellation aber nur BEISPIELSWEISE 10% der Gesamtkosten beträgt (also von den 20% Performance-Verlust eben nur 2% auf die Tessellation gehen), dann ist der Faktor hier eben nahezu irrelevant.

Wenn Tesselation bei Hairworks die Performance so wenig beinträchtigt warum hat man dann auf AMD Karten bei Begrenzung ein so großes Performance +? Das ergibt keine Sinn und daher Blödsinn!

Kartenlehrling
2015-05-22, 13:32:48
Dort wird kein level of Detail eingesetzt.

Es ist auch erstaunlich, dass die Leute nicht über das Wasser in The Witcher 3 meckern, dass ebenfalls mit 64x gerendert wird. :freak:

Das kann man aber in der ini ändern.

[Rendering]
GrassDensity=2000
DecalsSpawnDistanceCutoff=10
TextureStreamingHeadsDistanceLimit=10
GlobalOceanTesselationFactor=16
TextureStreamingCharacterDistanceLimit=40
CascadeShadowDistanceScale2=1
MaxTextureAnizotropy=8
TextureStreamingDistanceLimit=40000
TextureMemoryBudget=800
CascadeShadowDistanceScale3=1
MeshLODDistanceScale=1
ScaleformTextureUnstreamDelay=2.5
DecalsChance=1
TerrainReadAheadDistance=200
HairWorksLevel=2
MaxTextureAnisotropy=16
TerrainScreenSpaceErrorThreshold=2
TextureInFlightCountBudget=12
CascadeShadowDistanceScale0=1
MeshRenderingDistanceScale=1
CascadeShadowDistanceScale1=1

Grestorn
2015-05-22, 13:33:29
Wenn Tesselation bei Hairworks die Performance so wenig beinträchtigt warum hat man dann auf AMD Karten bei Begrenzung ein so großes Performance +? Das ergibt keine Sinn und daher Blödsinn!

Weil bei AMD die Tessellation eben überproportional viel Leistung kostet, also bei AMD der Anteil der Kosten durch die Tessellation eben nicht nur 10% sondern, was weiß ich, z.B. 50% beträgt. Deswegen performt die 285 eben auch so viel besser. Keine Überraschung.

Kannst du mir erklären, wie jemand von etwas ausgebremst werden kann, von dem er gar nicht tangiert wird? Oder wenigstens einen Link posten, wo ein Entwickler einräumt, dass ihr Produkt auf Nvidia wegen des zusätzlichen Mantle-Pfades schlechter läuft? Lies doch bitte den Satz, den Du selbst zitiert hast. Es steht alles da drin.

Troyan
2015-05-22, 13:36:08
Das Wasser lässt sich einstellen. Ultra verwendet einen Faktor von 64x. ;)

@Troyan
Doch. Es wird gemeckert: Dass sinnlos hohe Faktoren verwendet werden, die weniger der Optik nicht schaden. Das deckt auch das Wasser und all die anderen Teilbereiche in denen dies zutrifft ab.

Es wird gemeckert, dass 64x zu viel wäre. Das weniger ausreichend wäre für das selbe Ergebnis, hat niemand hier belegt. Das ein ähnliches Ergebnis möglich ist, steht außer Frage.
Des Weiteren wird ignoriert, dass mit einem Level of Detail der Unterschied sowieso geringer wird je höher der Faktor, da nicht sichtbare Bereiche überhaupt nicht in die nächsten Stages gelangen.

Auch sollte es einen bewusst sein, dass bei Hairworks 8xMSAA standardmäßig aktiviert ist. Das kostet auch nochmal Leistung.

Isen
2015-05-22, 13:38:05
Doch, wurde belegt. Aussagen die es wissen müssen und via Vergleiche... einfach mal nen paaaaaaaar Seiten nach hinten :)

Grestorn
2015-05-22, 13:41:14
Doch, wurde belegt. Aussagen die es wissen müssen und via Vergleiche... einfach mal nen paaaaaaaar Seiten nach hinten :)

Wer hat was mit was verglichen? Man kann ja schließlich nicht auf einer nVidia Karte(!) Hairworks in W3 mit 64x und mit 8x vergleichen.

Und nur nochmal zur Klarstellung: Es kann gut sein, dass die Vermutung, Hairworks verballere unnötig Leistung und schadet damit auch nVidia Karten, absolut richtig ist. Ich behaupte nicht, dass das nicht sein kann. Ich sage nur, dass es eben zur Zeit ledglich eine unbelegte Vermutung ist, nicht mehr und nicht weniger.

Isen
2015-05-22, 13:43:06
Es geht allein darum, dass weniger der Optik keinen nennenswerten Unterschied bringt...außer Leistung für quasi nix zu verblasen.
Und wer das war, such selbst. Jetzt reichts aber.

del_4901
2015-05-22, 13:44:38
Wenn ein einzelnes feature 20% an Frametime schluckt ist es ein fail, da ist es komplett egal wie die Hardware beansprucht wird.

Troyan
2015-05-22, 13:45:05
Doch, wurde belegt. Aussagen die es wissen müssen und via Vergleiche... einfach mal nen paaaaaaaar Seiten nach hinten :)

Ich kenne Screenshots, wo mindesten 16x eingestellt sein muss, um eine vernünftige Qualität zu erreichen.
Wer weiß, welche Auswirkungen es im Spiel hat, die den Leuten - weil sie den Vergleich nicht haben - nicht auffallen.

Ich kann z.B. weniger als 4xMSAA nicht empfehlen. Andere finden 2x ausreichend.

fondness
2015-05-22, 13:45:15
Wie schon gesagt: Mit 16x Tesslation verliert eine Radeon 290 nicht mehr Leistung als eine Geforce durch Hairworks, mit 8x bereits deutlich(!) weniger. Wäre der Tesslationsfaktor auf NV-Karten so irrelevant, würde das keinen Sinn ergeben. Damit sollte diese völlig sinnlose Diskussion eigentlich beendet sein.

Grestorn
2015-05-22, 13:47:09
Wenn ein einzelnes feature 20% an Frametime schluckt ist es ein fail, da ist es komplett egal wie die Hardware beansprucht wird.

So ein Schmarrn mit Soße. An die eigene Nase fass... Also: Diesem Argument kann ich mich in keinster Weise anschließen ... Und dafür gibt es auch einige Beispiele.

Wie schon gesagt: Mit 16x Tesslation verliert eine Radeon 290 nicht mehr Leistung als eine Geforce durch Hairworks, mit 8x bereits deutlich(!) weniger. Wäre der Tesslationsfaktor auf NV-Karten so irrelevant, würde das keinen Sinn ergeben.
Eigenartige Logik. Wie schließt Du von den offensichtlichen Kosten der Hairworks-Tessellation auf AMD Karten auf die Hairworks-Tessellationskosten bei nVidia? Das wäre nur dann naheliegend, wenn nVidia generell ähnlich starke Performancekosten für Tessellation hätte, wie AMD Karten.

dargo
2015-05-22, 13:47:18
Wurde das hier schon verlinkt?
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/News/Trick-Hairworks-fluessig-AMD-Radeon-Grafikkarten-1159466/galerie/2376253/?fullsize

Schon 16x ist eigentlich Verschwendung.

M4xw0lf
2015-05-22, 13:53:33
Wurde das hier schon verlinkt?
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/News/Trick-Hairworks-fluessig-AMD-Radeon-Grafikkarten-1159466/galerie/2376253/?fullsize

Schon 16x ist eigentlich Verschwendung.
Im Video sieht man schon noch eine recht deutliche Aufwertung von x8 auf x16. Bei manchen Frisuren ist vielleicht x8 ok, ansonsten stellt das halt einen Kompromiss aus Optik und Leistung dar (während x16 eigentlich nur Performance gewinnt, und keine sichtbare Qualität einbüßt gegenüber dem Standard).

fondness
2015-05-22, 13:54:23
Eigenartige Logik. Wie schließt Du von den offensichtlichen Kosten der Tessellation auf AMD Karten auf die Tessellationskosten bei nVidia? Das wäre nur dann naheliegend, wenn nVidia ähnlich starke Performancekosten für Tessellation hätte, wie AMD Karten.

Das ist vollkommen logisch und IMO auch einfach zu verstehen. Eine Radeon verliert durch Hairworks mit 8x Tesslation ~10% Performance, mit 2x oder 4x vielleicht 5%, eine Geforce mit 64x 20%. Wenn du nicht davon ausgehst, dass die Radeon alles andere bei Hairworks außer die Tesslation wesentlich schneller berechnet, was gerade bei NV-Code sehr unwahrscheinlich ist, dann zeigt dies ganz klar, dass auch auf Geforce-Karten die Tesslation die Wesentlichen Kosten verursacht, sonst wäre eine Radeon mit weniger Tesslation nicht deutlich schneller als eine Geforce.

Grestorn
2015-05-22, 13:55:59
Das ist vollkommen logisch und IMO auch einfach zu verstehen. Eine Radeon verliert durch Hairworks mit 8x Tesslation ~10% Performance, mit 2x oder 4x vielleicht 5%, eine Geforce mit 64x 20%. Wenn du nicht davon ausgehst, dass die Radeon alles andere bei Hairworks außer die Tesslation wesentlich schneller berechnet, was gerade bei NV-Code sehr unwahrscheinlich ist, dann zeigt dies ganz klar, dass auch auf Geforce-Karten die Tesslation die Wesentlichen Kosten verursacht, sonst wäre eine Radeon mit weniger Tesslation nicht deutlich schneller als eine Geforce.

Ok, so gesehen spricht einiges dafür. Akzeptiert.

Locuza
2015-05-22, 13:59:50
Eigenartige Logik. Wie schließt Du von den offensichtlichen Kosten der Hairworks-Tessellation auf AMD Karten auf die Hairworks-Tessellationskosten bei nVidia? Das wäre nur dann naheliegend, wenn nVidia generell ähnlich starke Performancekosten für Tessellation hätte, wie AMD Karten.
Weil du doch siehst, dass wenn man die Tess bei AMD abschaltet, nicht mehr viel übrig an Performancekosten für die Berechnung und Simulation der Haare übrig bleibt.
Entsprechend kann ich den Faktor deutlich kleiner rechnen und einen größeren Teil auf Tessellation schieben, selbst wenn das bei Nvidia nicht überproportional, sondern eher linear kostet.


Schon 16x ist eigentlich Verschwendung.
Finde ich nicht. Von 8 zu 16 sieht und merkt man noch etwas.
Bei 32 könnte die Sache kritisch werden und bei 64 sollte man auch im Direktvergleich keinen Unterschied mehr sehen können.

Troyan
2015-05-22, 14:01:36
Im overclock.net Forum gibt es einen tollen Vergleich:
http://www.overclock.net/t/1556474/reddit-witcher-3-hairworks-now-works-on-amd-cards-smoothly-cc-tweak/90#post_23933170

8x ist viel zu wenig. 16x muss es sein. Wahrscheinlich sogar 32x um in den Bereich zu kommen, wo man kaum noch Unterschiede finden wird.

Das ist vollkommen logisch und IMO auch einfach zu verstehen. Eine Radeon verliert durch Hairworks mit 8x Tesslation ~10% Performance, mit 2x oder 4x vielleicht 5%, eine Geforce mit 64x 20%. Wenn du nicht davon ausgehst, dass die Radeon alles andere bei Hairworks außer die Tesslation wesentlich schneller berechnet, was gerade bei NV-Code sehr unwahrscheinlich ist, dann zeigt dies ganz klar, dass auch auf Geforce-Karten die Tesslation die Wesentlichen Kosten verursacht, sonst wäre eine Radeon mit weniger Tesslation nicht deutlich schneller als eine Geforce.

Die Argumentation hat einen Fehler. Mit weniger Tessellation gibt es weniger und kürzere Strähnen. Damit ist der Leistungsverlust von MSAA auch erheblich geringer, da weniger Pixel ausgewertet müssen.

dargo
2015-05-22, 14:01:39
Im Video sieht man schon noch eine recht deutliche Aufwertung von x8 auf x16. Bei manchen Frisuren ist vielleicht x8 ok, ansonsten stellt das halt einen Kompromiss aus Optik und Leistung dar (während x16 eigentlich nur Performance gewinnt, und keine sichtbare Qualität einbüßt gegenüber dem Standard).
Meinst du das hier?
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Videos/Hairworks-Effekte-auf-AMD-Karten-optimieren-Video-Anleitung-1159588/

Ok... mit 16x sieht es noch einiges besser aus, stimmt schon.

N0Thing
2015-05-22, 14:05:35
Lies doch bitte den Satz, den Du selbst zitiert hast. Es steht alles da drin.

:uclap:

Da steht leider kein Argument drin, wie ein Hersteller von etwas ausgebremst werden kann, was ihn nicht tangiert. Vielleicht war deine Wortwahl falsch und du wolltest damit eigentlich sagen, der Hersteller profitiert nicht dadurch.

Aber wie gesagt, du kannst gerne einen Beleg bringen, dass ein Spiel auf Nvidia-Hardware langsamer wird, wenn ein Mantle-Pfad hinzu kommst, aber ich gehe einfach mal davon aus, dass du dich unpräzise ausgedrückt hast.

fondness
2015-05-22, 14:07:04
Im overclock.net Forum gibt es einen tollen Vergleich:
http://www.overclock.net/t/1556474/reddit-witcher-3-hairworks-now-works-on-amd-cards-smoothly-cc-tweak/90#post_23933170

8x ist viel zu wenig. 16x muss es sein. Wahrscheinlich sogar 32x um in den Bereich zu kommen, wo man kaum noch Unterschiede finden wird.


Auch auf den Screens sieht man ab 16x keinen Unterschied mehr, aber du kannst ihn ja gerne markieren wenn du glaubst dort welchen zu erkennen.


Die Argumentation hat einen Fehler. Mit weniger Tessellation gibt es weniger und kürzere Strähnen. Damit ist der Leistungsverlust von MSAA auch erheblich geringer, da weniger Pixel ausgewertet müssen.

Damit erklärst du nie und nimmer einen 15%igen Leistungseinbruch auf NV-Karten. Aber das kann ich nächste Woche ganz einfach nachstellen, man braucht ja nur MSAA abzuschalten.

Troyan
2015-05-22, 14:11:24
Natürlich kann ich das. Das Runterstellen von 8xMSAA auf 4xMSAA bringt knapp 15%-20% mehr Leistung im Patch 1.02.

Im Patch 1.03 kann es weniger sein, weil man wohl bei Geralt die Qualität gesenkt hat. Das muss ich jedoch noch weiter beobachten.

Ich habe oben schon erwähnt. Nur weil man in einigen Szenen angeblich keine Unterschiede sieht, heißt das nicht, dass es auch im kompletten Spiel so ist.
Es ging auch darum, dass jemand 8x als "ausreichend" tituliert hat. Und das ist falsch.

dargo
2015-05-22, 14:18:27
In wie fern bremst Mantle nVidia nicht aus? Natürlich tut es das. Es ist von nVidia Kunden nicht nutzbar, weswegen die Performance schlechter ist, was dazu führt, dass Mantle Nutzer ggf. mehr Features und Eyecandy aktivieren können.

Wie kann Mantle Nvidia bremsen wenn NV auf den Mantlezug gar nicht aufgesprungen ist? Du hast eine sehr merkwürdige Sichtweise der Dinge. Zumal du von Mantle indirekt sogar profitierst. Erst dadurch sah sich NV gezwungen den D3D11.x Treiber gründlich zu überarbeiten.

fondness
2015-05-22, 14:20:42
Natürlich kann ich das. Das Runterstellen von 8xMSAA auf 4xMSAA bringt knapp 15%-20% mehr Leistung im Patch 1.02.


Da Hairworks an sich "nur" 20% kostet ist es also mit 4xMSAA bereits gratis. :ugly:

Troyan
2015-05-22, 14:46:13
Der Leistungsgewinn hängt natürlich davon ab, wie groß der Pixelbereich von Hairworks. Das Erzeugen der Strähnen ist doch garnicht so das Problem. Vielmehr das Anwenden von MSAA kostet erheblich Leistung.

Wie kann Mantle Nvidia bremsen wenn NV auf den Mantlezug gar nicht aufgesprungen ist? Du hast eine sehr merkwürdige Sichtweise der Dinge. Zumal du von Mantle indirekt sogar profitierst. Erst dadurch sah sich NV gezwungen den D3D11.x Treiber gründlich zu überarbeiten.

Die Diskussion kommt irgendwie immer wieder.
Gameworks bremst AMD auch nicht aus. AMD User können diese Features deaktivieren. AMD muss mit den Entwicklern zusammenarbeiten, um deren Kunden das gleiche visuelle Erlebnis bieten zu können.

N0Thing
2015-05-22, 15:05:26
Die Diskussion kommt irgendwie immer wieder.
Gameworks bremst AMD auch nicht aus. AMD User können diese Features deaktivieren. AMD muss mit den Entwicklern zusammenarbeiten, um deren Kunden das gleiche visuelle Erlebnis bieten zu können.

Das stört ja auch diejenigen nicht, die keine Vorliebe für einen Hersteller haben. Wenn der Eindruck entsteht, das selbst Nvidia-Karten stärker einbrechen als notwendig wäre, ist es aber legitim sich damit auseinander zu setzen und den Tatsachen auf den Grund zu gehen, soweit das möglich ist.

Ich nutze die Nvidia-Features so weit möglich gerne, ärgere mich aber trotzdem manchmal über die schlechte Umsetzung.
Im Gegenzug habe ich mich noch nie benachteiligt gefühlt, wenn ein Spiel Mantle-Support hat, ich diesen aber nicht nutzen kann. Zwei ganz verschiedene Dinge, die leider zu oft von zu Vielen zusammen geworfen werden.

Troyan
2015-05-22, 15:15:44
Den Zusammenhang verstehe ich nicht:
Mich stört Mantle nicht, weil ich es nicht verwenden kann.
Mich stört Gameworks, weil ich es verwenden könnte.

Es liegt dir doch frei Gameworks zu aktivieren. Wenn dir der Effekt oder der Leistungsverlust missfällt, dann kannst du es deaktivieren.

blaidd
2015-05-22, 15:20:48
Es ist auch erstaunlich, dass die Leute nicht über das Wasser in The Witcher 3 meckern, dass ebenfalls mit 64x gerendert wird. :freak:

Ich hab drüber gemeckert. Mehrfach. Sieht nicht gut aus, weil die Tessellation nicht vernünftig eingesetzt wird und kostet viel Leistung. Das kann man aber wenigstens einstellen (Detailregler im Spiel low-ultra: 8x keine Wassersimulation, 16x keine Wassersimulation, 32x Wassersimlation, 64x Wassersimulation) oder in der ini einstellen. 16x und Wassersimulation sieht gut aus, kostet kaum Leistung und hat nicht so viele Ecken (CD Projekt verschiebt offenbar einfach Teile des noch immer recht groben Meshes hin und her, dessen "Ecken" stechen dann aus den Wellen raus - ich find's bäh.)

N0Thing
2015-05-22, 15:30:14
Den Zusammenhang verstehe ich nicht:
Mich stört Mantle nicht, weil ich es nicht verwenden kann.
Mich stört Gameworks, weil ich es verwenden könnte.

Es liegt dir doch frei Gameworks zu aktivieren. Wenn dir der Effekt oder der Leistungsverlust missfällt, dann kannst du es deaktivieren.

Wovon redest du? Wie kommst du auf die Idee Gameworks würde mich stören weil ich es verwenden kann?
Mantle habe nicht ich ins Spiel gebracht, ich habe den konstruierten Vergleich von Mantle und Gameworks kritisiert.

Wenn mich etwas stört, dann die nicht optimale Umsetzung von Gameworks-Features, denn dann wird der Zugewinn an Qualität für alle gemindert.
War ja auch schon bei GPU-PhysX manchmal so, dass etwas weniger oft sowohl optisch als auch bei der Performance mehr gewesen wäre.

Troyan
2015-05-22, 15:36:05
Gameworks-Effekte sind optional. Das heißt, sie haben keinen negativen Effekt.

The Witcher 3 läuft ohne Gameworks doch annährend perfekt auf AMD Hardware. Die Situation ist exakt identisch zu Mantle.

N0Thing
2015-05-22, 15:50:13
Ja, sie sind optional. Wenn durch sie aber mehr berechnet werden sollte als notwendig wäre, ist die Performance auch schlechter als notwendig. Ich fasse die Postings von blaidd zum Wasser und den anderen Beiträgen zum Tessellation-Regler so auf, dass entweder als feste Einstellung für alle, ein Faktor von x16 ausgereicht hätte, oder dass der Nutzer selber in den Optionen Zugriff auf den Faktor bekommen sollte, um je nach Anspruch und Hardware sein Optimum zu finden.

Und das hat gar nichts damit zu tun, ob Hardware von AMD oder Nvidia zum Einsatz kommt. Und Mantle hat damit auch nichts zu tun.

Gimmick
2015-05-22, 15:51:11
Ihr verrennt euch schon wieder (fast schon wortwörtlich :freak:) in irgendeinem pseudo Definitionskäse.

Kriton
2015-05-22, 17:12:42
Und wo ist die Alternative zu Hairworks? Es ist die einzige Technik, die es in Spielen geschafft hat mehr als einen Charakter mit realistischem Haar zu rendern.

Das ist IMHO ein Problem der Middleware (engines) - was es natürlich prinzipiell nicht besser macht. Aber hier müssten die Engine-Entwickler mal ran, nicht die IH(ardware!!!)Vs.

Mancko
2015-05-22, 17:35:10
du hast es nicht verstanden ...

Eine Lösung anbieten die bei einem selber am besten performt ist kein Problem und absolut in Ordnung.
Eine Lösung anzubieten die auch bei einem selbst suboptimal performt, bei dem Konkurrenten aber noch viel schlechter, die bessere Lösung aber nicht zu nutzen da die beim Gegner zu gut performt. Das ist nicht ok!

Wer entscheidet denn was die bessere Lösung ist? Nvidia ist der Meinung ihre Lösungen sind die besseren und AMD sieht das genau anders herum. Das ist wie bei Parteien. Das ist schlicht und ergreifend Wettbewerb. Ich könnte auch sagen, dass die beste Lösung immer die des Marktführers ist, da am Ende des Tages einzig und allein der Business Erfolg definiert wer Recht hat und wer nicht. Im Endeffekt kann man das genauso hart eben auch formulieren.

Kartenlehrling
2015-05-22, 17:54:52
Wer entscheidet denn was die bessere Lösung ist?

Auf jedenfall war die Entscheidung die Wahl der Charakter die Hairworks bekommen haben schlecht.
Die grösste Entäuschung ist ja wohl das die "Weiber" in the Witcher3 mit Haargel rumlaufen müssen währenddessen der Hexer mit frisch gewaschene Haare und Weichspülung rumrennt.

Knuddelbearli
2015-05-22, 18:15:23
Wer entscheidet denn was die bessere Lösung ist? Nvidia ist der Meinung ihre Lösungen sind die besseren und AMD sieht das genau anders herum. Das ist wie bei Parteien. Das ist schlicht und ergreifend Wettbewerb. Ich könnte auch sagen, dass die beste Lösung immer die des Marktführers ist, da am Ende des Tages einzig und allein der Business Erfolg definiert wer Recht hat und wer nicht. Im Endeffekt kann man das genauso hart eben auch formulieren.

tja nur haben hier schon einige die sich weit besser als wir 2 auskennen geschrieben das NVs lösung doppelter mist ist.
1.) Unnötigerweise zu hoher tess Faktor
2.) tesselation ist nicht das ideale für Haare

Wenn du behaupten willst die erzählen Blödsinn ist das dein Problem ...

Kriton
2015-05-22, 18:48:35
Wer entscheidet denn was die bessere Lösung ist? Nvidia ist der Meinung ihre Lösungen sind die besseren und AMD sieht das genau anders herum. Das ist wie bei Parteien. Das ist schlicht und ergreifend Wettbewerb. Ich könnte auch sagen, dass die beste Lösung immer die des Marktführers ist, da am Ende des Tages einzig und allein der Business Erfolg definiert wer Recht hat und wer nicht. Im Endeffekt kann man das genauso hart eben auch formulieren.

Liest Du auch mal worauf Du antwortest, oder packst Du nur die nächsten 08/15-pro-Nvidia-Behauptungen aus?

Nur zur Wiederholung, das hatte er gesagt (Hervorhebung durch mich):

du hast es nicht verstanden ...

Eine Lösung anbieten die bei einem selber am besten performt ist kein Problem und absolut in Ordnung.
Eine Lösung anzubieten die auch bei einem selbst suboptimal performt, bei dem Konkurrenten aber noch viel schlechter, die bessere Lösung aber nicht zu nutzen da die beim Gegner zu gut performt. Das ist nicht ok!

Zumindest zu versuchen sachlich zu wirken wäre da ja schon eine Verbesserung.

Hübie
2015-05-22, 20:24:44
Ich bin echt erstaunt was für merkwürdige Ansichten es gibt :freak:

@AlphaTier: Kennst du die aktuelle Iteration von TressFX und weißt was die schluckt? 1.0 hatte sich da, genau wie Hairworks, keineswegs mit Ruhm bekleckert. Lief das nicht sogar auf Kepler besser als auf GCN nachdem Patch+Treiber von nV/Crystal Dynamics?
Bastelt ihr daran herum?

Kartenlehrling
2015-05-22, 20:36:13
http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page6.html
HairWorks: Crippling Performance

techspot hat anscheinen auch nochmal TR gebencht.

Hübie
2015-05-22, 20:43:21
Der Test ist mir dann doch etwas zu oberflächlich. TressFX: Crippling Performance, wäre das zweite Statement.

-=Popeye=-
2015-05-22, 20:58:07
Verstehe die ganze Aufregung nicht... freilich beides ist nett anzusehen aber ein Performance fressendes, unnützes und Spiel irrelevantes Feature.

Kartenlehrling
2015-05-22, 21:14:11
Trotzdem sieht man das die Kepler mit TressFX1.0 besser klar kommen als mit Nvidia HairWorks.
Und wir sind nun bei TressFX3.0, die TR:de von PS4 würde TressFX2.3 eingesetzt.
Man hätte sich bei The Witcher3 für die Haare wenigsten für TressFX3.0 entscheiden sollen.

https://youtu.be/7NUX2rG_u8w?t=88
Tomb Raider: Definitive Edition - PS4/PS3 Comparison and Analysis

dargo
2015-05-22, 21:32:57
http://www.techspot.com/review/1006-the-witcher-3-benchmarks/page6.html
HairWorks: Crippling Performance

techspot hat anscheinen auch nochmal TR gebencht.
Lol... da bricht selbst GM204 gnadenlos ein bei den min.fps von wunderbar spielbar (63) in unspielbar (28).

Dimitri Mayakovsky
2015-05-22, 21:50:43
Das ist in keinster Weise vergleichbar, weder bremst Mantle AMD-User aus, noch NV-User.
Stimmt, es ist viel lustiger:

Weil AMD massig Ressourcen in Mantle ohne irgendeinen Revenue gesteckt hat, ist deren DX-Treiber ziemlich mau (CPU-Belastung, ProjectCars etc.) und im Grunde bremst Mantle die AMD-User aus :freak:

Blediator16
2015-05-22, 23:04:46
Stimmt, es ist viel lustiger:

Weil AMD massig Ressourcen in Mantle ohne irgendeinen Revenue gesteckt hat, ist deren DX-Treiber ziemlich mau (CPU-Belastung, ProjectCars etc.) und im Grunde bremst Mantle die AMD-User aus :freak:

Scheinbar kann nur AMD ihre eigenen Kunden den Spaß verderben stimmts?

-/\-CruNcher-/\-
2015-05-23, 00:15:54
Lol... da bricht selbst GM204 gnadenlos ein bei den min.fps von wunderbar spielbar (63) in unspielbar (28).

Der Verlust wird wohl größtenteils vom MSAA resultieren so ein Verlust wird langsam zum Standard vor allem auf Nvidia Hardware.

Ich gehe mit Alphatier 20% Frametime Verlust (zurück ans reisbrett) oder verwerfen

kruemelmonster
2015-05-23, 01:20:37
Da Dirt Showndown Teil unseres aktuellen Grafikkarten-Parcours ist (siehe Test der Geforce GTX 660 Ti), haben wir uns die erweiterte Beleuchtung, bestehend aus Forward Plus sowie Global Illumination, anhand der Geforce GTX 680 und der Radeon HD 7970 näher angeschaut. Abseits unseres üblichen Testsystems nutzen wir eine Auflösung von 2.560 x 1.600 Pixeln, ohne die erweiterte Beleuchtung sind beide Grafikkarten praktisch gleichflott unterwegs. Die Aktivierung von Forward Plus jedoch kostet auf der Radeon nur 10 Prozent Fps, im Falle der Geforce sind es gleich 30 Prozent. Das weitere Zuschalten der Option Globale Beleuchtung (Global Illumination) bewirkt auf beiden einen jeweils ähnlichen, prozentualen Verlust - ausgehend von aktivem "Forward+". Der Leistungsunterschied bei maximalen Details lässt sich also hauptsächlich auf das Forward+-Renderverfahren zurückführen, für dessen Entwicklung AMD verantwortlich zeichnet.

Zweierlei Maß anyone?

StefanV
2015-05-23, 02:27:11
Zweierlei Maß anyone?
Nope, denn der Code liegt in dem von dir zitierten Fall vor und kann/darf an nVidia weiter gereicht werden, während das bei Gameworks nicht der Fall ist.

Die zweierlei Maß liegen also eher bei dir vor, nicht bei PCGH...

Wake
2015-05-23, 06:58:47
In Bezug auf die Kepler neglect-Vorwürfe darf man gespannt sein:
We discovered a couple of issues in regards to Kepler GPUs and are working on driver updates.
Quelle: https://forums.geforce.com/default/topic/833016/geforce-700-600-series/gtx-780-possible-fail-as-performance-in-the-witcher-3-wild-hunt-/post/4537394/#4537394

Grestorn
2015-05-23, 08:13:29
Ein ehemaliger AMD-Evangelist und "nVidia ist am AMDs Problemen Schuld"-Anhänger ist gerade dabei, seinen Standpunkt zu ändern:

Jason Evangelho: AMD Is Wrong About 'The Witcher 3' And Nvidia's HairWorks (http://www.forbes.com/sites/jasonevangelho/2015/05/21/amd-is-wrong-about-the-witcher-3-and-nvidias-hairworks)

Wie aus meinem Hirn gelesen:
"If you want a huge AAA game release to look great on your hardware, you take the initiative to ensure that it does. What you don’t do is expect your competitor to make it easier for you by opening up the technology they’ve invested millions of dollars into. You innovate using your own technologies. Or you increase your resources. Or you bolster your relationships and face time with developers.

In short, you just find a way to get it done."

Menace
2015-05-23, 08:25:22
Bei mangelnde Ressourcen ist das nun mal nicht möglich und verringert die Konkurrenz, die Du ja angeblich so gerne hättest. Wenn man dann noch jeweils dem anderen Steine in den Weg legst, sollte man immer von 2 Herstellern GraKas zu Hause haben?

Grestorn
2015-05-23, 08:33:37
Bei mangelnde Ressourcen ist das nun mal nicht möglich und verringert die Konkurrenz, die Du ja angeblich so gerne hättest. Wenn man dann noch jeweils dem anderen Steine in den Weg legst, sollte man immer von 2 Herstellern GraKas zu Hause haben?

Wer legt wem Steine in den Weg? Und was meinst Du mit Deinem letzten Satz? Erschließt sich mit nicht.

Natürlich ist die Situation scheiße, und ich verstehe auch, warum AMD solche Probleme hat, am Ball zu bleiben. Aber was ich echt zum Kotzen finde, ist wenn die Leute die Schuld dafür bei nVidia suchen. Dabei ist AMD und deren Politik der letzten Jahre ganz alleine Schuld an der Misere. Man soll die Schuld bitte dort suchen, wo sie liegt, auch wenn es weh tut, und nicht irgendeinen Schuldenbock suchen, am besten bei der ungeliebten Konkurrenz.

Nicht nur ist es falsch, man treibt sich damit nur noch weiter in die Misere. "Jammer Jammer, der böse Konkurrent ist an allem Schuld, ich kann gar nix dafür, ich bin völlig machtlos, was soll ich nur tun"... ein paar Monate später bist Du dann definitiv pleite.

AMD kann m.E. nur noch durch externes Geld gerettet werden. Aufkauf, Investition, was auch immer. Meinetwegen auch eine Finanzspritze wie schon mal von Intel oder seinerzeit MS an Apple. Egal wie. Nur so geht es nicht weiter. Und wenn AMD sang und klanglos untergeht, dann werden wir alle darunter zu leiden haben. Was aber dann immer noch nicht die "Schuld" von nVidia wäre.

Menace
2015-05-23, 08:42:21
Grestorn, halte mal für ein paar Minuten inne und versuche wirklich einmal die Sache objektiv zu betrachten (du brauchst ja hier nichts dazu schreiben). Von allem, was Du bisher gelesen hast und mitbekommen hast, ist was nvidia angeht jetzt nicht gerade der fairste Mitbewerber (nicht gegenüber AMD und nicht gegenüber seiner Kunden), noch ist das intel. Dass das jetzt die alleinige Ursache für die aktuelle Situation von AMD ist, sagt hier kein Mensch, aber es verbessert halt die Lage auch nicht gerade. Selbst wenn ich nur 50% der Vorwürfe gegenüber nvidia hier im Thread annehme (Blackbox, Nachteile für Keppler, sinnlos hohe Tess-Werte auch für nvidia-Karten), deutet sich doch ein unschönes Bild an.

Meiner Meinung nach, sollte AMD schon lange eine Politik wie nvidia fahren; wäre für uns Spieler schlecht, aber AMD würde überleben. Nur welche GraKas kaufe ich dann?

Skysnake
2015-05-23, 08:50:09
Dort wird kein level of Detail eingesetzt.

Es ist auch erstaunlich, dass die Leute nicht über das Wasser in The Witcher 3 meckern, dass ebenfalls mit 64x gerendert wird. :freak:
Das liegt wohl daran das 1. In der Ini der Wert eingestellt werden kann und 2. Es schlicht keine Vergleichsbilder gibt, bei denen aufgezeigt wird, ob ein hoher Faktor unsinn ist oder nicht.

Zumindest sind mir keine bekannt, und es ist auch nciht unbedingt hilfreich, wenn man das Fass auch noch auf macht. Aktuell haben wir eine Diskussion, die völlig ausreichend ist. Wenn man das durch hat, kann man sich das Wasser auch nochmals im Detail anschauen, und im ZWeifel die gleichen Aussagen wiederholen.

DU kannst aber gern Vergleichsbilder machen, ich denke das würde keinen stören ;)

Das Wasser lässt sich einstellen. Ultra verwendet einen Faktor von 64x. ;)



Es wird gemeckert, dass 64x zu viel wäre. Das weniger ausreichend wäre für das selbe Ergebnis, hat niemand hier belegt. Das ein ähnliches Ergebnis möglich ist, steht außer Frage.
Des Weiteren wird ignoriert, dass mit einem Level of Detail der Unterschied sowieso geringer wird je höher der Faktor, da nicht sichtbare Bereiche überhaupt nicht in die nächsten Stages gelangen.

Auch sollte es einen bewusst sein, dass bei Hairworks 8xMSAA standardmäßig aktiviert ist. Das kostet auch nochmal Leistung.
Doch, schau dir doch einfach von PCGH die Vergleichsbilder nochmals an. ZWischen 8x und 16x ist kaum noch ein Unterschied sichtbar. Da muss man echt schon mit der Lupe ran gehen.

Grestorn
2015-05-23, 08:53:19
Sorry, aber das Wort "Fairness" ist beim Wettbewerb unangemessen.

Klar, es gibt eine Grenze, wenn z.B. Intel über Exklusiv-Deals die Konkurrenz aktiv aus dem Markt aussperrt. Wer sich diesem Deal nicht unterworfen hatte, konnte keine konkurrenzfähigen Preise am Markt anbieten. Hier wurde klar die Marktmacht missbraucht, darüber muss man nicht diskutieren.

Eine solche Marktmacht hat nVidia aber nie besessen und natürlich haben sie das auch nicht ausgenutzt. Sie agieren im Rahmen der normalen Möglichkeiten, die ein Unternehmen hat, um seine Produkte für den Kunden attraktiver als die der Konkurrenz erscheinen zu lassen. Ob dabei jede Aktion sonderlich glücklich und erfolgreich ist, lassen wir mal dahin gestellt, aber unfair oder verwerflich ist nichts davon, was nVidia gemacht hat.

Doch, schau dir doch einfach von PCGH die Vergleichsbilder nochmals an. ZWischen 8x und 16x ist kaum noch ein Unterschied sichtbar. Da muss man echt schon mit der Lupe ran gehen.
Standbilder sind für den Vergleich da nicht angebracht, dazu braucht es bewegte Bilder. Nichts desto trotz fände ich es deutlich besser, auch für nVidia Anwender, wenn der Tessellations-Faktor konfigurierbar wäre. fondness hat mich da treffend überzeugt :) . Kommt ja vlt. noch über einen Patch, es ist ja vom Wunderpatch die Rede, der jede Menge neue Grafikoptionen bringen soll.

Menace
2015-05-23, 09:35:34
Ob dabei jede Aktion sonderlich glücklich und erfolgreich ist, lassen wir mal dahin gestellt, aber unfair oder verwerflich ist nichts davon, was nVidia gemacht hat.


"Glücklich und Erfolgreich" als Maßstab für 970iger, Thermie, Puppy... Du gibst Dir ja noch nicht mal Mühe die Euphemismen zu kaschieren. ;)

fondness
2015-05-23, 09:50:43
Ein ehemaliger AMD-Evangelist und "nVidia ist am AMDs Problemen Schuld"-Anhänger [...]

Eine solche Aussage zeugt von einer äußerst selektiven Wahrnehmung. Bei Jason Evangelho bekamen schon immer beide ihr Fett weg.

Mancko
2015-05-23, 09:57:10
Bei mangelnde Ressourcen ist das nun mal nicht möglich und verringert die Konkurrenz, die Du ja angeblich so gerne hättest. Wenn man dann noch jeweils dem anderen Steine in den Weg legst, sollte man immer von 2 Herstellern GraKas zu Hause haben?


Die mangelnden Resourcen sind einzig und allein AMDs Problem. Hat weder den Reviewer, noch den Spieleentwickler noch die Konkurrenz zu interessieren. Es gibt keinen Grund wieso AMD weniger Resourcen als Nvidia per sé haben sollte. ATI war damals fast genauso groß wie Nvidia als sie übernommen wurden. Heute ist das kombinierte Unternehmen nur noch einen Bruchteil von Nvidia wert und hat zu wenig R&D um überall gute Arbeit abzuliefern.

Das ist aber ein Problem das hausgemacht ist bei AMD. Fehlentscheidungen des Managements müssen eben alle AMD Mitarbeiter und folgerichtigerweise auch AMD Kunden mit ausbaden. Es steht ja AMD jederzeit frei den Fokus zu ändern und das R&D auf bestimmte Bereiche zu konzentrieren und andere Bereiche zu schließen. Auf keinen Fall ist es aber Aufgabe der Konkurrenz für ein Überleben von AMD zu sorgen. Dafür können die nur alleine sorgen oder eben ihre Kunden indem sie eben auch einfach mal mehr Geld für AMD Produkte zahlen. Solange AMD Kunden immer nur der Preis das wichtigste Argument ist, solange werden die auch völlig zurecht die Suppe die sich aus mangelnden Resourcen ergibt auslöffeln.

Mein Mitleid hält sich hier extrem in Grenzen. Ich verhalte mich mit meinem eigenen Unternehmen auch nicht anders. Wenn Kunden bei uns meinen, dass nur der Preis ausschlaggebend ist, wünsche ich Ihnen viel Glück bei Ihrem Projekt und schau zu wie es baden geht. Und ich habe das oft genug gesehen. Ich habe da 0 Mitleid. Wenn bei mir der Einkauf ankommt und will Preise verhandeln, dann bewege mich da keinen mm. Wir liefern Qualität und die hat nun mal ihren Preis und entweder der Kunde akzeptiert das oder er nimmt eben weniger Qualität für einen günstigeren Preis. Das liegt ja im Ermessen des Kunden. Ich hatte aber schon oft genug Fälle wo wir dann am Ende aufräumen durften was andere mit der Billignummer verbockt haben. Kunden lernen am Ende des Tages leider häufig nur durch Schmerzen. Und in solchen Fällen zahlen sie halt dann gleich zwei mal.

Troyan
2015-05-23, 10:01:01
Das liegt wohl daran das 1. In der Ini der Wert eingestellt werden kann und 2. Es schlicht keine Vergleichsbilder gibt, bei denen aufgezeigt wird, ob ein hoher Faktor unsinn ist oder nicht.

Zumindest sind mir keine bekannt, und es ist auch nciht unbedingt hilfreich, wenn man das Fass auch noch auf macht. Aktuell haben wir eine Diskussion, die völlig ausreichend ist. Wenn man das durch hat, kann man sich das Wasser auch nochmals im Detail anschauen, und im ZWeifel die gleichen Aussagen wiederholen.

DU kannst aber gern Vergleichsbilder machen, ich denke das würde keinen stören ;)

Medium (16x): http://abload.de/thumb/meiumnbphr.png (http://abload.de/image.php?img=meiumnbphr.png)
Ultra (64x): http://abload.de/thumb/ultra62rm7.png (http://abload.de/image.php?img=ultra62rm7.png)

Die Unterschiede sind deutlich.

gnomi
2015-05-23, 10:02:01
Ich frage mich echt mal, was Techspot da testet.
Die Minimum Frames sind viel zu niedrig, auch wenn man für Hairworks plus Ultra dann doch GSync und Controller plus neuste nvidia GPU und Spielversion (1.03 oder 1.02 mit reduziertem MSAA 4) nutzen sollte.
Abgesehen davon ist The Witcher 3 genau wie GTA V anspruchslos!
Der Vergleich mit dem damals technisch sensationellem Crysis ist lachhaft, da hohe oder sogar mittlere Details nicht so viel schlechter aussehen und noch dazu extrem performant laufen. Ultra sind beim Witcher eben nur ein paar Goodies und nicht die Details Qualität des ersten Videos.

fondness
2015-05-23, 10:04:01
Medium (16x): http://abload.de/thumb/meiumnbphr.png (http://abload.de/image.php?img=meiumnbphr.png)
Ultra (64x): http://abload.de/thumb/ultra62rm7.png (http://abload.de/image.php?img=ultra62rm7.png)

Die Unterschiede sind deutlich.

Medium verändert wesentlich mehr als nur den Tess-Faktor, das sieht ein Blinder, also bitte hier fair bleiben. Ein fairer Vergleich wäre Ultra mit Tess-Faktor-Begrenzung in der .ini oder im AMD-Treiber. Und da glaube ich dann Leute wie PCGH_Phil doch wesentlich mehr.

Gimmick
2015-05-23, 10:10:19
Medium (16x): http://abload.de/thumb/meiumnbphr.png (http://abload.de/image.php?img=meiumnbphr.png)
Ultra (64x): http://abload.de/thumb/ultra62rm7.png (http://abload.de/image.php?img=ultra62rm7.png)

Die Unterschiede sind deutlich.

Musst aber aufpassen: Die Settings wie "Medium" ändern mehr als nur den Tessellation-Faktor. Also lieber auf Ultra stellen und dann in der Ini nur den Faktor ändern.

//Abgesehen davon sieht das Wasser auf den Bildern irgendwie ziemlich bescheiden aus :< (wie fast alles auf den Bild :freak:)

Mr. Lolman
2015-05-23, 10:19:29
Solange AMD Kunden immer nur der Preis das wichtigste Argument ist, solange werden die auch völlig zurecht die Suppe auslöffeln.

Blödsinn. Bei jedem Geschäft ist der Preis das mitunter wichtigste Argument. Oder meinst du die TitanX würde sich um den doppelten Preis ebenso gut verkaufen?. Das Problem ist, dass sich AMD nur über den Preis definieren kann, da AMD aktuell weder die Feature-, noch Performancekrone innehat, noch eine derartige Verschränkung zur Industrie vorweisen kann, wie NV.

Wenn dann trotz besserem P/L Verhältnis dennoch die meisten Kunden zu NV greifen (sei es aus Ideologie, oder einer persönlichen Stellenwertbemessung von Features, die über deren objektiven Wert hinausgeht), dann steht AMD vor einem gewaltigen Problem. Denn wenn das P/L Verhältnis schon nicht als Zugpferd taugt, was denn dann sonst?

Natürlich ist NV nicht am Versagen von AMD Schuld. Natürlich ist auch nicht die Presse am Versagen von AMD Schuld. Wenn aber bspw Artikel über AMDs Quartalszahlen mit Werbevideos von NVs PhysX garniert werden, dann drängt sich dem kritischen Leser bisweilen schon auch die Frage nach der Objektivität der Presse auf. Dass die dann zT völlig verwundert tut, wenn deren Rechner mit AMD Sytemen wie Blei im Regal liegen bleiben, und gleichzeitig vehement abstreitet, als Meinungsbildner Mitschuld an der Situation zu sein, kompletttiert das Bild natürlich auch ein wenig.

Da ich aber mit dieser Haltung eh bei den Meisten gegen eine Wand renne und wir anscheinend in den nächsten paar Jahren ohnehin vor einem Monopol stehen werden (natürlich ohne Mitwirken von NV+Presse, genausogut, wie das damalige idiotische unreflektierte Nachplappern einer vermeintlich 7 Mal schnelleren neuen GraKageneration natürlich überhaupt nichts zum Untergang des 1. großen Konkurrenten beigetragen hat), beruhig ich mich nun wieder und lass die Dinge, die ich ohnehin nicht ändern kann, ihren Lauf nehmen.

Aus einer egoistischen Perspektive raus betrachtet, könnts mir sogar völlig wurscht sein, was die beiden großen IHV künftig noch anstellen werden, da ich in meiner spärlichen Freizeit ohnehin kaum mehr zum spielen komme, und sich deswegen künftig die Frage nach der nächsten GraKa um ein paar 100€ wohl garnicht mehr stellen wird.

Grestorn
2015-05-23, 10:21:32
"Glücklich und Erfolgreich" als Maßstab für 970iger, Thermie, Puppy... Du gibst Dir ja noch nicht mal Mühe die Euphemismen zu kaschieren. ;)

Wenn Du jetzt alle Produkte aufzählst, bei denen nVidia unglücklich und wenig erfolgreich agiert hat, dann ist das nur eine Unterstreichung meiner Argumentation. Trotz all dieser offensichtlichen Fehler hat es AMD nicht geschafft, dagegen zu halten. Was sagt das über AMD aus?

Troyan
2015-05-23, 10:22:03
Wasser sieht in Bewegung viel besser aus. Lässt sich nicht auf den Bildern festhalten.

Hier der Vergleich mit der Änderung in der INI von Ultra ausgehend:
16x: http://abload.de/thumb/16xovk0j.png (http://abload.de/image.php?img=16xovk0j.png)
64x(ingame): http://abload.de/thumb/64x99kqc.png (http://abload.de/image.php?img=64x99kqc.png)

Skysnake
2015-05-23, 10:28:16
Medium (16x): http://abload.de/thumb/meiumnbphr.png (http://abload.de/image.php?img=meiumnbphr.png)
Ultra (64x): http://abload.de/thumb/ultra62rm7.png (http://abload.de/image.php?img=ultra62rm7.png)

Die Unterschiede sind deutlich.
Ähm häst du die beiden Bilder vertauscht :confused:

Das Ultra Bild ist ja mal mega pixelig im Wasser, also harte Kanten.

Ansonsten sieht man aber keinen großen Unterschied muss ich sagen, wobei man bei so etwas wie Wasser wohl wirklich Videos sich anschauen müsste.

Gimmick
2015-05-23, 10:29:12
Da Dirt Showndown Teil unseres aktuellen Grafikkarten-Parcours ist (siehe Test der Geforce GTX 660 Ti), haben wir uns die erweiterte Beleuchtung, bestehend aus Forward Plus sowie Global Illumination, anhand der Geforce GTX 680 und der Radeon HD 7970 näher angeschaut. Abseits unseres üblichen Testsystems nutzen wir eine Auflösung von 2.560 x 1.600 Pixeln, ohne die erweiterte Beleuchtung sind beide Grafikkarten praktisch gleichflott unterwegs. Die Aktivierung von Forward Plus jedoch kostet auf der Radeon nur 10 Prozent Fps, im Falle der Geforce sind es gleich 30 Prozent. Das weitere Zuschalten der Option Globale Beleuchtung (Global Illumination) bewirkt auf beiden einen jeweils ähnlichen, prozentualen Verlust - ausgehend von aktivem "Forward+". Der Leistungsunterschied bei maximalen Details lässt sich also hauptsächlich auf das Forward+-Renderverfahren zurückführen, für dessen Entwicklung AMD verantwortlich zeichnet.
Zweierlei Maß anyone?

Für mich fehlt da einiges an Infos um mir ein Bild zu machen.
Ich sehe da aber hauptsächlich zwei Unterschiede:

1. Der Code ist einsehbar für die Konkurenz.
2. Als User hat man keine simplen Möglichkeiten ob da übertrieben wurde oder nicht. Und wenn man nix sieht kann man halt auch nicht so gut meckern.

Wenn die Sache an sich gescheit umgesetzt wird hab ich mit sowas auch kein Problem, es gibt halt Dinge, die auf unterschiedlichen GPUs unterschiedlich schnell laufen.

Beispiel nVidia: Die God-Rays werden auch mit 64x tesselliert. Nachdem was ich gesehen und hier gelesen hab macht das aber wohl Sinn. In FC4 macht sich das zusammen mit anderen Tessellierungen auch gut bemerkbar, aber dann isses halt so, da meckert ja auch keiner.

Blöd wirds halt wenn die Methode an sich schon ungünstig ist und/oder auch noch ineffizient umgesetzt wird nur weil es beim Konkurrenten dann halt noch bescheidener läuft. Das ist jetzt zwar eine Unterstellung, weiß ja keiner was nV sich dabei denkt, aber wenns nicht so ist, ist es halt trotzdem einfach Käse.

Troyan
2015-05-23, 10:34:44
Ähm häst du die beiden Bilder vertauscht :confused:

Das Ultra Bild ist ja mal mega pixelig im Wasser, also harte Kanten.

Ultra erzeugt wesentlich stärke Wellen. Diese sind höher. Damit überlappen sich helle und dunkle Bildbereiche.


Ansonsten sieht man aber keinen großen Unterschied muss ich sagen, wobei man bei so etwas wie Wasser wohl wirklich Videos sich anschauen müsste.

Selbst auf den Bildern ist der Unterschied deutlich. :freak:

Gut, erklärt dann auch, dass Leute bei Hairworks angeblich keine Unterschiede bei der Limitierung des TessFaktor sehen wollen. ;)

Skysnake
2015-05-23, 10:35:08
Wasser sieht in Bewegung viel besser aus. Lässt sich nicht auf den Bildern festhalten.

Hier der Vergleich mit der Änderung in der INI von Ultra ausgehend:
16x: http://abload.de/thumb/16xovk0j.png (http://abload.de/image.php?img=16xovk0j.png)
64x(ingame): http://abload.de/thumb/64x99kqc.png (http://abload.de/image.php?img=64x99kqc.png)
Also das Bild mit dem 64er Wasser sieht mal extrem bescheiden aus. Das Wasser im linken Bereich sieht total! unnatürlich aus.

Skysnake
2015-05-23, 10:36:42
Ultra erzeugt wesentlich stärke Wellen. Diese sind höher. Damit überlappen sich helle und dunkle Bildbereiche.



Selbst auf den Bildern ist der Unterschied deutlich. :freak:

Gut, erklärt dann auch, dass Leute bei Hairworks angeblich keine Unterschiede bei der Limitierung des TessFaktor sehen wollen. ;)
Ja, die Wellen sind etwaws höher, aber das ist einfach anders, nicht besser/schlechter.

Wenn ich durch die höheren Wellen, dann aber HARTE! Pixelkanten bekomme, dann kann ich auf die höheren Wellen verzichten, zumal hohe Wellen ja an sich meist eh relativ unnatürlich sind.

Menace
2015-05-23, 11:15:58
@Mancko: Bitte beachte meinen Beitrag im Kontext zum Grestorn veröffentlichten Link, ansonsten macht es wenig Sinn darüber zu diskutieren.

@ Greston: Meine Aussage bezog sich auf Deine Relativierung (mal wieder) und die Punkte zeigen ja an, dass die Auflistung nicht komplett ist. Aufgrund Deiner Relativierungen sehe ich wenig Sinn, darüber weiter mit Dir zu diskutieren Meinungen auszutauschen, zumal...

... @Mr. Lolman und weitere schon genug Argumente geliefert haben. Danke dafür, sehe ich ähnlich. Allerdings auch wenn die Zeit zum Spielen fehlt, GraKa sind auch noch in andere Punkten wichtig.

-/\-CruNcher-/\-
2015-05-23, 11:29:23
Medium (16x): http://abload.de/thumb/meiumnbphr.png (http://abload.de/image.php?img=meiumnbphr.png)
Ultra (64x): http://abload.de/thumb/ultra62rm7.png (http://abload.de/image.php?img=ultra62rm7.png)

Die Unterschiede sind deutlich.

Unterschied gibt es nicht wirklich in der Szene zumal das richtig bescheiden aussieht und vor allem auch so wirkt ;)

So weit wie Ubisoft oder Rockstar sind sie noch nicht ;)

Watch_Dogs und GTA 5 das kann man Wassersimulation nennen, da wirken selbst Skyrims Displacement Watter Mods (mit Boris ENB) besser als das dort ;)

AdUMKOqDjpI
gbCUDtcJS4U
ymYkqEKmqNU
XP9_IiGQV2s
vZ0OFPjinXw
53VpPCjBtrU
Pv9JwUkZr68
vgI30TfMVS8


PS: Allerdings ist das Lighting auch sehr wichtig und in der Nacht ist es aufwendiger es gut wirkend hinzubekommen ;)

Bis auf Just Cause 2 alles hier Hardware Agnostic ;)

Mal mehr mal weniger fake troztdem alles Visuell ansprechend

Für mich am herausragendsten ist die von Ubisoft Singapur Entwickelte Beaufort Simulation die in Anvil Next und Disrupt zum Einsatz kommt :)

Mancko
2015-05-23, 11:52:36
Blödsinn. Bei jedem Geschäft ist der Preis das mitunter wichtigste Argument. Oder meinst du die TitanX würde sich um den doppelten Preis ebenso gut verkaufen?. Das Problem ist, dass sich AMD nur über den Preis definieren kann, da AMD aktuell weder die Feature-, noch Performancekrone innehat, noch eine derartige Verschränkung zur Industrie vorweisen kann, wie NV.


Tud mir leid aber dann muss AMD zusehen, dass sie Produkte bauen wo der Preis eben nicht an erster Stelle steht. Und der Preis ist eben nicht bei jedem Geschäft das wichtigste Argument. Firmen die es schaffen Produkte mit Alleinstellungsmerkmalen zu schaffen bei dazu hervorragender Qualität bekommen ihre Produkte in der Regel sehr gut zu den von ihnen festgelegten/diktierten Preisen verkauft. Ich habe Kunden - die in Abhängigkeit von der gefragten Leistung - den von mir aufgerufenen Preis bezahlen ohne mit der Wimper zu zucken obwohl es Konkurrenten gibt, die erheblich günstiger sind. Am Ende des Tages ist aber die Leistung eben nun mal nicht die gleiche. Deswegen ist der Preis eben nicht immer das wichtigste Argument. Firmen die sich ausschließlich auf diesen Pfad begeben, laufen schnell auf Glatteis. Rein aus der Preisperspektive kannst nämlich eigentlich nichts anderes kaufen als Billigkram aus China. Zum Glück gibt es aber noch eine Reihe anderer Kriterien.


Wenn dann trotz besserem P/L Verhältnis dennoch die meisten Kunden zu NV greifen (sei es aus Ideologie, oder einer persönlichen Stellenwertbemessung von Features, die über deren objektiven Wert hinausgeht), dann steht AMD vor einem gewaltigen Problem. Denn wenn das P/L Verhältnis schon nicht als Zugpferd taugt, was denn dann sonst?

Offensichtlich ist das P/L Verhältnis eben nicht besser. Der Preis ist besser aber P/L eben offensichtlich nicht, da es bei Nvidia eine Reihe Themen gibt die Aufpreise aus Sicht der Kunden rechtfertigen. AMD hat m.E. keine andere Wahl als die Strategie zu ändern. Sie müssen in erster Linie Produkte bauen, bei denen der Kunde die Produkte wegen ihrer Eigenschaften und nicht wegen ihres Preises kauft. Und das bedeutet eben dann auch, dass Grakas in Summe bzw. im Schnitt teurer werden und die Zeiten der Schnäppchenjagd vorerst mal beendet werden. Ansonsten gibt es die Rechnung ganz simpel dadurch, dass es in Zukunft nur noch ein Unternehmen gibt, dass dedizidierte GPUs anbietet.


Natürlich ist NV nicht am Versagen von AMD Schuld. Natürlich ist auch nicht die Presse am Versagen von AMD Schuld. Wenn aber bspw Artikel über AMDs Quartalszahlen mit Werbevideos von NVs PhysX garniert werden, dann drängt sich dem kritischen Leser bisweilen schon auch die Frage nach der Objektivität der Presse auf. Dass die dann zT völlig verwundert tut, wenn deren Rechner mit AMD Sytemen wie Blei im Regal liegen bleiben, und gleichzeitig vehement abstreitet, als Meinungsbildner Mitschuld an der Situation zu sein, kompletttiert das Bild natürlich auch ein wenig.


Die Presse sind auch nur Unternehmen. Die müssen auch leben und natürlich leben die auch von den IHVs. Das ist doch klar. Das ist doch überall so. Schau Dir mal die Nachrichten an. Der Mainstream drescht ordentlich auf den rechten Flügel der AFD ein, weils so schön in das CDU/SPD Mainstream Bild passt und weil man eben auch gern von den großen Parteien profitiert. Auf semiaccurate oder früher auch driverheaven wurdest Du auch ständig mit bester AMD Werbung zugepflastert. Dementsprechend wohlgesonnen haben diese Seiten agiert bzw. agieren im heutigen Fall immer noch.

AMD sollte halt einfach mal weniger Fehlentscheidungen im daily Business fällen und bessere Quartalszahlen abliefern.

Skysnake
2015-05-23, 12:41:25
Erinnerst du dich noch an den Launch der HD7970? Das war zu dem Zeitpunkt die klar überlegene Karte mit tollem P/L Verhältnis. Dennoch hat AMD kaum GPUs verkauft, was absolut irrational war.

Es ist eben NICHT so, dass die Leute rational handeln, sondern im GPU Bereich eigentlich eher irrationale Entscheidungen im überwiegenden Teil treffen.

Grestorn
2015-05-23, 12:48:42
Erinnerst du dich noch an den Launch der HD7970? Das war zu dem Zeitpunkt die klar überlegene Karte mit tollem P/L Verhältnis. Dennoch hat AMD kaum GPUs verkauft, was absolut irrational war.

Es ist eben NICHT so, dass die Leute rational handeln, sondern im GPU Bereich eigentlich eher irrationale Entscheidungen im überwiegenden Teil treffen.

Du machst, wie so viele, den Fehler, dass sie bei Preis/Leistung nur den Benchmarkbalken mit dem Preis vergleichen. Die Leistung in Spielen ist zweifellos eines der wichtigsten Punkte, aber nicht der einzige. Für viele spielen die anderen Faktoren kaum eine Rolle, und das ist auch ok so. Für andere, wie mich, gibt es eben noch, sagen wir mal "Soft-Skills", die selbst einen gewissen Nachteil in reiner Spieleleistung oder im Preis kompensieren können.

Und dieser Thread ist geradezu ein Modellbeispiel dafür.

Skysnake
2015-05-23, 12:55:58
Was gab es denn zu Zeiten der HD7970 für sooo tolle FEatures?

CUDA? Sicher nicht
GPU-PhysX? als ob das für die Masse relevant wäre
3D? Ja ne is klar, das ist noch weniger Ausschlaggebend gewesen als GPU-PhysX

InsaneDruid
2015-05-23, 13:09:19
Was gab es denn zu Zeiten der HD7970 für sooo tolle FEatures?

CUDA? Sicher nicht
GPU-PhysX? als ob das für die Masse relevant wäre
3D? Ja ne is klar, das ist noch weniger Ausschlaggebend gewesen als GPU-PhysX

BQ!

Update 08.01.2012
Schon kurz nach Veröffentlichung unserer Witcher-Videos haben sich einige Anwender darüber beklagt, dass die Flimmerneigung der AMD-Karten dort weiter deutlich ausgeprägter sei, als bei NVIDIA. Und in der Tat, betrachtet man sich erst das NVIDIA-Video und anschließend jenes der HD 7970, so ist auffällig, dass das NVIDIA-Video deutlich ruhiger wirkt.

Quelle: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index9.php

Thus I had expected AMD to close the gap from their end with Southern Islands by implementing DX10+ versions of Adaptive AA and SSAA, but this has not come to pass. AMD has not implemented any new AA modes compared to Cayman, and as a result AAA and SSAA continue to only available in DX9 titles. And admittedly alpha-to-coverage support does diminish the need for these modes somewhat, but one only needs to fire up our favorite testing game, Crysis, to see the advantages these modes can bring even to DX10+ games. What’s more surprising is that it was AMD that brought AA IQ back to the forefront in the first place by officially adding SSAA, so to see them not continue that trend is surprising.

Quelle: http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/12

Undertaker
2015-05-23, 13:15:36
Erinnerst du dich noch an den Launch der HD7970? Das war zu dem Zeitpunkt die klar überlegene Karte mit tollem P/L Verhältnis. Dennoch hat AMD kaum GPUs verkauft, was absolut irrational war.

War die HD 7970 nicht lange Zeit kaum lieferbar?

Als dann etwas später die GTX 680 raus kam, war die etwas schneller, etwas sparsamer und auch nur ein paar Prozent teurer.

Aber wie schon gesagt wurde, sollte man eh nicht nur auf die Leistung schauen. Ich zahle für eine vergleichbar schnelle Karte gerne 50 Euro mehr, wenn diese deutlich weniger verbraucht und leiser ist, und bin damit sicher nicht der einzige. Effizienz ist imo nicht nur im Mobile-Markt das A und O.

captain_drink
2015-05-23, 13:18:31
Für mich fehlt da einiges an Infos um mir ein Bild zu machen.
Ich sehe da aber hauptsächlich zwei Unterschiede:

1. Der Code ist einsehbar für die Konkurenz.
2. Als User hat man keine simplen Möglichkeiten ob da übertrieben wurde oder nicht. Und wenn man nix sieht kann man halt auch nicht so gut meckern.



NV hat dennoch mehr als sechs Monate (genau weiß ich es nicht mehr) gebraucht, um den Code für die eigenen GPUs performant zu bekommen. Ob der Sourcecode zur Verfügung steht oder nicht, scheint also keinen großen Unterschied zu machen. Ähnlich war es bei Tomb Raider, Bioshock Infinite oder auch BF4. Bei allen dreien gab es teils erst Monate später größere Leistungsgewinne gg. AMD.

Die Beispiele zeigen, dass sich AMD ähnlich wie NV vornehmlich darum kümmert, dass ein bestimmter Titel auf der eigenen HW gut läuft, was ja auch vollkommen legitim ist. Dass man den Eindruck erhält, NV würde öfters die Konkurrenz ausbremsen, liegt schlicht daran, dass als Marktführer häufiger Kooperationen auf AAA-Level stattfinden. Qualitativ nehmen sich die beiden wenig.

M4xw0lf
2015-05-23, 13:22:07
BQ!

Update 08.01.2012
Schon kurz nach Veröffentlichung unserer Witcher-Videos haben sich einige Anwender darüber beklagt, dass die Flimmerneigung der AMD-Karten dort weiter deutlich ausgeprägter sei, als bei NVIDIA. Und in der Tat, betrachtet man sich erst das NVIDIA-Video und anschließend jenes der HD 7970, so ist auffällig, dass das NVIDIA-Video deutlich ruhiger wirkt.

Quelle: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index9.php

Thus I had expected AMD to close the gap from their end with Southern Islands by implementing DX10+ versions of Adaptive AA and SSAA, but this has not come to pass. AMD has not implemented any new AA modes compared to Cayman, and as a result AAA and SSAA continue to only available in DX9 titles. And admittedly alpha-to-coverage support does diminish the need for these modes somewhat, but one only needs to fire up our favorite testing game, Crysis, to see the advantages these modes can bring even to DX10+ games. What’s more surprising is that it was AMD that brought AA IQ back to the forefront in the first place by officially adding SSAA, so to see them not continue that trend is surprising.

Quelle: http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/12
Ersteres ist ein Bug/Problem von The Witcher, zweiteres wurde kurz darauf per Treiber nachgeliefert. Next.

War die HD 7970 nicht lange Zeit kaum lieferbar?

Als dann etwas später die GTX 680 raus kam, war die etwas schneller, etwas sparsamer und auch nur ein paar Prozent teurer.
Und wer die Karte bis heute benutzt, sieht die 7970 regelmäßig nur noch von hinten.

M4xw0lf
2015-05-23, 13:24:47
DP

Skysnake
2015-05-23, 13:36:08
Gibt btw. jetzt auch ein Video von PCGH, dass die unterschiedlichen Tess-Faktoren vergleicht.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Videos/Hairworks-Effekte-auf-AMD-Karten-optimieren-Video-Anleitung-1159588/

Also mit dem Video muss man wirklich sagen, das 8x noch etwas zu wenig ist. Das Haar wirkt etwas dünn und spärlich. Mit 16x finde ich sieht man aber keinen Unterschied mehr zum Normalzustand, wobei ich sagen muss, der Unterschied zwischen on und off ist jetzt auch nicht sooo gewaltig, wenn ich mir das Video anschaue, wobei in Bewegung ich davon ausgehe, das on doch sich deutlich absetzt von off.

Undertaker
2015-05-23, 13:39:19
Und wer die Karte bis heute benutzt, sieht die 7970 regelmäßig nur noch von hinten.

Das mag durchaus stimmen, allerdings wechseln gerade High-End-Käufer fast mit jeder Generation. ;)

Ich habe vor Jahren mal von einer Radeon X1900XT auf eine GeForce 7900 GTX gewechselt, ganz einfach weil diese wirklich um Größenordnungen leiser war (der X1900er Kühler ist wohl das schlimmste, was ich je erlebt habe). In damaligen Spielen war die GeForce ein wenig schneller, hat aber 2-3 Jahre kein Land mehr gegen die Radeon gesehen. Allerdings hatte ich die Karte da auch schon längst nicht mehr, ergo wayne...

M4xw0lf
2015-05-23, 13:50:14
Ich kaufe alle paar Jahre Highend und behalte das dann 3-4 Jahre. Ergo alles andere als wayne ;)

-/\-CruNcher-/\-
2015-05-23, 13:58:48
Gibt btw. jetzt auch ein Video von PCGH, dass die unterschiedlichen Tess-Faktoren vergleicht.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Videos/Hairworks-Effekte-auf-AMD-Karten-optimieren-Video-Anleitung-1159588/

Also mit dem Video muss man wirklich sagen, das 8x noch etwas zu wenig ist. Das Haar wirkt etwas dünn und spärlich. Mit 16x finde ich sieht man aber keinen Unterschied mehr zum Normalzustand, wobei ich sagen muss, der Unterschied zwischen on und off ist jetzt auch nicht sooo gewaltig, wenn ich mir das Video anschaue, wobei in Bewegung ich davon ausgehe, das on doch sich deutlich absetzt von off.

Also alle miesen Youtube Videos die ich so gesehen habe sagen aus es lohnt sich für Geralt im 3rd person nicht jedenfalls nicht mit dem Standard Haar es sind verballerte resourcen und das jeden Frame.

Mit anderem Haar kann ich keine Aussage treffen und wie gesagt unter Youtube Kompressions vorbehalt und es gilt nur für 3rd Person was aber eben die meiste Screentime einnimmt.

Ein guter Kompromiss scheint mir es 3rd Person für Geralt zu deaktivieren und es für die Tiere aktiv zu lassen und dann wieder in den Cutscenes zu aktivieren.

Bei Tomb Raider 2013 3rd Person war das absolut was anderes der Effekt war deutlich sichtbar und wirkte hier ist das meiner Meinung nach nicht im Ansatz der Fall.

Und es bliebe ja noch die Option eben direkt noch Haarstyle Spezifisch zu aktivieren/deaktivieren

Man könnte es ja vieleicht sogar noch dynamischer machen drop fps (frametime increase) deaktivieren increase fps (frametime decrease) aktivieren ;)

Unicous
2015-05-23, 13:59:13
Gerade im AT-Forum gefunden: AMD hat sich über twitch zu den Vorwürfen geäußert. Nicht soo ergiebig aber zumindest mal eine Gegendarstellung die nicht von Roy Taylor oder Richard Huddy kommt.:freak:

Ab ca. 9:20 min.

http://www.twitch.tv/amd/v/5334646


(Wann bekommt twitch es eigentlich mal hin, HTML5 zu implementieren:mad:)

Undertaker
2015-05-23, 14:05:30
Ich kaufe alle paar Jahre Highend und behalte das dann 3-4 Jahre. Ergo alles andere als wayne ;)

Dann bist du die Ausnahme. :) Davon einmal abgesehen, dass ein regelmäßigerer Wechsel von Mid-Range-Karten finanziell und technisch sinnvoller ist und man die zukünftige Performance aktueller Karten oftmals nicht wirklich sicher beurteilen kann.

Jedenfalls hat es durchaus seine Gründe, wenn Leute bewusst mehr Geld für eine leisere und sparsamere Karte ausgeben.

InsaneDruid
2015-05-23, 14:10:54
Ersteres ist ein Bug/Problem von The Witcher, zweiteres wurde kurz darauf per Treiber nachgeliefert. Next.


Und wer die Karte bis heute benutzt, sieht die 7970 regelmäßig nur noch von hinten.

Na und? Wenn die Karte bei Erscheinen Probs macht dann ist der Verkauf mau. Obs später gefixt oder nach Jahrtausenden von ATI-Fans anders gesehen wird nützt den Verkaufszahlen nichts. Zumal die Karte eine der ersten nach der langen Zeit des Flimmer-AFs war. Das verlorene Vertrauen fixt man dann auch nicht mal eben so.

kruemelmonster
2015-05-23, 14:44:11
Nope, denn der Code liegt in dem von dir zitierten Fall vor und kann/darf an nVidia weiter gereicht werden, während das bei Gameworks nicht der Fall ist.

Die zweierlei Maß liegen also eher bei dir vor, nicht bei PCGH...

Damit machst du es dir um Längen zu einfach. AMD hat damals offensiv die Zusammenarbeit mit Codemasters beworben:
Zu guter Letzt trägt AMDs "Gaming Evolved" -Programm Früchte, so preist der Hersteller Dirt Showdown als erstes auf die GCN-Architektur der Radeon HD 7000 optimiertes Spiel an - unsere Benchmarks von Dirt Showdown unterstreichen dies. Hintergrund ist u.a., dass Codemasters die Compute-Beleuchtung der Leo-Demo einsetzt, aber auch mit HDAO arbeitet, welches Nvidia-Karten nicht so sehr "schmeckt".

Der 30%ige Leistungsverlust durch Forward+ besteht allerdings heute noch während Global Illumination deutlich schneller geworden ist. Ich hab dazu mal den damaligen Benchmark der PCGH nachgestellt: 2560x1600 (DSR) @ Ultra, 16x HQAF im Treiber, Miami Route 0 mit einem Gegner, 30 sek Fraps:

http://abload.de/img/showdownbenchxvqjh.png (http://abload.de/image.php?img=showdownbenchxvqjh.png)
(Wäre toll wenn das jemand mit einer 7970 bzw 280X ebenfalls testen würde, die zum benchen genutzte PCGH.xml ist im Anhang. Dazu die txt Endung entfernen und mit showdown.exe -benchmark PCGH.xml starten.)

Schlußfolgerung: Showdown war durchaus ein Optimierungsziel von NV was die Verbesserungen inkl GI ggü den alten PCGH Benchmarks (http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/) zeigen. Allerdings hat auch der Zugang zum Sourcecode NV nicht dabei helfen können AMDs GCN-optimiertes Forward+ performanter umzusetzen.

Dazu die Parallele zu The Witcher 3:

Die generell niedrige Bildrate ausgeblendet, fällt primär auf, dass Dirt Showdown GCN-optimiert ist: Die Radeon-Grafikkarten der HD-7000-Reihe mit ebendieser Architektur berechnen das Spiel überdurchschnittlich flott. So kann eine Radeon HD 7770, üblicherweise auf dem Niveau der älteren HD 5770/6770, die sonst deutlich schnellere Radeon HD 6870 und Geforce GTX 470 schlagen. Während die 40-nm-Garde um GTX 400/500 und HD 6800/6900 ein bekanntes Bild zeichnet, bringt die GCN-Vorliebe von Dirt Showdown der HD-7900-Reihe einen klaren Sieg gegenüber Nvidias Geforce GTX 680/670 ein.

Ein IHV hat also einen ISV bei der Entwicklung unterstützt, und sowohl die eigenen Vorgängerkarten als auch die Konkurrenz zeigen starke Leistungsverluste. Trotz Zugangs zum Sourcecode konnte der konkurrierende IHV die fps Kosten für gewisse Features nicht senken, es ist "nicht optimierbar".

Deshalb sprach ich von zweierlei Maß. Wo war damals #Aufschrei? Und gilt auch für Showdown:
Wenn ein einzelnes feature 20% an Frametime schluckt ist es ein fail, da ist es komplett egal wie die Hardware beansprucht wird.

?

Kartenlehrling
2015-05-23, 14:48:42
Mit 16x finde ich sieht man aber keinen Unterschied mehr zum Normalzustand, .....


Ich habe erst Heute festgestellt das Faktor16 bei nassen Haaren nicht reicht, dann sieht es aus als wenn ihm Haar ausfallen.

Aber noch was witziges habe ich gefunden, das Windsystem wirkt in Häuser weiter, hatten Nvidia/ubisoft in Watchdog nicht ein extra Windströmungssystem ?

https://www.youtube.com/watch?v=0BJR68XOoPE
witcher3 Hairwork Haus

Knuddelbearli
2015-05-23, 15:12:14
Das mag durchaus stimmen, allerdings wechseln gerade High-End-Käufer fast mit jeder Generation. ;)

Ich habe vor Jahren mal von einer Radeon X1900XT auf eine GeForce 7900 GTX gewechselt, ganz einfach weil diese wirklich um Größenordnungen leiser war (der X1900er Kühler ist wohl das schlimmste, was ich je erlebt habe). In damaligen Spielen war die GeForce ein wenig schneller, hat aber 2-3 Jahre kein Land mehr gegen die Radeon gesehen. Allerdings hatte ich die Karte da auch schon längst nicht mehr, ergo wayne...

das halte ich für ein Gerücht. Gibt viele Leute die lieber 1 mal was ordentliches kaufen und das bleibt dann lange drin.

Mr. Lolman
2015-05-23, 16:29:28
Das mag durchaus stimmen, allerdings wechseln gerade High-End-Käufer fast mit jeder Generation. ;)


Nö. Viele kaufen auch einmal teuer* und lassen dann die HW solang im Rechner, solangs nur irgendwie geht. Ich hatte bis Anfang 2014 einen Q9450@3.6GHz und eine HD5870 - beides ziemlich teuer zum Erscheinungstermin gekauft, beides solang behalten, solang man ohne zu große Abstriche damit zocken konnte. Und das war mit meinem damaligen System (bis auf ein paar Ausnahmen) in Full-HD bis zum Schluss mit quasi max Details möglich (bzw hats das ein oder andere Spiel gegeben, wo man die Schattenauflösung verringern musste oder den Tessellationsfaktor begrenzen)

Auch wenn ich diesmal nicht ganz daran glaub, so hoff ich dennoch, dass mein aktuelles System (290X@1100/1475, 4770k@4.3) ähnlich lang hält.

Dann bist du die Ausnahme. :) Davon einmal abgesehen, dass ein regelmäßigerer Wechsel von Mid-Range-Karten finanziell und technisch sinnvoller ist und man die zukünftige Performance aktueller Karten oftmals nicht wirklich sicher beurteilen kann.

Hm, nach meinem Eindruck eher nicht. Die Leut die regelmäßig an ihrem Rechner rumbasteln sind zumindest in meinem Bekanntenkreis absolut in der Minderheit.


*wobei "teuer" meist nicht das absolut überteuerte Enthusiast Produkt des jew. führenden IHV ist, sondern meistens die Karte, die im Highendbereich das beste Bang4Bucks Verhältnis hat...

Screemer
2015-05-23, 16:39:07
Dann bist du die Ausnahme. :)
das glaubst du doch nicht wirklich, oder? meine 8800gts hab ich bis zur 7950 behalten, meine 7950 gegen eine 290 getauscht. alle hatten zwischen 2,5 und 4 jahre auf dem buckel. zum release kaufe ich nicht. da sind wir eher die regel als die ausnahme.

redfirediablo
2015-05-23, 17:48:36
Man sollte wirklich immer vorsichtig sein wenn man von sich auf andere schließt. Natürlich tendiert man immer dazu die eigene Verhaltensweise als "normal" anzusehen aber das muss nicht wirklich stimmen.

Persönlich kaufe ich teure Grakas und nutze diese dann 3-4 Jahre lang bevor ich wechsel. Wenn also eine Graka auch nach 3-4 Jahre gut läuft, gute Treiber bekommt und nicht "künstlich" vom eigenen Hersteller durch Treiber bzw. Gamefeatures ausgebremst wird um den Kunden zu motivieren auf die aktuelle Generation umzusteigen, dann hat das für mich einen klaren Mehrwert.

http://www.twitch.tv/amd/v/5334646

Ich kann die Argumentation nur unterstreichen. Nvidia nutzt die eigene Marktmacht und Resourcen dazu aus wie ein Schulhof-Bully AMD zu mobben und im Zuge dessen den PC-Gaming Markt zum eigenen Vorteil kaputt zu machen.

Warum ist der PC so erfolgreich gewesen? Kompatibilität ist hier das zentrale Stichwort. Nvidia versucht gerade über die Softwareseite so gut wie möglich eine 2-Klassen Gesellschaft zu installieren, Spielebezogene Hardware, um so zum Alleinherrscher im Gaming Markt aufzusteigen. Die Folge sind mangelnde Konkurrenz und steigende Preise, auch für Nvidia Nutzer. Insofern ist es äußerst kurzsichtig wenn Nvidia Fans dieses Vorgehen von Nvidia auch noch unterstützen und feiern, die Quittung gibts dann in ein paar Jahren wenn AMD tatsächlich irgendwann zu schwach geworden ist um gegen zu halten.

Unicous
2015-05-23, 18:16:11
[UPDATE 22/5/15 6:44pm: Nvidia has been in touch to clarify the situation with regards GameWorks running on non-GeForce platforms: "It's not CD Projekt Red's decision to allow the Nvidia tech to work on AMD GPUs - that is Nvidia's decision and most commonly-used features from us are platform-agnostic. It's the same for CPU-based PhysX and Clothworks as well."]
http://www.eurogamer.net/articles/digitalfoundry-2015-does-nvidia-hairworks-really-sabotage-amd-performance


Yay, man ist der Gnade Nvidias ausgeliefert, awesome.:uup:

captain_drink
2015-05-23, 18:36:42
Wer sollte das denn sonst entscheiden, wenn nicht derjenige, der das Produkt zur Verfügung stellt? CDP wird ja sicher nicht dafür zahlen.

Wenn ich mich nicht täusche, lief bis auf höhere PhysX-Stufen bislang auch alles auf AMD. Dass Letzteres mangels passender HW/SW seitens AMD kein sinnvoller Kandidat für die Entscheidungsfreiheit eines Entwicklerstudios ist, sollte ja klar sein.

Isen
2015-05-23, 18:40:45
Damit schießt Nvidia den Bock so richtig ab. :D

Hey, dann verpisst euch und verunstaltet die Games nicht so! Entweder eine Lösung die für alle gleich gut ist, oder gar keine! - Typische Business-Entscheidung wieder. Und die Entwickler müssen sputen. Für die Konsolen, die ja so extrem wichtig sind, wie CDPR ja selbst sagen, ist TressFX gut genug. Aber für den PC auf einmal nicht mehr, obwohl NV damit ebenso arbeiten kann, ohne Einschränkungen. Gilt für Havok gleichermaßen.

Sorry den Wahren Nutzen von GW kann man so an einer Hand abzählen.


@captain_drink ist fett markiert ^^
Parasitär. Schadet dem PC Spiele Markt mehr als es nutzt.
Langsam kein bock mehr auf PC.

Mancko
2015-05-23, 18:46:24
Damit schießt Nvidia den Bock so richtig ab. :D

Hey, dann verpisst euch und verunstaltet die Games nicht so! Entweder eine Lösung die für alle gleich gut ist, oder gar keine! - Typische Business-Entscheidung wieder. Und die Entwickler müssen sputen.

Wieso denn? Die sollen einfach ein paar Gamestudios kaufen und dann wie Apple komplett das eigene Ökosystem vorantreiben.

Menace
2015-05-23, 18:53:35
Wieso denn? Die sollen einfach ein paar Gamestudios kaufen und dann wie Apple komplett das eigene Ökosystem vorantreiben.

Halte ich für eine gute Idee. Ich hoffe im Zuge dessen fahren sie ihre Spielchen im PC-Sektor zurück (übrigens, wenn ich es in der Zwischenzeit auch schon inflationär erwähne: der PC-Markt beinhaltet nicht nur Spiele). :rolleyes:

Isen
2015-05-23, 18:53:54
Könnse gerne machen. Ihr gutes Recht.
Aber nicht wie son Wurm handeln und seine Eier ablegen.
Können ihre Ideen im eigenen Sumpf mit ihrem Zeugs zu kleistern, aber nicht Fremdes Zeugs besudeln.

@Menace,

Jop. Habs konkretisiert.

Atma
2015-05-23, 19:32:36
Langsam kein bock mehr auf PC.
Dann viel Spaß mit der ruckelnden, niedrigen LOD, kaum AA/AF und langsam nachladenden PS4 Version von Witcher 3.

Auch ohne Hairworks ist Witcher 3 auf PC um Welten schöner als auf den Low-End Konsolen.

Isen
2015-05-23, 19:41:19
Cool das du weißt was ich zocke, und wo ...
Und nicht verstanden hast, worum es mir geht

Nvidia soll die Griffel nicht in anderes Leute Werk stecken und drin rum wurschteln und mit $$$ wedeln. Können eigene Spiele entwickeln und es dort machen. Gibt genug alternativen die ebenbürtig sind wozu man kein nvidia braucht, was beiden gleichermaßen zugute kommt, speziell den 780 Besitzern, wo Leistung für den Entwickler eingespart werden kann, die man woanders besser nutzen könnte

Grestorn
2015-05-23, 19:44:34
Warum sollte nVidia auf Dich hören, Isen? Meinst Du, die kümmert, was Du über sie denkst?

Isen
2015-05-23, 19:48:41
Warum gibt es Foren?

Menace
2015-05-23, 19:58:52
Warum sollte nVidia auf Dich hören, Isen?

Solange sie auf Mancko hören. :rolleyes:

-/\-CruNcher-/\-
2015-05-23, 21:25:08
Hier wünschen sich alle etwas das es nicht geben kann schon rein der Logik halber auch nicht geben darf jedenfalls nicht innerhalb dieses Systems es muss immer Balance da sein Nvidia baut mit GameWorks diese Balance auf gegen AMDs Konvergenz bestreben :)

Screemer
2015-05-23, 22:51:44
Weil es nach 10 seiten immer noch passt wie die Faust aufs Auge:

http://i.imgur.com/9T1kgIr.gif

Mancko
2015-05-24, 11:44:03
Solange sie auf Mancko hören. :rolleyes:

Na mit Sicherheit mehr als anders herum :) Aber das müssen die gar nicht. Die sind schlau genug genau zu wissen was sie tun und m.E. machen sie genau das richtige um sich langfristig in eine sehr gute Position zu bringen und das viele Kapital das sie haben optimal zu nutzen um weiteres Wachstum zu generieren.

Mancko
2015-05-24, 11:46:26
Warum gibt es Foren?

Ja und dann? Meinst das juckt die? Foren sind m.E. völlig überbewertet genauso wie Twitter & Co. Vor allem das Geheule von AMD taugt m.E. überhaupt nicht sich weitere Kunden zu ergattern oder Kunden zu halten. Damit machen die sich höchsten mega lächerlich. Put up or shut up. Das ist die einzige Regel die gilt.

Isen
2015-05-24, 12:02:30
Dann darf dich das, was AMD macht ebenfalls nicht stören, denkst du denen interessiert das, was du sagst? ... also, warum noch in Foren abhängen.
Gleiche tust du doch auch (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10638123&postcount=1796) warum sollten die auf dich hören?

Sunrise
2015-05-24, 13:48:07
Ja und dann? Meinst das juckt die? Foren sind m.E. völlig überbewertet genauso wie Twitter & Co.
Du unterschätzt das. Sie sind für viele Entscheidungen nicht relevant, aber gäbe es sie nicht, dann hätte sich an bestimmten Dingen nichts geändert. Denn 99% der News-Seiten generieren sich ihren Content mitunter auch aus Foren, damit man immer schön am Ball bleibt. Wenn jetzt jemand etwas aufdeckt wie schlechte Texturfilterung und das auch beschreibt und eine Seite sich dem annimmt, dann war es in der Vergangenheit immer wichtig darauf vermehrt hinzuweisen. So ganz zufällig wurde dann auch zugehört.

Hairworks ist zwar ein anderes Thema, aber gute Foren (nicht Twitter oder Facebook) sind wichtig. Denn genau dort sitzen die Käufer und können sich austauschen. Ob das einen IHV interessiert ist doch sowieso nur davon gesteuert, ob er es sich erlauben kann. NV würde nicht tun was sie tun wenn sie es nicht bewusst abgewägt hätten, auch eigene Käufer vor den Kopf zu stoßen.

Mancko
2015-05-24, 15:56:16
Du unterschätzt das. Sie sind für viele Entscheidungen nicht relevant, aber gäbe es sie nicht, dann hätte sich an bestimmten Dingen nichts geändert. Denn 99% der News-Seiten generieren sich ihren Content mitunter auch aus Foren, damit man immer schön am Ball bleibt. Wenn jetzt jemand etwas aufdeckt wie schlechte Texturfilterung und das auch beschreibt und eine Seite sich dem annimmt, dann war es in der Vergangenheit immer wichtig darauf vermehrt hinzuweisen. So ganz zufällig wurde dann auch zugehört.

Hairworks ist zwar ein anderes Thema, aber gute Foren (nicht Twitter oder Facebook) sind wichtig. Denn genau dort sitzen die Käufer und können sich austauschen. Ob das einen IHV interessiert ist doch sowieso nur davon gesteuert, ob er es sich erlauben kann. NV würde nicht tun was sie tun wenn sie es nicht bewusst abgewägt hätten, auch eigene Käufer vor den Kopf zu stoßen.

Sie stoßen keine eigenen Käufer vor den Kopf. Im Gegenteil. Sie sorgen für Exklusivität für die eigene Käuferschaft und die kann dann in gewohnter Manier auf AMD zeigen. Passt perfekt!

M4xw0lf
2015-05-24, 16:04:53
Sie stoßen keine eigenen Käufer vor den Kopf. Im Gegenteil. Sie sorgen für Exklusivität für die eigene Käuferschaft und die kann dann in gewohnter Manier auf AMD zeigen. Passt perfekt!
Im Moment zeigen große Teile dieser Käuferschaft auf AMD und sagt: wir wollen auch einen Schalter zur Tesselationsbegrenzung!
Win? :freak:

Raff
2015-05-24, 16:29:06
Sie stoßen keine eigenen Käufer vor den Kopf. Im Gegenteil. Sie sorgen für Exklusivität für die eigene Käuferschaft und die kann dann in gewohnter Manier auf AMD zeigen. Passt perfekt!

In letzter Zeit vermehrt schlechte Kepler-Performance, abgeschaltetes Overclocking von Mobilchips und arrogantes Verhalten beim GTX-970-Debakel: Das klingt in meinen Ohren sehr wohl nach "eigene Käufer vor den Kopf stoßen". Nvidia macht sich ziemlich oft unbeliebt. Bei AMD wirkt das Verhalten von außen eher unbeholfen und träge, aber nicht böswillig. Bei Nvidia scheinen "asoziale" Leute zu sitzen, also knallharte BWLer, während die meisten Entscheider bei AMD phlegmatisch wirken oder nur in die eigene Tasche wirtschaften, anstatt das Unternehmen als Ganzes voranzubringen.

MfG,
Raff

Nakai
2015-05-24, 16:29:27
Also im Geforce-Forum gibt es wieder einen interessanten Shitstorm, wie bestimmt jeder hier schon mitbekommen hat. Nur so nebenbei, die meisten Leute regen sich über NVs Praxis auf, ihre eigenen Produkte vorschnell abzuschieben und künstlich verkrüppelte Salvage-Parts auf den Markt zu schmeißen. Und dabei muss man leider auf die Inkompetenz der meisten Redaktionen zeigen, denn diese sind die einzige Instanz, welche im entferntesten dagegen halten könnte. In vielen Witcher 3-Tests wurde keine "älteren" Karten getestet. Wie dumm ist das denn?!

Viele Redaktionen und Hardware-Seiten lassen sich auch gezielt von NV benutzen, siehe CB, Hardwareluxx, TPU, etc... Es ist leider die traurige Wahrheit, dass NV das Spiel des Marketings und somit der Kundentäuschung perfektioniert hat.

Um auch noch etwas persönlich zu werden, für mich leidet der typische NV-Käufer so langsam an Stockholm-Syndrom. Man will für sein Geld das Bestmögliche bekommen und keine KArte, welche dank zukünftige Treiber-Downgrades irgendwann deutlich langsamer sein wird. Siehe GTX 780/Ti, welche in Zukunft langsamer als eine GTX 960 sein wird. Und auch im Vergleich mit einer GTX680/770 und Tahiti. MAn schaut sich nur neuere Spiele an. Jeder der damals auf Kepler und nicht auf GCN gesetzt hat, merkt langsam, wie er verarscht wurde. HD 7970/R9 280X ist mittlerweile schneller als eine GTX 780.;D;D;D

fondness
2015-05-24, 16:35:49
Also im Geforce-Forum gibt es wieder einen interessanten Shitstorm, wie bestimmt jeder hier schon mitbekommen hat. Nur so nebenbei, die meisten Leute regen sich über NVs Praxis auf, ihre eigenen Produkte vorschnell abzuschieben und künstlich verkrüppelte Salvage-Parts auf den Markt zu schmeißen. Und dabei muss man leider auf die Inkompetenz der meisten Redaktionen zeigen, denn diese sind die einzige Instanz, welche im entferntesten dagegen halten könnte. In vielen Witcher 3-Tests wurde keine "älteren" Karten getestet. Wie dumm ist das denn?!

Viele Redaktionen und Hardware-Seiten lassen sich auch gezielt von NV benutzen, siehe CB, Hardwareluxx, TPU, etc... Es ist leider die traurige Wahrheit, dass NV das Spiel des Marketings und somit der Kundentäuschung perfektioniert hat.

Um auch noch etwas persönlich zu werden, für mich leidet der typische NV-Käufer so langsam an Stockholm-Syndrom. Man will für sein Geld das Bestmögliche bekommen und keine KArte, welche dank zukünftige Treiber-Downgrades irgendwann deutlich langsamer sein wird. Siehe GTX 780/Ti, welche in Zukunft langsamer als eine GTX 960 sein wird. Und auch im Vergleich mit einer GTX680/770 und Tahiti. MAn schaut sich nur neuere Spiele an. Jeder der damals auf Kepler und nicht auf GCN gesetzt hat, merkt langsam, wie er verarscht wurde. HD 7970/R9 280X ist mittlerweile schneller als eine GTX 780.;D;D;D

Als ob das eine Neuigkeit wäre oder etwas einmaliges. Ist doch gängige Praxis bei nvidia und funktioniert offenbar auch gut, die Leute werden so gezwungen von Kepler auf Maxwell umzusteigen. AMD bäh kaufen wir nicht. Die Presse wäre hier gefordert umfassend aufzuklären, aber die sitzen offenbar auch schon zu tiefe im A**** von Nvidia. Wenn es endlich keinen Konkurrenten mehr gibt kann sich Nvidia dann auch endlich den lästigen Shitstrom sparen, denn dann gibt es eh keine Möglichkeit mehr zum Vergleich und man kann alles auf die tolle neue Hardware schieben.

Nakai
2015-05-24, 16:43:04
Als ob das eine Neuigkeit wäre oder etwas einmaliges. Ist doch gängige Praxis bei nvidia und funktioniert offenbar auch gut, die Leute werden so gezwungen von Kepler auf Maxwell umzusteigen. AMD bäh kaufen wir nicht.

Naja für die meisten NVidianer ist es aufeinmal eine Neuigkeit. Natürlich ist das schon Gang und Gäbe bei NV, das ist einigen informierten Leuten gleich. Es ist den meisten Leuten sowieso egal, was sie kaufen, solange die Benchmark-Balken und die Reviews "gut" abschneiden. Die wenigsten User überprüfen doch nicht, ob ihre Hardware noch das leistet, was in den Reviews bescheinigt wird.
Und dann sind die Reviews meistens noch unterirdisch schlecht. Die meisten Redakteure haben wahrscheinlich ein Intelligenzniveau ähnlich den typische DAU-Käufern.

Sry, liebe Redakteure, das GTX 970-Speicherdebakel wäre ohne weiteres früher bekannt gewesen, hättet ihr mal die Platine mit einer Wärmebildkamera belichtet oder hättet ihr mal Speicherauslastungsmessungen durchgeführt. Genauso beim Stromverbrauch, da gibt es unzählig bessere Möglichkeiten, als Spiele, die maximale Leistungsaufnahme zu messen.

Rente
2015-05-24, 16:43:11
Es gibt jetzt einen Titel bei dem sich das so extrem verhält wie von Nakai beschrieben und Nvidia hat schon signalisiert das sie dran arbeiten, findet ihr das nicht ein wenig überzogen?

Raff
2015-05-24, 16:47:27
Sry, liebe Redakteure, das GTX 970-Speicherdebakel wäre ohne weiteres früher bekannt gewesen, hättet ihr mal die Platine mit einer Wärmebildkamera belichtet oder hättet ihr mal Speicherauslastungsmessungen durchgeführt. Genauso beim Stromverbrauch, da gibt es unzählig bessere Möglichkeiten, als Spiele, die maximale Leistungsaufnahme zu messen.

Mit Verlaub, aber das ist Unsinn. Kein professioneller Redakteur fährt tagelang einfach so Messreihen mit einem Produkt, bei dem es keinerlei Verdacht gibt. Wenn ich fünf Tage messe und dabei nur ein "Verhält sich wie erwartet" herauskommt, ist das verbrannte Arbeitszeit, die dann woanders fehlt. Die GTX 970 verhielt sich im September 2014 nun mal so, wie man es erwartet hat. Die ganzen Speicherfresserspiele kamen erst später. Aber das wurde ja schon x-mal an diversen Stellen durchgekaut. Jetzt jedoch wird man bei jedem Produkt (noch) genauer hinsehen, denn Misstrauen geht so schnell nicht wieder weg. ;)

MfG,
Raff

Nakai
2015-05-24, 16:49:17
Es gibt jetzt einen Titel bei dem sich das so extrem verhält wie von Nakai beschrieben und Nvidia hat schon signalisiert das sie dran arbeiten, findet ihr das nicht ein wenig überzogen?

NV hat beim GTX970-Debakel auch erst gezeigt, dass der geringere Speicher maximal 1% Leistung kostet. Tut es auch, offiziell...wenn man Frametimes als ein Fantasie-Produkt abtut. NV kann sagen, was es will. Die letzten Ereignisse zeigen einfach, dass unsere Hardware-"Zeitungen" es nicht gebacken kriegen, Probleme aufzudecken, sondern das müssen ehrenamtlich angepisste und angeschissene Nutzer tun. Wäre kein Shitstorm im NV-Forum losgetreten, dann würde NV niemals so eine Stellungnahme rausrücken.

Skysnake
2015-05-24, 16:49:31
/sign

Man kann wegen so manchem auf den einen oder anderen Redakteur einschlagen, aber wegen dem wirklich nicht.

Blediator16
2015-05-24, 17:02:48
NV hat beim GTX970-Debakel auch erst gezeigt, dass der geringere Speicher maximal 1% Leistung kostet. Tut es auch, offiziell...wenn man Frametimes als ein Fantasie-Produkt abtut. NV kann sagen, was es will. Die letzten Ereignisse zeigen einfach, dass unsere Hardware-"Zeitungen" es nicht gebacken kriegen, Probleme aufzudecken, sondern das müssen ehrenamtlich angepisste und angeschissene Nutzer tun. Wäre kein Shitstorm im NV-Forum losgetreten, dann würde NV niemals so eine Stellungnahme rausrücken.

Die Horde an hobby PR Leuten wird dir quer durch sämtliche Foren und Kommentarsektionen aber das Gegenteil beweisen. Nämtlich man sollte froh sein die übermenschen Karten von Nvidia im Rechner haben zu dürfen und es garnicht so schlimm ist, dass man angelogen wurde.

Nakai
2015-05-24, 17:11:02
Mit Verlaub, aber das ist Unsinn. Kein professioneller Redakteur fährt tagelang einfach so Messreihen mit einem Produkt, bei dem es keinerlei Verdacht gibt. Wenn ich fünf Tage messe und dabei nur ein "Verhält sich wie erwartet" herauskommt, ist das verbrannte Arbeitszeit, die dann woanders fehlt.

MfG,
Raff

Ich habe PCGH explizit nicht erwähnt, auch weil ich den Eindruck habe, dass ihr bessere Arbeit leistet.

Ohne das ganze GTX-970-Debakel wären die Tests immer noch so seicht. Und es ist klar, dass viele Tests nötig sind, um ein Produkt ordentlich zu profilen. Ich sage es echt ungern, aber mittlerweile erinnern mich GPUs eher an Black-Boxes, weil man das Verhalten des Treibers und anderer Sachen nicht abschätzen kann. Vor allem auch, weil bestimmte Hersteller eher die Klappe halten, um nicht zuviele über das Produkt zu sagen. AMD liefert deutlich bessere Infos bzgl ihrer Produkte, im Gegensatz zu NV.

-/\-CruNcher-/\-
2015-05-24, 17:37:25
Als ob das eine Neuigkeit wäre oder etwas einmaliges. Ist doch gängige Praxis bei nvidia und funktioniert offenbar auch gut, die Leute werden so gezwungen von Kepler auf Maxwell umzusteigen. AMD bäh kaufen wir nicht. Die Presse wäre hier gefordert umfassend aufzuklären, aber die sitzen offenbar auch schon zu tiefe im A**** von Nvidia. Wenn es endlich keinen Konkurrenten mehr gibt kann sich Nvidia dann auch endlich den lästigen Shitstrom sparen, denn dann gibt es eh keine Möglichkeit mehr zum Vergleich und man kann alles auf die tolle neue Hardware schieben.

Naja gezwungen das gilt sicher nicht für alle der vorläufige Showdown kommt für diese Leute erst demnächst ;)

@Nakai
Das machen sie aber auch nicht aus nächstenliebe schau mal ein paar viele jährchen zurück wer die ersten waren die NDAs im großen Stiel abgesetzt haben und in welcher Zeit ;)

Jetzt dreht sich das ganze wieder (Oh wunder oh wunder)

Seit der Konvergenz war klar das sich einiges verschieben würde und Nvidia kontern muss haben sie ja auch in viellerlei hinsicht bis zur Etablierung ihrer eigenen Konsolenplatform und Exclusiveren Research Partnerships bassierend auf ihrem Ökosystem, somit ist die Balance auch mit Gameworks wieder einigermasen hergestellt :)

Allerdings hat diese Konvergenz gerade ATI/AMD gezwungen noch aktiver zu werden das sehe ich sehr positiv und spiegelt sich in der Hardware/Software und den resultaten ja auch wieder die endlich sehr ordentlich mithalten können und das in nur jetzt fast 1 Generation Entfernung von einander :)

captain_drink
2015-05-24, 18:16:37
In letzter Zeit vermehrt schlechte Kepler-Performance,

Beispiele? Wenn ich mir die letzten Benches auf PCGH so anschaue, dann sehe ich nichts dergleichen:

http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/

970 vor 780Ti, 770 vor 960.

http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/

780Ti vor 970.

http://www.pcgameshardware.de/Dying-Light-PC-257307/Specials/Technik-Test-Benchmarks-1149149/

780Ti auf 980-Niveau, 770 schneller als 280X.

http://www.pcgameshardware.de/Battlefield-Hardline-PC-258805/Specials/Benchmark-Test-1154059/

780Ti vor 970.

http://www.pcgameshardware.de/Evolve-PC-258203/Specials/Test-Benchmarks-1150387/

780Ti vor 970, 670 (!) vor 960.

http://www.pcgameshardware.de/Total-War-Attila-PC-259548/Specials/Test-Benchmarks-1151602/

780Ti vor 970.

http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/

970 vor 780Ti, 770 vor 960.

Isen
2015-05-24, 18:31:58
Natürlich nur im Heft ^^

Szudri
2015-05-24, 18:41:26
Beispiele? Wenn ich mir die letzten Benches auf PCGH so anschaue, dann sehe ich nichts dergleichen:

http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/

Die 770 ist vor der 280X, 780Ti vor 290X.

Dir ist schon klar, dass z.B. die 770 12% mehr OC hat als die 280x im Bench? Letztendlich ist es aber eine Frage ob diese 12% mehr OC als die 280x wirklich auch die 10% mehr AVG FPS aus machen.

Meine 7970 läuft übrigens mit 1100Mhz... wundert mich warum die 280x nur 1020 schaffen soll.

Und die 780ti ist wahnsinnige 0,9 fps schneller als die 290x :freak:.
Die Min FPS sind bei der 290x übrigens besser... Vom angesetzten OC einmal abgesehen.

Hier sollte man evtl. auch ein paar ältere Benches zum Vergleich heranziehen. Evtl. war die Kepler da ja noch weiter vor der 280x oder der 290x.

captain_drink
2015-05-24, 18:45:43
Ich hab die Radeons schon rauseditiert, geht ja um Kepler gg. Maxwell.

dargo
2015-05-24, 18:48:49
Sie stoßen keine eigenen Käufer vor den Kopf.
Du musst schon ganz fette Tomaten auf den Augen haben. Oder hast du die GTX970 verschlafen?

-/\-CruNcher-/\-
2015-05-24, 19:15:52
Du musst schon ganz fette Tomaten auf den Augen haben. Oder hast du die GTX970 verschlafen?

Das ein gutes Streaming die Probleme so ziemlich komplett relativiert sollte eigentlich schon aufgefallen sein ;)

Die Karte ist und bleibt Preis/Leistungs/Effizienz Killer so lange bis AMD etwas entgegenzusetzen hat vor allem von der Effizienz :)

Sunrise
2015-05-24, 19:36:31
@-/\-CruNcher-/\-
Es ging dargo nicht um die Leistung, sondern dem nachträglichen kaschieren von Produkteigenschaften, was niemand vorher auf dem Radar hatte und wo NV wiedermal gezeigt hat, wie man Geld verdient und den Käufern ins Gesicht lügt. Dazu gehört schon was.

Absolut vorbildlich, wenn man die gute Mafioso-Schule besucht hat und Geld verdienen will. Daher bitte einen Schrein für NV errichten mit dem Slogan "You get what you deserve."

Ist schön, dass NV sehr gute GPUs bauen kann, aber wenn man solche Sachen ausblendet, dann hat man einfach nur noch Geld im Kopf.

Ist mir persönlich egal, weil ich nur High-End kaufe, ist aber leider schade für den Rest. Das sollte man nicht noch schönreden. Daran ist nämlich nichts schön.

Und genau dafür sind Foren auch sehr gut geeignet. Egal welcher IHV, wenn solche Dinger abgezogen werden, sollten entsprechende sachliche Rückmeldungen kommen, sodass das nicht plötzlich zur Normalität verkommt.

-/\-CruNcher-/\-
2015-05-24, 19:53:37
Die PR Abteilung hatte einfach nur Angst wie sie das richtig Promoten sollte

Es ist halt nun einmal auch Problematisch du hast eine ganze generation auf mehr RAM mehr RAM getrimmt und plötzlich ist es nicht mehr so relevant nun erklär das doch mal deinen Gehirngewaschenen Kunden das du hier jetzt Kosten sparen willst und oder deinen Gewinn Maximieren möchtest, weil du und andere sehr gute Research Fortschritte machen ;)

dargo
2015-05-24, 19:54:21
Die Karte ist und bleibt Preis/Leistungs/Effizienz Killer so lange bis AMD etwas entgegenzusetzen hat vor allem von der Effizienz :)
Nein... es bleibt ein Krüppel und Verarschung.

Menace
2015-05-24, 20:05:18
Gehirngewaschenen Kunden

Wie soll man da noch widersprechen :biggrin: und nein, die Ausrede mit der "Angst" glauben nicht gehirngeschwaschene Kunden nicht. ;)

-/\-CruNcher-/\-
2015-05-24, 20:17:26
Nein... es bleibt ein Krüppel und Verarschung.

Da Wiederspreche ich dir es war ein Fehler keine Frage aber die Hardware ist kein Krüppel und so wie sie ausgelegt ist sehr Effizient.

Ob AMD es schaft diese Effizienz demnächst zu erreichen wir werden sehen, ich hoffe es sie hatten sehr viel Zeit und konnten auch viele wichtige Daten sammeln :)

Grestorn
2015-05-24, 20:37:18
Klar tut sich eine PR schwer die GTX 970 so zu präsentieren, dass sie der Markt akzeptiert. Das Problem aber zu verschweigen und zu hoffen, dass es schon nicht auffallen wird, war mit Abstand die dümmste und schlechteste Entscheidung, die man treffen konnte. Der oder die Manager, die das so entschieden haben, gehören auf den Mond geschossen.

Nichts desto trotz ändert diese Fehlentscheidung letztlich nichts an den Eigenschaften der 970. Wenn man die als Krüppel bezeichnet, muss man das konsequenterweise auch für die 290x machen. Und die 980Ti, sollte sie so auf den Markt kommen, wie momentan angenommen.

Ich finde das Wort "Krüppel" aber so oder so völlig unangemessen. Nicht nur, weil es den Karten in keinster Weise gerecht wird, sondern auch weil es despektierlich ist. Warum nennt ihr die Karten nicht gleich "schwul"?

TobiWahnKenobi
2015-05-24, 20:46:00
*hust* die karte ist nicht krüppelig.. ganz hinten vllt. leicht amputiert und das wieder schlecht im vorfeld kommuniziert aber unterm strich einfach:

!!!AMAZING!!!

btw,
"die" karte - weiblich - lesbisches stück.. ach was.. passt so wenig wie schwul. amazing ist viel kuhler.


(..)

mfg
tobi

Mancko
2015-05-24, 20:53:13
Du musst schon ganz fette Tomaten auf den Augen haben. Oder hast du die GTX970 verschlafen?

Was soll mit der sein. Die performt genauso wie gebencht. Alles andere ist wurst. Ich hab selber eine.

Blediator16
2015-05-24, 21:53:29
Was soll mit der sein. Die performt genauso wie gebencht. Alles andere ist wurst. Ich hab selber eine.

Bei AMD hättest du das sicher ebenfalls so gesehen oder?:freak:

Lurtz
2015-05-24, 22:38:11
Bei AMD hättest du das sicher ebenfalls so gesehen oder?:freak:
Wenn AMD so eine Karte veröffentlicht hätte, hätte es wahrscheinlich einen derartigen Shitstorm gegeben, dass sich die Firma nicht mehr davon erholt hätte.

dargo
2015-05-24, 22:55:36
Was soll mit der sein.
Das macht bei dir eh keinen Sinn, von daher...

Mancko
2015-05-25, 00:43:14
Bei AMD hättest du das sicher ebenfalls so gesehen oder?:freak:

AMD ist der Herausforderer und muss mehr bringen.

Locuza
2015-05-25, 01:10:14
Im Moment zeigen große Teile dieser Käuferschaft auf AMD und sagt: wir wollen auch einen Schalter zur Tesselationsbegrenzung!
Win? :freak:
Absolut win.

[...]
Solche Beiträge im PCGH-Forum würden zu viel Abwechslung führen, was das PCGH gekauft sein von AMD oder Nvidia angehen würde. :D

Siehe GTX 780/Ti, welche in Zukunft langsamer als eine GTX 960 sein wird. Und auch im Vergleich mit einer GTX680/770 und Tahiti. MAn schaut sich nur neuere Spiele an. Jeder der damals auf Kepler und nicht auf GCN gesetzt hat, merkt langsam, wie er verarscht wurde. HD 7970/R9 280X ist mittlerweile schneller als eine GTX 780.;D;D;D
Cool story.

Die Presse wäre hier gefordert umfassend aufzuklären, aber die sitzen offenbar auch schon zu tiefe im A**** von Nvidia.
Gott sei Dank gibt es noch genug Warrior, die tief in dem Arsch von AMD stecken und die Wahrheit verkünden.


@ Topic

In a nutshell (and based on public information) the technical comparisons are as follows:

NVIDIA Hairworks
Compute based simulation.
Use isoline tessellation with tessellation factors up to 64 (maximum possible value) to generate curvature and additional strands.
Use Geometry Shader for extruding segments into front-facing polygons.
Renders hair strands onto MSAA 8x render target to obtain smooth edges.
No OIT solution, non-edge hair strand pixels are fully opaque.

AMD TressFX
Compute based simulation with master/slave support to reduce simulation cost.
Use fixed number of vertices per strand (user-configurable, from 8 to 64).
Use Vertex Shader for extruding segments into front-facing polygons.
Per-pixel linked list OIT solution for hair transparency and smooth edges (no MSAA in any part of the pipeline). Configurable for desired performance/quality.

TressFX also has a very efficient LOD system that reduces the number of strands and makes them thicker as distance increases. I think Hairworks relies on varying tessellation factors for density and curvature but I'm happy to be corrected if this is not the case.

The use of isoline tessellation in Hairworks presents major technical deficiencies affecting performance such as long pipelines (VS HS DS GS PS all enabled) and poor quad occupancy caused by huge tessellation factors and MSAA rendering. A lot of users have already found out by themselves that clamping such tessellation factors to reasonable values didn't significantly adverse quality... TressFX's fixed number of vertices per strand works fine and avoid both tessellation and GS usage. One would need to be very close to the model to see curvature-related issues. In a nutshell hair/fur rendering do not need tessellation.
TressFX probably uses more memory than Hairworks due to the use of per-pixel linked lists for the OIT solution. This can be optimized (e.g. tiled mode) or a mutex/Pixelsync-like approach can be used to approximate OIT results and control memory usage.

If the technical arguments are not convincing enough then I invite anyone to assess performance and quality of games using these technologies on both AMD and NVIDIA hardware.
https://forum.beyond3d.com/posts/1845043/

Nick ist ein AMD Mitarbeiter der an TressFX beteiligt ist.
Man muss seine Äußerungen nicht als die absolute Wahrheit ansehen, ich denke aber er hat zu großen Teilen Recht.
Tessellation und Geometry-Shader sind vermutlich das schlechteste was man nehmen kann.

Ich könnte hier falsch liegen, aber ich denke AMD Hardware ist nicht nur zufällig schlechter als viele Nvidia GPUs bei Tessellation, sondern auch noch am schlechtesten was Geometry-Shader angeht. :rolleyes:

Hier wären IrisPro Vergleiche mit HairWorks bei Intel interessant.
Wegen technischen Gründen sind Intels Prozessoren die einzigen, die bei Geometry-Shader nicht total sucken.
Aber wie gut Intel Tessellation implementiert hat weiß ich nicht.

Troyan
2015-05-25, 02:58:21
Ich dachte seit GCN sind AMD Karten erheblich schneller mit Geometry-Shader...

Davon abgesehen:
AMD sollte erstmal beweisen, dass ihr TressFX genauso flexibel ist wie Hairworks. Erst dann kann man über die Implementierung diskutieren.

Jeder kann sich den Hairworks-Viewer runterladen. Das ist schon sehr interessant.
Dagegen gibt es von AMD die exakt selbe Demo, die nVidia drei Jahre vorher für Fermi veröffentlicht hat...

Locuza
2015-05-25, 03:36:00
Ich dachte seit GCN sind AMD Karten erheblich schneller mit Geometry-Shader...

Davon abgesehen:
AMD sollte erstmal beweisen, dass ihr TressFX genauso flexibel ist wie Hairworks. Erst dann kann man über die Implementierung diskutieren.

Jeder kann sich den Hairworks-Viewer runterladen. Das ist schon sehr interessant.
Dagegen gibt es von AMD die exakt selbe Demo, die nVidia drei Jahre vorher für Fermi veröffentlicht hat...
Great Article:
http://www.joshbarczak.com/blog/?p=667

http://www.joshbarczak.com/blog/wp-content/uploads/2015/03/graph1.png

Bei seinem Use-Case schenken sich scheinbar Nvidia und AMD nicht viel.
Im Fazit schreibt er aber eindeutig:
Do Geometry Shaders Suck?

Even though it is possible to implement geometry shaders efficiently, the fact that two of the three vendors don’t do it that way means that the GS is not a practical choice for production use. It should be avoided wherever possible.

It is flawed, in that it injects a serialized, high bandwidth operation into an already serialized part of the pipeline. It requires a lot of per-thread storage. It is clearly a very unnatural fit for wide SIMD machines.

Übrigens wieso muss AMD erst beweisen, dass ihr TressFX genau so flexibel ist, bevor man über die Implementierung diskutieren kann?

Coda
2015-05-25, 04:01:41
Wenn die Geometry-Shader-Amplification gering genug ist kann GCN die Daten im LDS halten, dann ist er einigermaßen schnell, sonst wird's in nem Ring-Buffer in den RAM geschrieben. Die Latenz wird im letzen Fall potentiell durch die Caches abgefangen, aber ideal ist es nicht.

Bei NVIDIA kann es sein, dass sie die Buffer benutzen, die sie eh für die Wiederherstellung der Draw-Order haben vor den Pixel-Shadern. Aber das ist reine Spekulation.

Kartenlehrling
2015-05-25, 09:47:31
AMD sollte erstmal beweisen, dass ihr TressFX genauso flexibel ist wie Hairworks. Erst dann kann man über die Implementierung diskutieren.


Haben sie das nicht schon in dem sie TressFX2.3 in die Tomb Raider Definitive Edition einsetzten?! (https://www.youtube.com/watch?v=KxEwUBPh-bA)
Ich verwette Locuza Nvidia Karte, das wir auf der XBone zu Weihnachten TressFX3.x sehen werden und nicht nur Lara Crofts Haare werden im Wind wehen.

Ich kann mir "Heute" Hairworks nicht auf der Console vorstellen, TressFX2.x sollte 2x soo effektiv arbeiten als TressFX1.0 (PCversion),
und selbst da waren es ca. 20% Leistungsverlust, bei "theWitcher3" sind wir über 45% bei Greiffen+Gerald.

Locuza
2015-05-25, 14:28:00
Haben sie das nicht schon in dem sie TressFX2.3 in die Tomb Raider Definitive Edition einsetzten?! (https://www.youtube.com/watch?v=KxEwUBPh-bA)
Sie können keine Dinge einsetzen, die es nicht gibt (2.3 Version).

Ich verwette Locuza Nvidia Karte, das wir auf der XBone zu Weihnachten TressFX3.x sehen werden und nicht nur Lara Crofts Haare werden im Wind wehen.
Verwette deine eigenen Besitztümer. :freak:

Das AMDs Grundkonzept etwas taugt, ist aus meiner Sicht durch die Dawn-Engine bestätigt, wo TressFX 3.0 ein integraler Bestandteil sein wird.

fondness
2015-05-25, 14:33:24
Gott sei Dank gibt es noch genug Warrior, die tief in dem Arsch von AMD stecken und die Wahrheit verkünden.


Gott sei Dank gibt es auch noch genug Warrior, die jegliche Forderung nach Aufklärung mit persönlichen Beleidigungen unterbinden.

Troyan
2015-05-25, 14:45:45
Übrigens wieso muss AMD erst beweisen, dass ihr TressFX genau so flexibel ist, bevor man über die Implementierung diskutieren kann?

Weil es andersrum keinen Sinn ergibt?

Thunder99
2015-05-25, 14:46:12
zwar nicht passend im Thread, aber was ist der Unterschied zwischen TressFX und Hairworks im genauen? Letztere kostet in W3 ja so viel da es einen hohen Tess Faktor hat sowie mit MSAAx8 per default läuft

Locuza
2015-05-25, 14:50:49
Weil es andersrum keinen Sinn ergibt?
Ich weiß nicht was du unter flexibel genau verstehst, aber ich denke kaum das TressFX dank fehlendem Tessellation und Geometry-Shader prinzipiell nicht das gleiche wie HairWorks erreichen kann.

Entsprechend kann ich HairWorks Umsetzung und dann noch einmal die konkreten Parameter davon durchaus vorab diskutieren und wie es die Realität so will, eher kritisieren.

zwar nicht passend im Thread, aber was ist der Unterschied zwischen TressFX und Hairworks im genauen? Letztere kostet in W3 ja so viel da es einen hohen Tess Faktor hat sowie mit MSAAx8 per default läuft
Auf dieser Seite ganz nach oben scrollen.
Da stehen paar Unterschiede.

dildo4u
2015-05-25, 14:56:16
Hairworks konnte wohl schon 2013 Fell daher wurde es genutzt Tress FX erst ab 3.0.Ich glaube das erste Game mit 3.0 ist das neue Deus Ex was vermutlich erst 2016 kommt.

Hier die Hairworks Demo íst vom Juni 2013.

https://youtu.be/JMGPKlpaIxI

Das von der GDC 2015.

http://abload.de/img/dawn-engine-2uayzd.jpg

Kartenlehrling
2015-05-25, 15:16:09
Das AMDs Grundkonzept etwas taugt, ist aus meiner Sicht durch die Dawn-Engine bestätigt, wo TressFX 3.0 ein integraler Bestandteil sein wird.

Ich finde wenn sie die Haar und Fell Eigenschaft auf der Console bringen,
obwohl man schon an jeder Ecke einspaart damit man 1080p/60fps hin bekommt beweist in meinen Augen genug.
Zu Weihnachten werden JustCause3 und RotTR beweisen müssen was technisch auf Console geht.

Locuza
2015-05-25, 15:21:39
@ Dildo

Da scheinst du Recht zu haben.
Es war schon bei TressFX 2.0 die Rede von Fell und Gras, aber echten Support gibt es den Folien nach erst mit der kommenden 3.0 Version.

-/\-CruNcher-/\-
2015-05-25, 18:13:58
Wirken lassen ;)

http://abload.de/thumb/gta5_2015_05_25_17_560ujbl.jpg (http://abload.de/image.php?img=gta5_2015_05_25_17_560ujbl.jpg) http://abload.de/thumb/gta5_2015_05_25_17_579ljhs.jpg (http://abload.de/image.php?img=gta5_2015_05_25_17_579ljhs.jpg) http://abload.de/thumb/gta5_2015_05_25_17_58w0jhb.jpg (http://abload.de/image.php?img=gta5_2015_05_25_17_58w0jhb.jpg)


Und bitte sachlich bleiben und PCG/H und Co bitte erstmal klappe halten bevor ihr wieder einen Skandal lostretten wollt wo vielleicht keiner ist sondern sehr komplexe umstände dazu führen das der overhead hier so riesig ist und die Auslastung aber naja nicht Optimal ;)

Vor allem würde ich gerne wissen ob diese Shadow Blocks (holes) in Bild 1 AMD GCN usern schonmal aufgefallen sind mit AMDs CHS ?

Grestorn
2015-05-25, 18:33:01
Was sehen wir? Unterschiedlich scharfe Schatten... PCSS ist variabel scharf. Man kann das also auch nicht als Qualitätsmaßstab sehen.

-/\-CruNcher-/\-
2015-05-25, 18:53:54
es geht eher um den overhead der hier auf der GTX 970 mit neustem treiber bei fantastischen +22 ms gegenüber AMDs CHS liegt + 4 ms

ich hatte da mal + 6 ms bei beiden gemesen die waren gleichauf aber irgendwie ist die Lastverteilung entweder hier anders oder aber es stimmt was nicht mit dem neuen Treiber.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10625973#post10625973


Siehe Far Camera Distance Shadow test

Muss ich nochmal genauer testen mit dem alten treiber vielleicht irre ich mich auch durch den zusätzlichen overhead durch MFAA und AA im algemeinen troztdem komisch das AMDs CHS nicht genauso einbricht sondern sich wie sonst auch verhält


PS: Problem Performance Verlust hat sich in Luft aufgelöst vermutliche ursache Firefox background CPU overhead AMDs CHS in Verbindung mit Nvidias Treiber scheint hier nicht so empfindlich zu reagieren

Elite_Warrior
2015-05-26, 10:04:53
Gott sei Dank gibt es noch genug Warrior, die tief in dem Arsch von AMD stecken und die Wahrheit verkünden.

Gott sei Dank gibt es auch noch genug Warrior, die jegliche Forderung nach Aufklärung mit persönlichen Beleidigungen unterbinden.

:eek:

Als der Stammesführer der Warriors will ich nicht dass mein Volk in sinnlosen Fanboy Wars verheitzt wird.

Und noch halbwegs beim Thema: Mich störts beim Hairworks ein wenig das das so wirkt als wollte man es implementieren damit ist drinn. Die Haare scheinen bei Witcher 3 zwar teilweise sehr gut zu sein aber wenn beim Troll die hübschen Haare locker flockig durch die Lüfte flattern wirkt es doch ein bischen komisch(Musste an Glam-Metal denken). Kann das momentan nur Anhand Videos beurteilen.

Kartenlehrling
2015-05-26, 11:03:56
Fakt ist, hier wird mit Kanonen auf Spatzen geschossen, weil man einfach genug Schiesspulver hat, es nicht besser kann und nicht weil es das beste Produkt ist.
Square Enix hat es schon bewiesen das es "billiger" geht und das heisst TressFX3.x, JustCause3, RotTR und FF15 werden selbst auf der Console echte Haar und Fell Animation haben.
Bessere Beweise gibts nicht das es auch auf Console läuft, das Nvidia das nicht umbedingt will auch verständlich.

https://youtu.be/gyt9xZCx_YY?t=4798
Cloth, Hair, Fuzz and Fur

Sunrise
2015-05-26, 11:20:08
We discovered a couple of issues in regards to Kepler GPUs and are working on driver updates.

https://forums.geforce.com/default/topic/833016/geforce-700-600-series/gtx-780-possible-fail-as-performance-in-the-witcher-3-wild-hunt-/post/4537394/#4537394

Ich lass das mal so unkommentiert stehen.

Kartenlehrling
2015-05-26, 11:40:33
dazu passen ja dann diese Postings ...

Naja es ist schon komisch, dass sobald man die ersten builds zu NV schickt die Treiberquallität massivst nachlässt.
Da verschwinden auf einmal renderpasses die nur im debugmode oder editor benutzt werden... Da bin ich Mittlerweile so trotzig, dass ich das Büro mit der Konkurrenz ausstatten lasse.
Entschuldige das ich so naiv nachfrage, aber heißt das: NV die Treiber absichtlich unoptimiert lässt um euch zu animieren besser für NV HW zu optimieren?
Später wenn das Spiel dann im Laden oder im DL steht selbst einen optimierten Treiber raushaut und doppelt profitiert, euch somit vor den Karren gespannt hat?! Schlau aber ganz schön ......... wenn ja.

Arcanoxer
2015-05-26, 22:43:32
Mich störts beim Hairworks ein wenig das das so wirkt als wollte man es implementieren damit ist drinn. Die Haare scheinen bei Witcher 3 zwar teilweise sehr gut zu sein aber wenn beim Troll die hübschen Haare locker flockig durch die Lüfte flattern wirkt es doch ein bischen komisch(Musste an Glam-Metal denken). Kann das momentan nur Anhand Videos beurteilen.
Das Hairworks in Witcher 3 ist doch um Welten besser als TressFX in TR.
Die Haare von Lara hatten so ein eigenleben, dagegen ist Medusa gar nichts.
Und mehr Performance als es sollte hat es auch gekostet.

Blediator16
2015-05-26, 22:56:54
Das Hairworks in Witcher 3 ist doch um Welten besser als TressFX in TR.
Die Haare von Lara hatten so ein eigenleben, dagegen ist Medusa gar nichts.
Und mehr Performance als es sollte hat es auch gekostet.

Sieht beides gleich scheisse aus.

aufkrawall
2015-05-26, 23:05:35
Die Viecher wertet HW schon klar auf, die Charaktere nicht.
Deshalb ist HW allerdings nicht besser: Lange Haarsträhnen sind halt einfach komplizierter bzw. wirken schneller unglaubwürdig mit der beschränkten Technik.

Die Lösungen müssen dringend besser werden, Haar ist momentan mit Abstand der schlimmste Fakor fürs Uncanny Valley bei Charakter-Rendering.

dildo4u
2015-05-26, 23:09:31
Sieht beides gleich scheisse aus.
Die Tiere,Monster sehen ziemlich gut aus.Am besten wär ne Option wo es nur dort aktiv ist würde auch ordentlich Performance sparen.

https://mega.co.nz/#!cIVyWBhb!Y2HxGHJYnL5yHtvzqzZc_jCHFFAfio6B6HhNR5a3M2g

-/\-CruNcher-/\-
2015-05-26, 23:35:38
Ein sehr interessantes Visuelles Problem taucht momentan mit Nvidias Maxwell Zauberwaffe MFAA in GTA 5 auf

Impuls Flickering ;)

Diesen effekt hab ich so noch nirgends beobachtet :)

Aus Transparency AA Rauschen wird ein heftiger Impuls

Bei Bewegungen einiger Objekte vor allem hier der Palm Trees Pulsiert es extremst während sie sich bewegen oder die Kamera

http://abload.de/thumb/gta5_2015_05_26_01_4799l96.png (http://abload.de/image.php?img=gta5_2015_05_26_01_4799l96.png)

aufkrawall
2015-05-26, 23:54:31
MFAA ist kein Gameworks und ein Video wär besser.

-/\-CruNcher-/\-
2015-05-27, 04:31:21
MFAA Pulsed Flicker

http://www75.zippyshare.com/v/ctD3cj7z/file.html

Skysnake
2015-05-27, 08:02:11
Danke für das Video! :up:

Ist ja extrem ekelhaft das Verhalten. Da rollen sich einem echt die Fußnägel hoch, so unangenehm empfinde ich das, also lange kannste da nicht drauf schauen, da wirste ja ganz kirre im Kopf :ugly:

Kartenlehrling
2015-05-27, 08:10:00
Jaja, wieviele FPS hast du denn in diesem Moment, MFAA greift nur über 40fps ,
und wenn man weiss wie MFAA arbeiten ist klar wieso es pulsiert, es werden 2 frames gebraucht,
MFAA arbeiter erst ab 40fps, empfohlen werden sogar minFPS von 60fps.

Wie gesagt es gehört hier nicht rein, sonderen in den letzten Treiberthread.

Sunrise
2015-05-28, 08:32:12
Da CD Projekt RED ja bekannt gegeben hat, sich die nächsten Zeit noch verstärkt um den Hexer (tolles Spiel übrigens) zu kümmern, gibt es jetzt eine Petition, die als alternative Implementation von NVs Hairworks zusätzlich AMDs TressFX in das Spiel erwünscht:

https://www.change.org/p/cd-projekt-red-please-provide-the-option-to-use-tressfx-in-the-witcher-3-wild-hunt

Wäre sicher interessant, wenn man nicht nur die grafische Qualität beider Verfahren, sondern auch die Performance auf beiden IHV-Lösungen im Verhältnis zueinander vergleichen könnte.

Lurtz
2015-05-28, 08:45:26
Super sinnvolle Petition wieder. Wer soll das bezahlen?

robbitop
2015-05-28, 09:02:18
Wie sinnfrei - die sollen sich lieber um DLCs oder um's Spiel selbst kümmern. Hairworks mit reduziertem MSAA und gecaptem Tessfaktor läuft AFAIK doch super auf Radeons.

Offenbar war ursprünglich beim Witcher 3 MSAA geplant. In der Rendering.ini finden sich dazu zwei Einträge. AllowMSAA und den MSAA Faktor. Dass MSAA für Hairworks funktioniert, hat mich sowieso gewundert.

Ubersampling gibt es in der ini übrigens auch - aber teuer. SMAA (sweetfx) + das Spielegiene P-AA+TempAA sehen übrigens ganz passabel aus.

Kriton
2015-05-28, 09:02:26
Super sinnvolle Petition wieder. Wer soll das bezahlen?

Das habe ich auch gedacht.

Knuddelbearli
2015-05-28, 09:07:39
Da sich TW3 weit über Erwartungen verkauft, wir alle zu einem klitzekleinen teil.

M4xw0lf
2015-05-28, 09:09:30
Das Geld und die Manpower hätten sie sicher. Obs das braucht ist die andere Frage.

aufkrawall
2015-05-28, 09:15:37
Wofür bräuchte man neben TressFX noch HW?
Ersteres ist wahrscheinlich einfach noch nicht fertig für die benötigten Features gewesen, sonst hätten CPR sicher gleich von sich aus drauf gesetzt.

Irgendwo ist W3 dann halt auch nicht der technische Uber-Titel.

Sunrise
2015-05-28, 09:30:38
Diese Aussage vom Entwickler selbst ist bekannt, oder?

"We hope and we are certain that Cyberpunk has even bigger commercial potential. It is too early to talk about it, though. This year, and the next one will be the years of the Witcher," Kicinski said.

Quelle u.a.:
http://www.reuters.com/article/2015/05/26/games-cd-projekt-witcher-idUSL5N0YG1AW20150526

Die bauen jetzt das komplette Jahr 2015 und 2016 noch am Witcher rum. Und wenn da DLCs kommen, die auch angekündigt wurden, ist es sicher nicht abwegig, da mal anzufragen, ob es möglich ist (ohne da zuviel Zeit da rein zu versenken), TressFX auch zu integrieren.

Das ist dann eine Entscheidung von CD Projekt RED, falls das nicht im Budget ist.

Wie sinnfrei - die sollen sich lieber um DLCs oder um's Spiel selbst kümmern. Hairworks mit reduziertem MSAA und gecaptem Tessfaktor läuft AFAIK doch super auf Radeons.
Die DLCs könnten es ja dann enthalten. Nebenbei ist nicht automatisch gleich alles sinnfrei, weil es irgendjemand nicht interessiert, der sowieso eine NV-Karte hat. Nicht immer von einem selbst ausgehen.

Der Entwickler hat DLCs und Patches angekündigt und das Geld das damit eingenommen wird und auch bereits eingenommen wurde, wird zum Teil auch wieder investiert, damit man eben noch mehr Geld machen kann.

http://www.reuters.com/article/2015/05/26/games-cd-projekt-witcher-idUSL5N0YG1AW20150526

...The CEO added that CD Projekt will use the profit from the release to mainly finance new projects, including two Witcher add-ons and a completely new game entitled Cyberpunk 2077...

Wenn man eine NV im Rechner hat, sollte man sowieso mal etwas die Füße stillhalten. Das ist doch gerade das Thema hier.

robbitop
2015-05-28, 09:49:09
Nebenbei ist nicht automatisch gleich alles sinnfrei, weil es irgendjemand nicht interessiert, der sowieso eine NV-Karte hat. Nicht immer von einem selbst ausgehen.


Wenn man eine NV im Rechner hat, sollte man sowieso mal etwas die Füße stillhalten. Das ist doch gerade das Thema hier.

Blubb. Es geht nicht um meine Person oder meine Grafikkarte. Ich habe die These doch klar mit einem GPU unabhängigem Argument hinterlegt. Weiterhin habe ich Gameworks doch bereits in diesem Thread klar kritisiert. Meine Meinung und meine Kritik ist unabhängig davon, welche HW ich persönlich besitze. (ich kaufe sowieso immer und überall nüchtern das Schnellste, was kaufbar ist - egal von wem.) Also komm bitte wieder runter mit deinen falschen Unterstellungen.

Hairworks läuft mit Tessfactor 16x und 4xMSAA bei gleicher BQ auf Radeons mit vergleichbarem oder geringerem Performance Hit wie auf Geforces. Problem solved.

Wo ist denn der Mehrwert von TressFX? Außer dass man für's Gewissen jetzt 2 propertäre Technologien einsetzt? Wenn man sich den Performancehit von TR:2013 anschaut ist es auch nicht billiger. Wo bleibt also der Sinn? Der Erhöhte Nutzwert davon, dass man sich nochmal Arbeit macht?

Ich finde generell sollten sich alle IHVs aus dem Middlewarebusiness raushalten.

aufkrawall
2015-05-28, 09:54:01
Wo ist denn der Mehrwert von TressFX?

Laut AlphaTier ist es performanter (laut Coda wohl selbst auf NV) und sieht bei langen Haaren prinzipiell besser aus.


Wenn man sich den Performancehit von TR:2013 anschaut ist es auch nicht billiger.

Muss mit neueren Versionen performanter geworden sein, sonst würd es nicht auf der PS4 laufen.


Ich finde generell sollten sich alle IHVs aus dem Middlewarebusiness raushalten.
Ja, eben. Am besten wärs, die Studios könnten sich einfach am Code bedienen, den die IHVs zur Verfügung stellen. Wie halt bei AMD (zumindest teilweise) und früher auch bei NV.

"Gameworks" ist nichts weiter als eine proprietäre Verpackung von Sachen, die früher offen zugänglich waren (bis auf PhysX).
So gesehen hat man damit den Devs etwas weggenommen und überrascht nicht, dass die angepisst sind.

robbitop
2015-05-28, 09:57:16
Oder sie entwickeln es selbst. Oder kaufen es woanders zu. IMO sollten IHVs da gänzlich ihre Finger von lassen. Nichteinmal Sourcecode - gar nichts.

Wenn TressFX in der aktuellsten Iteration tatsächlich performanter als Hairworks beim gleichen oder besseren Ergebnis ist, macht der Einsatz sogar Sinn. Ich bin jetzt nach TR erstmal davon ausgegangen, dass es in der Praxis nicht so ist.

aufkrawall
2015-05-28, 10:04:29
Oder sie entwickeln es selbst. Oder kaufen es woanders zu. IMO sollten IHVs da gänzlich ihre Finger von lassen. Nichteinmal Sourcecode - gar nichts.

Warum das denn nicht?
Für bestimmte Sachen braucht man wahrscheinlich einfach echte Cracks in ihrem Fachgebiet. Die hat nicht jedes Studio und die können auch nicht alles übernehmen. SC von Hightech-Features von den IHVs ist bestimmt eine gute Weiterbildungsmaßnahme und könnte die Arbeit stellenweise enorm erleichtern.

Wie viele richtig gute SSAO-Lösungen gibt es, die nicht von den IHVs stammen?

Grestorn
2015-05-28, 10:22:49
nVidia hat die Hairworks Implementierung bezahlt. Also soll AMD die TressFX Implementierung bezahlen. Ganz einfach.

Die Petition muss sich also an beide, CDP und AMD wenden.

Ob TressFX performanter ist und/oder besser aussieht, möchte ich wirklich nicht von der Aussage einer einzelnen Person, die ich noch nicht mal kenne, hier im Forum ableiten.

robbitop
2015-05-28, 10:25:03
Die Frage ist, ob man selbst mit Quellcode dann noch die Optimierung auf alle GPUs hinbekommt.

Wenn man den Quellcode allerdings komplett öffentlich legt (also so wie für SMAA bspw), so dass jeder sich das anschauen kann, sollte schnell eine IHV unabhängige Version daraus gestehen.

Ein IHV der eine Middleware liefert hat halt immer ein Geschmäckle.

Piffan
2015-05-28, 10:29:46
Der Kampf am Grafikkartenmarkt wird mit immer fragwürdigeren Mitteln geführt:

http://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-end-users-and-amd
http://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-end-users-and-amd/2

Lächerlich. Ich habe eine alte Radeon und ältere Treiber. Das Spiel ist wunderbarst zu zocken, alles auf High bis auf Schatten, die habe ich runtergesetzt. Aber nicht, weil es sonst unspielbar wäre, sondern weil scharfe Schatten mit LOD beschissen aussehen. Meine persönliche Meinung....

Was mich dann wundert, dass man öfter von NV- Karten bzw. Systemen hört, wo es absemmelt. Ich spiele noch ungepatcht und bleibe dabei. Lüppt, keine Bugs bisher....

Sunrise
2015-05-28, 10:36:01
Ich finde generell sollten sich alle IHVs aus dem Middlewarebusiness raushalten.
Das wäre der Optimalfall, das ist aber eben nicht die Realität, weil es dort nämlich sehr oft auch um Profit geht.

Blubb. Es geht nicht um meine Person oder meine Grafikkarte. Also komm bitte wieder runter mit deinen falschen Unterstellungen.
Ich habe geschrieben, dass es nicht gleich sinnfrei ist, wenn man selbst eine NV im Rechner hat. Für AMD-Nutzer (und im Endeffekt für alle) ist es sinnvoll, warum genau ist es jetzt sinnfrei? Die technischen Gründe wurden genannt und du gehst dagegen an mit der Begründung, dass man es ja per AMD-Treiberhack umgehen kann.

Genau DAS ist nicht sinnvoll, sowas erfordert zusätzliche Arbeit für einen IHV, obwohl beide profitieren könnten.

Ob CD Project RED das jetzt umsetzt oder nicht steht CD Project RED völlig frei.

Wenn du das mal weiterspinnst, dann dürfen die IHVs bald nur noch um Spielecode der proprietär ist oder nicht "rumpatchen", das wollen wir aber nicht. Es scheint so schon genug Aufwand zu sein, ein Spiel auf eine bestimmte HW anzupassen, und man benötigt optimalerweise Einsicht in den Source selbst, damit man sieht was tatsächlich gemacht wird. Wenn NV das so weiterführt, dann bestehen Spiele bald nur noch alternativlos aus für NV angepasste Code-Schnipseln, die dann wiederrum nur auf NV optimal laufen. Und das will keiner, nicht wir, nicht unbedingt die Entwickler, nur der IHV.

Piffan
2015-05-28, 10:47:34
In TR sah es scheiße aus, beim Witcher dito. Kinkerlitzchen, die null bringen. Die meisten Zocker draußen im Lande runzeln höchstens die Stirn, weil oft lächerlich wirkt. Wenn der Witcher oder Lare tagelang durch den Dreck gekrochen sind, dann flattern die Haare wie frisch shamponiert und gefönt.....Gröhl. Solche Technik- Demos waren schon immer peinlich. Wer danach eine Graka kauft, hat doch am Spiel selbst kein Interesse.

Die großen Bringer der letzten Jahre waren Poly- Count und tüchtig Füllrate bei Texturen aller Art. Postprocessing ist auch wesentlich hochwertiger geworden. Die Mätzchen mit den Haaren bringen vom visuellen Eindruck nix, der Look wird dadurch weder realistischer noch stylischer, es wirkt nach wie vor falsch.....

Troyan
2015-05-28, 10:55:58
Wenn du das mal weiterspinnst, dann dürfen die IHVs bald nur noch um Spielecode der proprietär ist oder nicht "rumpatchen", das wollen wir aber nicht. Es scheint so schon genug Aufwand zu sein, ein Spiel auf eine bestimmte HW anzupassen, und man benötigt optimalerweise Einsicht in den Source selbst, damit man sieht was tatsächlich gemacht wird. Wenn NV das so weiterführt, dann bestehen Spiele bald nur noch alternativlos aus für NV angepasste Code-Schnipseln, die dann wiederrum nur auf NV optimal laufen. Und das will keiner, nicht wir, nicht unbedingt die Entwickler, nur der IHV.

Das ist doch Quatsch. Niemand muss die Bibliotheken von nVidia nehmen. Wer unbedingt Zugriff auf den Quellcode will, der könnte das ganze auch selbst schreiben.

Es ist doch offensichtlich, dass die Leute den Source Code sehen wollen, weil sie an der IP interessiert sind und nicht an den Effekten. Kostenloses Wissen...

Man muss sich nur mal die Reaktion im Unreal-Thread ansehen. Dort freut man sich, dass nVidia ihre Gameworks-Bibliotheken mit der Engine integrieren.

Iceman346
2015-05-28, 10:56:33
Ich hab Witcher 3 noch nicht gespielt, aber die TressFX Haare in Tomb Raider haben mir ziemlich gut gefallen. Ja, dass sie nicht schmutzig werden ist ein Fehler, aber das werden die "normalen" Polygonklumpenhaare auch nicht. Trotzdem ist man damit einen Schritt näher an realistischer Darstellung und grade bei Haaren ist sehr lange nicht viel passiert.

Das das nur ein erster Schritt ist ist klar, aber es ist imo ein wichtiger Schritt.

robbitop
2015-05-28, 11:00:47
Ich habe TR auch mit TressFX gespielt - trotz der Eigenheiten hat es bei Laras langen Haaren wirklich einen optischen Mehrwert gebracht.

fondness
2015-05-28, 11:01:59
Wo ist denn der Mehrwert von TressFX? Außer dass man für's Gewissen jetzt 2 propertäre Technologien einsetzt?

TressFX ist OpenSource und kann vom jedem frei heruntergeladen werden und beliebig adaptiert oder ausgeschaltet werden. Im übrigen verwendet es die überlegene Implementierung über ComputeShader und nicht einfach nur sinnloserweise max. Tesslation um der Konkurrenz zu schaden.

Sunrise
2015-05-28, 11:03:13
In TR sah es scheiße aus, beim Witcher dito. Kinkerlitzchen, die null bringen. Die meisten Zocker draußen im Lande runzeln höchstens die Stirn, weil oft lächerlich wirkt. Wenn der Witcher oder Lare tagelang durch den Dreck gekrochen sind, dann flattern die Haare wie frisch shamponiert und gefönt.....Gröhl. Solche Technik- Demos waren schon immer peinlich. Wer danach eine Graka kauft, hat doch am Spiel selbst kein Interesse.

Die großen Bringer der letzten Jahre waren Poly- Count und tüchtig Füllrate bei Texturen aller Art. Postprocessing ist auch wesentlich hochwertiger geworden. Die Mätzchen mit den Haaren bringen vom visuellen Eindruck nix, der Look wird dadurch weder realistischer noch stylischer, es wirkt nach wie vor falsch.....
Stimme dir da voll zu. Vor allem beim Witcher habe ich (ich hatte auf Twitch den Stream von Lirik verfolgt, ist ein bekannter Twitch-Streamer) kaum oder garkeine Unterschiede sehen können (auf höchster Bitrate, also nicht kompressionsbedingt). Das sind Aufwände die da betrieben werden, die sollte man lieber in andere Dinge stecken. Und dann noch die teilweise unnötige Treiberarbeit der IHVs. Da runzle ich jedesmal nur die Stirn.

Persönlich hätte ich Hairworks (evtl. auch TressFX) wohl komplett deaktiviert, wenn mir wegen so einer Fitzelchen-Verbesserung plötzlich nur noch ein Bruchteil der FPS dabei rauskommen.

Es ist eigentlich so ein Witz, dass sowas nicht einfach "normal" integriert wird und da jetzt so ein Theater darüber veranstaltet wird.

robbitop
2015-05-28, 11:05:01
@TressFX/Fondness
Das klingt sehr gut.

Hat AMD eigentlich je Tesselation per Treiberprofil begrenzt? Falls sie einen Witcher 3 Treiber bringen, würde es ja Sinn ergeben das gleich auf 16x zu cappen.


Persönlich hätte ich Hairworks (evtl. auch TressFX) wohl komplett deaktiviert, wenn mir wegen so einer Fitzelchen-Verbesserung plötzlich nur noch ein Bruchteil der FPS dabei rauskommen.

Es ist eigentlich so ein Witz, dass sowas nicht einfach "normal" integriert wird und da jetzt so ein Theater darüber veranstaltet wird.
Deutliche Besserung brachten in der Hinsicht: Patch 1.03 (NV/AMD), Reduzierung von MSAA (NV/AMD) und cappen vom Tesslevel (AMD)

Unter den Bedingungen ist Hairworks vom Performance Hit nicht mehr tragisch und weit entfernt von "einem Bruchteil". TressFX @TR war wie gesagt vergleichbar teuer - haben dennoch viele angelassen weil es gut aussah.

fondness
2015-05-28, 11:08:13
Hat AMD eigentlich je Tesselation per Treiberprofil begrenzt? Falls sie einen Witcher 3 Treiber bringen, würde es ja Sinn ergeben das gleich auf 16x zu cappen.

Zumindest nicht das es irgendwann offiziell geworden wäre oder jemand bemerkt hätte.

Kartenlehrling
2015-05-28, 11:11:53
Wenn die Haar nass sind reichen selbst faktor16 nicht.
AMD biete ja die option "AMD optimiert" an, da könnten sie ja auf Faktor32 stellen.

Troyan
2015-05-28, 11:13:41
DX11 erlaubt bis 64x. Jede Einschränkung davon außerhalb der Anwendung wäre ein Verstoß gegen die Spezifikation. Wäre also ziemlich unklug, das zu machen...

robbitop
2015-05-28, 11:14:37
@Kartenlehrling
Stimmt - das habe ich schonmal gehört. Was passiert konkret bei der Option "AMD optimiert"?
Da Fijii mind. Tonga IP Level ist, sollte Tesselation schon ein deutlich geringeres Problem sein. Spätestens ab der FinFet Generation sollten sie dann zu NVs Tess Leistung aufschließen.

IMO war es aus Hardwaresicht auch sinnvoll, es nicht mit der Tessleistung zu übertreiben. Es kam regulär in Spielen ja nur sehr selten vor. Da kann man die Transistoren für andere Dinge sinnvoller verwenden.

DX11 erlaubt bis 64x. Jede Einschränkung davon außerhalb der Anwendung wäre ein Verstoß gegen die Spezifikation. Wäre also ziemlich unklug, das zu machen...
Wäre nicht das erste Mal. Ich möchte nicht wissen, was AMD/NVs Treiber so alles hintenrum machen, damit es gut läuft. Da wird ein Verstoß gegen die DX Spec sicher häufiger mal vorkommen.

Wenn ich mich da an Geometric Instancing @Far Cry 1 (AMD) erinnere... Auch diese ganze Overhead DX11 Optimierungsgeschichte (NV) wird auch das ein oder andere missachten.
Für den Endnutzer ist es am Ende wohl zweitrangig.

Sunrise
2015-05-28, 11:22:53
Das ist doch Quatsch. Niemand muss die Bibliotheken von nVidia nehmen. Wer unbedingt Zugriff auf den Quellcode will, der könnte das ganze auch selbst schreiben.

Es ist doch offensichtlich, dass die Leute den Source Code sehen wollen, weil sie an der IP interessiert sind und nicht an den Effekten. Kostenloses Wissen...

Man muss sich nur mal die Reaktion im Unreal-Thread ansehen. Dort freut man sich, dass nVidia ihre Gameworks-Bibliotheken mit der Engine integrieren.
Irgendwie verstehe ich nicht, was du uns damit sagen willst.

Wir wissen, dass niemand dazu gezwungen wird. Dann kommt ein Beispiel von dir, das eine Vermutung äußert, die aber nichts mit dem zu tun hat, was ich geschrieben habe (s.u.).

Und dass sich irgendjemand freut ist schön (ach, Unreal, was ein Zufall!), ich freue mich aber nicht daran, wenn es jetzt sogar soweit geht, dass sogar schon in die Engine-Entwicklung mit IHV-Closed Source eingriffen wird. Eventuell weil ich auch abschätzen kann, wozu das führen könnte, was ich ja mit meinem Beitrag zum Ausdruck bringe und du sogar noch bestätigst -> der "andere" IHV, der kein Zugriff hat, muss mit Treiberarbeit um den IHV-spezifische Code "rumpatchen".

Das ist also kein Quatsch, sondern soeben eine von dir bestätigte Realität. Das wolltest du vielleicht nicht bewusst so posten, du hast es aber genau so geschrieben.

Kartenlehrling
2015-05-28, 11:23:39
Wenn man sich den vergleich PS4 (TressFX2.3) gegen PC (TressFX1.0) ansieht, muss man sich wirklich fragen wieso sie dieses Update nicht auf den PC nachgereicht haben.
Das Haar fällt natürlicher und koste an Performance nur ein Bruchteil.

https://www.youtube.com/watch?v=KxEwUBPh-bA
PS4 (TressFX2.3) gegen PC (TressFX1.0)

robbitop
2015-05-28, 11:25:02
Wie kann bewertet werden, wie viel TressFX 2.3 kostet? Auf der PS4 ist es doch sicher nicht an/abschaltbar.

Kartenlehrling
2015-05-28, 11:32:07
Auf der Folie steht Faktor 2x,
ausserdem gibt es keine Gummiband Haar worunter TressFX1.0 und auch Hairworks leiden.

Troyan
2015-05-28, 11:34:03
Irgendwie verstehe ich nicht, was du uns damit sagen willst.

Wir wissen, dass niemand dazu gezwungen wird. Dann kommt ein Beispiel von dir, das eine Vermutung äußert, die aber nichts mit dem zu tun hat, was ich geschrieben habe (s.u.).

Und dass sich irgendjemand freut ist schön (ach, Unreal, was ein Zufall!), ich freue mich aber nicht daran, wenn es jetzt sogar soweit geht, dass sogar schon in die Engine-Entwicklung mit IHV-Closed Source eingriffen wird. Eventuell weil ich auch abschätzen kann, wozu das führen könnte, was ich ja mit meinem Beitrag zum Ausdruck bringe und du sogar noch bestätigst -> der "andere" IHV, der kein Zugriff hat, muss mit Treiberarbeit um den IHV-spezifische Code "rumpatchen".

Das ist also kein Quatsch, sondern soeben eine von dir bestätigte Realität. Das wolltest du vielleicht nicht bewusst so posten, du hast es aber genau so geschrieben.

Deine Fixierung auf "Source-Code" ist das, was ich angesprochen habe.
Dieser wird einfach nicht benötigt. Diese Bibliotheken werden eingebunden, getestet und dann bewertet. Basierend darauf wird dann entschieden, ob man sie verwendet.
Du glaubst doch nicht, dass man sich dann noch hinsetzt und in tagelanger Arbeitet den Source-Code analysiert und bewertet. Das ist nur für die Leute interessant, die das Wissen wollen.

Die Aufregung ist doch nur ein Teil der Agenda gegen irgendwelche Sachen, die nVidia macht:
In Batman:AO wurde sich auch über das Cape aufgeregt. Dabei war das ein normales Asset im normalen Source Code von WB - keine verschlossene Black-Box von nVidia. ;D

In Project Cars regt man sich über CPU-PhysX auf. Dabei liegt das frei auf GitHub rum und ist für jeden einsehbar. Wieviele Leute haben das getan und überprüft, ob es irgendwelche komischen Sachen macht, wenn eine nVidia oder AMD Karte eingebaut ist? ;)

Meine Meinung als Programmierer ist: Wer Source-Code will, der kann das ganze selbst erstellen.

N0Thing
2015-05-28, 11:37:49
Diese Aussage vom Entwickler selbst ist bekannt, oder?

"We hope and we are certain that Cyberpunk has even bigger commercial potential. It is too early to talk about it, though. This year, and the next one will be the years of the Witcher," Kicinski said.

Quelle u.a.:
http://www.reuters.com/article/2015/05/26/games-cd-projekt-witcher-idUSL5N0YG1AW20150526

Die bauen jetzt das komplette Jahr 2015 und 2016 noch am Witcher rum. Und wenn da DLCs kommen, die auch angekündigt wurden, ist es sicher nicht abwegig, da mal anzufragen, ob es möglich ist (ohne da zuviel Zeit da rein zu versenken), TressFX auch zu integrieren.

Ich habe die Aussage so verstanden, dass Cyberpunk eben noch nicht im nächsten Jahr ansteht und die Fans von CD Projekt erstmal mit dem Witcher vorlieb nehmen müssen. Dass noch einige DLCs kommen ist ja inzwischen in der Industrie üblich, um die entsprechenden für's Künstlerische zuständige Angestellten beschäftigt zu halten, während anderweitig die Preproduction für das nächste Spiel beginnt und ggf. neue Tools programmiert werden.

@TressFX/Fondness
Das klingt sehr gut.

Hat AMD eigentlich je Tesselation per Treiberprofil begrenzt? Falls sie einen Witcher 3 Treiber bringen, würde es ja Sinn ergeben das gleich auf 16x zu cappen.

Kann ich mir nicht vorstellen, dass AMD das selber vorgeben wird, denn das wird aus allen Ecken als Treibercheat bezeichnet werden. Sie machen es meiner Meinung nach richtig, wenn sie auf den Schalter im Treiber verweisen und die Verantwortung dem Spieler überlassen.

robbitop
2015-05-28, 11:47:50
Rein interessehalber mal zusammengestellt.

In TR:2013 kostet TressFX 28 %
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

In The Witcher 3 kostet Hairworks 26...28 % (GTX980)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

@AMD kostet es mit Tess16x 26...27 %
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/News/Trick-Hairworks-fluessig-AMD-Radeon-Grafikkarten-1159466/

Halbwegs vergleichbar. Schraubt man HW MSAA auf 4x runter kostet es nur noch 18...20 % @AMD/NV.
Spätestens NVs W3 Treiber wird vermutlich von Haus aus dafür sorgen, dass der Performanceabfall auch out of the box vergleichbar mit NV wird.

Andererseits wird bei TR nur Laras Haar bearbeitet - wäre also vergleichbar mit der Hairworkseinstellung "Gerald" - Hairworks kostet dann nur 13...14 %
http://www.geforce.com/whats-new/guides/the-witcher-3-wild-hunt-graphics-performance-and-tweaking-guide#the-witcher-3-wild-hunt-nvidia-hairworks

Wenn TressFX 2 nur halb so teuer ist (was zu beweisen ist - PR Folien sind ja häufig optimistisch), ist man bei einem 14 % Hit. Das ist deutlich besser als Hairworks (all) bzw ähnlich gut wie Hairworks(Gerald) out of the Box und immerhin noch etwas besser als die "optimierte Variante" mit 4xMSAA.

Aber wer weiß wie vergleichbar das Ganze überhaupt ist. Sind zwei völlig verschiedene Spiele mit verschiedenem Content.

Piffan
2015-05-28, 11:50:18
@TressFX/Fondness
Das klingt sehr gut.

Hat AMD eigentlich je Tesselation per Treiberprofil begrenzt? Falls sie einen Witcher 3 Treiber bringen, würde es ja Sinn ergeben das gleich auf 16x zu cappen.


Deutliche Besserung brachten in der Hinsicht: Patch 1.03 (NV/AMD), Reduzierung von MSAA (NV/AMD) und cappen vom Tesslevel (AMD)

Unter den Bedingungen ist Hairworks vom Performance Hit nicht mehr tragisch und weit entfernt von "einem Bruchteil". TressFX @TR war wie gesagt vergleichbar teuer - haben dennoch viele angelassen weil es gut aussah.

Wie fruchtbar die Zusammenarbeit zwischen NV und Red war, sieht man doch, dass es eigens einen Patch braucht....also ich habe den nicht gebraucht, habe das Tess- Cap im Treiber selbst eingestellt. Wer in der Ini noch den Down- Sample- Grad korrigiert, hat wahrscheinlich gar keinen Einbruch mehr, weder hüben noch drüben. Auf meiner alten Ati wuppt und schwingt das offene Haar so blöde, dass ich erstmal zum Friseur in Oxenfurth war. Kopf rasiert und Pferdeschwanz. Schluss mit dem Mumpitz.......:freak:

Mal ersnst: Sowas kann man nicht gut finden. Mal die Brille ab und "normal" gucken. Man muss Geralt nicht wie den Letho rumrennen lassen, aber als Gigolo nun auch nicht.

robbitop
2015-05-28, 11:51:52
Ich glaube nicht, dass Patch 1.03 den Tesselationsgrad verändert hat.

kruemelmonster
2015-05-28, 11:56:13
Oder sie entwickeln es selbst. Oder kaufen es woanders zu. IMO sollten IHVs da gänzlich ihre Finger von lassen. Nichteinmal Sourcecode - gar nichts.

Das wäre dann die Lieblich-Knuffeltal-Lösung, blendet aber komplett aus warum GW überhaupt erst entstanden ist bzw entstehen musste:

Konsolenports werden ~ 1:1 zum PC durchgereicht da die Publisher die Mehrkosten für die Nische Highend Gamer scheuen. Die IHV ihrerseits sitzen auf zig intern entwickeltem Zeugs (wie HBAO+) das mit viel Glück ein paar Jahre später in die Unreal Engine integriert wird.
Unbefriedigend für alle Parteien, deshalb musste in der realen Welt imo zwangsläufig ein IHV aktiv werden. Klar, im Lieblich-Knuffeltal könnte man sich eine geteilte Libary zwischen allen IHVs wünschen, ohne Schaffung von Unique Selling Points...ist halt nur nicht realistisch.

fondness
2015-05-28, 12:02:11
Und wo genau hat das ganze NV-Zeug wirklich einen Mehrwert gebracht? Wenn man ehrlich ist werden die Effekte größtenteils schlecht implementiert und kosten verdammt viel Leistung. Gerade GPU-PhysX war größtenteils unbrauchbar. Man merkt eben das die Entwickler solche Management-Entscheidungen nicht wollen und sich da offenbar nicht viel Mühe geben. Dazu kommt dann noch das NV damit eh nur das Ziel verfolgt die Konkurrenz auszubremsen, wodurch mittlerweile fast alles mit 64x Tesslation implementiert wurde.

Sunrise
2015-05-28, 12:03:57
Deine Fixierung auf "Source-Code" ist das, was ich angesprochen habe.
Dieser wird einfach nicht benötigt. ... Meine Meinung als Programmierer ist: Wer Source-Code will, der kann das ganze selbst erstellen.
Du willst mir bzw. uns jetzt also erzählen, dass es nicht aufwändiger für die IHV-Treiberteams ist, auf eine Engine oder ein Spiel zu optimieren, wenn du die relevanten Teile des Hairworks-Codes nicht kennst? Das will ich mal ganz stark anzweifeln. Denn wenn man etwas nicht sicher weiß, muss man sich dem optimalen Zusammenspiel mehrerer Komponenten mit sehr viel Mehrarbeit _manuell_ nähern (Analyse-Tools oder wie auch immer).

Es geht mir dabei auch überhaupt nicht um die Inhalte (das hattest nur du angeführt, was ich als Vermutung beantwortet hatte, weil ja auch überhaupt nicht der Punkt, um den es mir ging), sondern um einfachere und bessere (weil schneller) Treiberoptimierung auf eine jeweilige HW-Architektur.

Die Analyse-Tools reichen also immer perfekt aus um die HW perfekt darauf optimieren zu können? Und wieviel mehr Zeit wird dafür dann benötigt und wie optimal soll dieses Ergebnis dann sein?

Sowas kann mir eigentlich nur jemand beantworten, der auch selbst Treiber schreiben muss und der sollte normalerweise alle Parameter kennen (HW und Software). Mal davon ab, dass ich es in Gänze stark anzweifle, weil ich selbst tief beim Thema sehr komplexer Analysen stecke, und da ist es immer extrem schwierig, wenn ich nicht alle Daten habe.

Generell stimme ich dir zu, wenn du bestimmte Effekte willst, dann erstelle sie selbst. Sowas sollte kein IHV übernehmen (müssen).

Kartenlehrling
2015-05-28, 12:03:59
Haben sie eigentlich das Gummiband Haar in Hairworks auch beseitig?

Raff
2015-05-28, 12:05:00
Rein interessehalber mal zusammengestellt.

In TR:2013 kostet TressFX 28 %
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

In The Witcher 3 kostet Hairworks 26...28 % (GTX980)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

@AMD kostet es mit Tess16x 26...27 %
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/News/Trick-Hairworks-fluessig-AMD-Radeon-Grafikkarten-1159466/

Halbwegs vergleichbar. Schraubt man HW MSAA auf 4x runter kostet es nur noch 18...20 % @AMD/NV.
Spätestens NVs W3 Treiber wird vermutlich von Haus aus dafür sorgen, dass der Performanceabfall auch out of the box vergleichbar mit NV wird.

Andererseits wird bei TR nur Laras Haar bearbeitet - wäre also vergleichbar mit der Hairworkseinstellung "Gerald" - Hairworks kostet dann nur 13...14 %
http://www.geforce.com/whats-new/guides/the-witcher-3-wild-hunt-graphics-performance-and-tweaking-guide#the-witcher-3-wild-hunt-nvidia-hairworks

Wenn TressFX 2 nur halb so teuer ist (was zu beweisen ist - PR Folien sind ja häufig optimistisch), ist man bei einem 14 % Hit. Das ist deutlich besser als Hairworks (all) bzw ähnlich gut wie Hairworks(Gerald) out of the Box und immerhin noch etwas besser als die "optimierte Variante" mit 4xMSAA.

Aber wer weiß wie vergleichbar das Ganze überhaupt ist. Sind zwei völlig verschiedene Spiele mit verschiedenem Content.

Gut, dass du Tomb Raider erwähnst. Das spiele ich gerade mal wieder durch ("Koop" mit der schöneren Hälfte ;)) und sobald Laras Mähne bildfüllend zu sehen ist, unterscheidet sich das in Sachen Fps-Einbruch nicht von Hairworks in The Witcher 3. Ich habe die Hard Facts (Strähnen, Polygone, Glättung) nicht auswendig gelernt, aber teuer ist beides – und beides ist verhältnismäßig hübsch (auch wenn hier manche Leute alles ungeil finden). Was ich sagen will: Zumindest auf GK110, wie wir's spielen, ist TressFX 1.0 immer noch sehr teuer, die exzessive Treiberoptimierung im Laufe des Jahres 2014 hat daran nur wenig geändert. TressFX 2.0 muss am PC erst beweisen, dass das deutlich besser ist, ohne hässlicher zu werden. Wobei, auf den hüftlahmen Konsolen läuft's bereits gut ... ;)

MfG,
Raff