PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21

Gimmick
2015-01-08, 10:17:20
Neuer Post wegen Grafikbeschränkung:

konkret die Low-FPS Szenen:



Tess Niedrig:
http://fs2.directupload.net/images/150108/9gjlsg9k.jpg

Hoch:
http://fs1.directupload.net/images/150108/hyk84gs7.jpg

Niedrig:
http://fs1.directupload.net/images/150108/pg7ynsqm.jpg

Hoch:
http://fs1.directupload.net/images/150108/jachlrgp.jpg



So ganz gleich hab ichs nicht erwischt, beim Monster sieht man aber zumindest einen kleinen Unterschied am Bauch, bei den Charakteren sehe ich jetzt nichts.

Kartenlehrling
2015-01-08, 10:18:19
mit faktor 8 sind es aber zuwenig Haarsträhen, bei der Drachenhaut könnte ich wohl damit leben.
Ab TressFX2.0 wird ja auch zusätzlich die dicke der Haare beeinfluss, das wird durch den Treibereingriff ja nicht verändert.

TressFX 2.0 - Verbesserte Performance

Das Performance-Problem hat AMD mit neuen, feiner aufgelösten und doch sparsamer zu berechnenden Schatten sowie einem LoD-System entschärft. Die Schatten werden nun nur dort berechnet, wo sie auch gesehen werden, gleiches gilt für die Haarsträhnen. Weiterhin wird nun auch die Entfernung der Haare zur Kamera berücksichtigt. Bei der Vorgänger-Version wurden die Haare komplett berechnet, also auch in den Fall, wenn sich die Figur weit von der Kamera entfernt befand und beschränkt durch die Auflösung gar nicht alle Strähnen dargestellt werden konnten. Dies wurde mit TressFX 2.0 behoben. Ein klassisches LOD-System wie bei Polygon-Modellen funktioniert bei den Haaren nicht, daher wurde ein anderer Kniff angewandt: Entfernt sich die Kamera von dem Haarschopf, wird die Anzahl der Haarsträhnen reduziert, ihre Dicke aber gleichzeitig erhöht. So kann die Illusion eines gleichbleibenden Detailgrades realisiert werden, gleichzeitig der Rechenaufwand aber stark reduziert werden. Laut AMD konnten mit diesen Anpassungen die Performance-Einbußen mehr als halbiert werden.

Gimmick
2015-01-08, 10:57:37
mit faktor 8 sind es aber zuwenig Haarsträhen, bei der Drachenhaut könnte ich wohl damit leben.
Ab TressFX2.0 wird ja auch zusätzlich die dicke der Haare beeinfluss, das wird du den Treibereingriff ja nicht verändert.

Ja Faktor 8 finde ich auch etwas zu wenig. Dafür sieht 16 oder 32 fast besser aus als 64 ^^
Das ist aber kein TressFX, das ist Hairworks.

Kartenlehrling
2015-01-08, 11:12:47
Das weiss ich, wollte nur noch darauf hinweisen das im bezug auf die Haar man nicht einfach im treiber die Tessllation reduzieren und glücklich sein kann.
in 5 Monate kommt ja Witcher3, erst dann werde ich mit Matsch und Dreck werfen, wenn Nvidia das versauen :)

Skysnake
2015-01-08, 11:23:36
Ja Faktor 8 finde ich auch etwas zu wenig. Dafür sieht 16 oder 32 fast besser aus als 64 ^^
Das ist aber kein TressFX, das ist Hairworks.
Das hab ich mir auch gedacht ;D

Loeschzwerg
2015-01-08, 11:40:14
Benchmarks mit verschiedenen Tess-Leveln:

Die Min-FPS schwanken ziemlich von Durchgang zu Durchgang, eine Tendenz ist aber erkennbar.

http://fs2.directupload.net/images/150108/wf52q8ph.jpg

Vergleichsbilder:


http://fs2.directupload.net/images/150108/lfkathys.jpg

http://fs2.directupload.net/images/150108/u5azo6nv.jpg

http://fs1.directupload.net/images/150108/t9kp4fr6.jpg

http://fs2.directupload.net/images/150108/gzx6rkno.jpg

http://fs1.directupload.net/images/150108/uq5tr3id.jpg

http://fs2.directupload.net/images/150108/eoq6av3z.jpg

http://fs2.directupload.net/images/150108/n4rcgw8t.jpg



Bilder 2:



http://fs1.directupload.net/images/150108/cj5pbtgw.jpg

http://fs1.directupload.net/images/150108/pp2np7bh.jpg

http://fs2.directupload.net/images/150108/x3yi9f8j.jpg

http://fs2.directupload.net/images/150108/kdfm5d7q.jpg

http://fs2.directupload.net/images/150108/45ay62x7.jpg

http://fs1.directupload.net/images/150108/wugnc3yr.jpg

http://fs2.directupload.net/images/150108/sxtd6u5c.jpg



Danke für die Vergleichswerte :)

Was sagt uns das aber? Die Einschnitte sind primär beim Tess Faktor zu suchen und nicht an Gameworks als solches.

NV nutzt hier halt wieder schamlos die Tess Schwäche der AMD Karten aus.

Bescheiden finde ich dass sich im Spiel/Benchmark diesbezüglich nichts einstellen lässt... so könnte man besser mit NV Karten vergleichen.

Gimmick
2015-01-08, 12:06:23
Danke für die Vergleichswerte :)

Was sagt uns das aber? Die Einschnitte sind primär beim Tess Faktor zu suchen und nicht an Gameworks als solches.

NV nutzt hier halt wieder schamlos die Tess Schwäche der AMD Karten aus.

Bescheiden finde ich dass sich im Spiel/Benchmark diesbezüglich nichts einstellen lässt... so könnte man besser mit NV Karten vergleichen.

Weiß nicht ob man das so trennen kann, da ja (fast?) jeder Gameworks-Effekt irgendwie über Tessellation läuft.
Auf mich macht es auch irgendwie einen leicht schlampigen Eindruck was den Spiele-Entwickler angeht. Da wird wieder, wie schon in C2, einfach alles mit maximalem Tess-Faktor vollgeballert ohne sich irgendwie Gedanken zu machen (Absicht will ich jetzt mal außen vor lassen).
Das Fell sieht auch in FC4 mit etwas weniger Tessellation besser aus, bei den God Rays sieht man überhaupt keinen Unterschied zwischen hoch und niedrig und bei den Monstern bei Monster Hunter Online hätte es auch weniger getan.
Das würde bestimmt auch nV-GPUs zu gute kommen. Erinnert aber auch direkt wieder an einen der ersten Vorwürfe von AMD bezogen auf den Umhang von Batman, der ja auch übertrieben stark tesselliert wurde.
Hoffe, dass sich das Thema mit der kommenden AMD Generation endlich mal erledigt hat.

Skysnake
2015-01-08, 12:43:01
Aber mit weniger Tess würde die Konkurrenz nicht so stark einbrechen, man selbst im Verhältnis also nicht so gut dastehen. Zudem nötigt man den Leuten stärkere GPUs auf...

Gimmick
2015-01-08, 13:11:30
Aber mit weniger Tess würde die Konkurrenz nicht so stark einbrechen, man selbst im Verhältnis also nicht so gut dastehen. Zudem nötigt man den Leuten stärkere GPUs auf...

Das ist wohl wahr ;)

Btw. die Min FPS bis Tess16 sind wohl CPU bedingt, hab da fast 90% Auslastung :freak:

http://fs1.directupload.net/images/150108/xjeisuq8.gif

Knuddelbearli
2015-01-08, 13:41:12
Aber mit weniger Tess würde die Konkurrenz nicht so stark einbrechen, man selbst im Verhältnis also nicht so gut dastehen. Zudem nötigt man den Leuten stärkere GPUs auf...

Scheiss egal wenn wir für absolut keinen Vorteil um 50% einbrechen solange die Konkurrenz dann 70% einbricht...

Da bekommt man auch als NVler das Kotzen ...

Skysnake
2015-01-08, 13:44:04
Tja, das ist aber die Logik von so manchem BWLer, und zudem wurde das schon oft in Bezug auf nVidia und insbesondere Tesselation/GameWorks angesprochen.

Normal hört man dann aber nur Plattitüden im Sinne von "nVidia tut eben etwas für den Gamer und bringt den Markt weiter" :rolleyes:

StefanV
2015-01-08, 14:01:06
Das Traurige ist irgendwie, dass alle negativen Behauptungen bezüglich Gameworks sich nach und nach bestätigen zu scheinen. Und keiner will wirklich was dagegen tun und der Shitstorm bleibt leider ebenso aus, obwohl dieser Zustand alle betrifft und es alle benachteiligt....

Loeschzwerg
2015-01-08, 14:13:46
Ein Shitstorm der noch weniger bewirken würde als ein Shitstorm zu einem Kopierschutz... Bei gefühlt 3 Titeln ist es das ehrlich gesagt nicht wert.

Wichtig ist dass die Redaktionen bzw. Tester solche Titel nicht unbedingt in das Benchmark Lineup übernehmen. Das hätte am meisten Tragweite.

Mancko
2015-01-08, 14:17:49
Ja, richtig und AMD hat unendlich resourcen, um sich solch eine Aktion leisten zu können
Scheint mir aber AMDs Thema zu sein. Ist ja nun nicht das Problem von anderen. Du kannst ja jetzt wohl nicht ernsthaft erwarten, dass die allgemeinen Markt- und Wettbewerbsbedingungen möglichst optimal für AMD ausgelegt werden. Die müssen schon selber sehen wie sie zurecht kommen. Ist ja schließlich eine Unternehmung und für Fehlentscheidungen und Geld versenken bei AMD in der Vergangenheit kannst nun mal nicht Nvidia verantwortlich machen.

N0Thing
2015-01-08, 14:21:55
Ein Shitstorm der noch weniger bewirken würde als ein Shitstorm zu einem Kopierschutz... Bei gefühlt 3 Titeln ist es das ehrlich gesagt nicht wert.

Wichtig ist dass die Redaktionen bzw. Tester solche Titel nicht unbedingt in das Benchmark Lineup übernehmen. Das hätte am meisten Tragweite.

Oder auch Benchmarks ohne Gameworks hinzu nehmen und Bild-/Videovergleiche anbieten. Dann kann sich jeder selber einen Eindruck verschaffen und der Einfluss auf die Performance durch Gameworks wäre auch transparenter.

Loeschzwerg
2015-01-08, 14:31:50
Ja, so eine gesonderte Betrachtung kann man immer machen, sofern möglich. Da bietet MHO z.B. leider zu wenig.

Ich meinte aber eher das Gesamtranking ähnlich CB usw. :)

Kriton
2015-01-08, 14:53:37
Wichtig ist dass die Redaktionen bzw. Tester solche Titel nicht unbedingt in das Benchmark Lineup übernehmen. Das hätte am meisten Tragweite.

This!

M4xw0lf
2015-01-08, 14:59:39
Ein Shitstorm der noch weniger bewirken würde als ein Shitstorm zu einem Kopierschutz... Bei gefühlt 3 Titeln ist es das ehrlich gesagt nicht wert.

Wichtig ist dass die Redaktionen bzw. Tester solche Titel nicht unbedingt in das Benchmark Lineup übernehmen. Das hätte am meisten Tragweite.

Es hat mehr als genug Tragweite, wenn ein von einem Millionenpublikum erwarteter AAA-Titel wie The Witcher 3 mit empfohlenen Hardwarekonfigurationen wie "GTX770 oder R9 290" daherkommt.
Wetten werden angenommen, mit was für Settings die empfohlene Hardware ermittelt wurde.
Minimal sind es dagegen GTX660 oder HD7870 - da ist zwar auch die Radeon etwas stärker einzuschätzen, aber sie wird nicht mit einer Geforce einer anderen Leistungsklasse gleichgestellt, so wie die 290 der 770 - die minimalen Settings beinhalten wohl kein Gamemurks.

Loeschzwerg
2015-01-08, 16:47:57
Es hat mehr als genug Tragweite, wenn ein von einem Millionenpublikum erwarteter AAA-Titel wie The Witcher 3 mit empfohlenen Hardwarekonfigurationen wie "GTX770 oder R9 290" daherkommt.
Wetten werden angenommen, mit was für Settings die empfohlene Hardware ermittelt wurde.
Minimal sind es dagegen GTX660 oder HD7870 - da ist zwar auch die Radeon etwas stärker einzuschätzen, aber sie wird nicht mit einer Geforce einer anderen Leistungsklasse gleichgestellt, so wie die 290 der 770 - die minimalen Settings beinhalten wohl kein Gamemurks.

Wie wäre es das Spiel nicht zu kaufen? Ach warte... das funktioniert ja schon bei den herb verbuggten Ubisoft und sämtlichen DRM gepeinigten Spielen nicht :freak:
Beide Themen schlagen weit größere Wellen und was hat es gebracht? Nix :)

Die traurige Wahrheit.

Abgesehen davon interessiert es von diesem Millionenpublikum im PC Bereich (hoffentlich schaffen Sie die Verkaufszahlen) lediglich die HW versierte Fraktion => quasi Bruchteil

Bei Metro Last Light tauchten bei den "Optimum" Anforderungen nicht mal AMD Karten auf. Klar, u.a. wegen PhysX. Wie groß war der Aufschrei?

Wichtig bei Witcher 3 wäre, dass man die Gameworks Optionen (Tess Level, HBAO+ usw...) entsprechend konfigurieren kann. Falls ja, wäre doch alles ok :)

Edit: Versteht mich nicht falsch, klar könnt ihr einen Shitstorm anzetteln und euren Frust in die Welt schreien. Da will ich euch gewiss nicht davon abhalten :) Nur in diesem Fall sehe ich noch weniger Erfolg als bei anderen Themen... Da trink ich lieber nen Bier und schone meine Nerven ^^

captain_drink
2015-01-08, 16:55:50
Oder auch Benchmarks ohne Gameworks hinzu nehmen und Bild-/Videovergleiche anbieten. Dann kann sich jeder selber einen Eindruck verschaffen und der Einfluss auf die Performance durch Gameworks wäre auch transparenter.

Benchmarks wurden und werden auch mit Dirt Showdown, Tomb Raider u.a. Titel, in denen AMD nicht nur aber, auch aufgrund der Entwicklerkooperation NV durchweg abzieht, gemacht. Solche, in denen beide IHV vergleichbar bzw. ihrer Leistungs- und Preisklasse gemäß abschneiden, sind die absolute Ausnahme, weshalb man eher Wert darauf legen sollte, dass sich die AMD-/NV-Titel in etwa die Waage halten, v.a. bzgl. Indices.

blaidd
2015-01-08, 17:16:09
Es hat mehr als genug Tragweite, wenn ein von einem Millionenpublikum erwarteter AAA-Titel wie The Witcher 3 mit empfohlenen Hardwarekonfigurationen wie "GTX770 oder R9 290" daherkommt.
Wetten werden angenommen, mit was für Settings die empfohlene Hardware ermittelt wurde.

Genau diese Fragen (u.A.) habe ich mal CD Project zukommen lassen. Auch ein paar zu Gameworks. Ich bin mal gespannt.

aufkrawall
2015-01-08, 17:25:48
Kein Publisher bei Verstand würde die Mindestanforderungen nur durch GW so verzerren lassen.
Zumindest nicht, ohne sich das vergolden zu lassen.

Ist nicht nur asozial von NV, sondern auch noch selten dämlich, sich selbst so das Image zu versauen.
Als ob das Spiel schlecht für GCN optimiert wäre, wenn es NextGen only ist...

N0Thing
2015-01-08, 17:26:51
Benchmarks wurden und werden auch mit Dirt Showdown, Tomb Raider u.a. Titel, in denen AMD nicht nur aber, auch aufgrund der Entwicklerkooperation NV durchweg abzieht, gemacht. Solche, in denen beide IHV vergleichbar bzw. ihrer Leistungs- und Preisklasse gemäß abschneiden, sind die absolute Ausnahme, weshalb man eher Wert darauf legen sollte, dass sich die AMD-/NV-Titel in etwa die Waage halten, v.a. bzgl. Indices.

Bei Tomb Raider wurden Benchmarks mit und ohne TressFX erstellt (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/), wie auch bei Showdown Benchmarks mit und ohne AMDs HDAO gemacht wurden (http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/).
Ich sehe deshalb keinen Grund, warum man dies bei Gameworks-Titeln nicht fortsetzen sollte.

Eine ganz andere Baustelle sind Performance-Indizes, da sollte es eine gute Mischung aus populären Titeln und solchen mit sonst nicht vertretenen Engines und APIs sein. Durch eine größere Anzahl an Titeln wiegt ein eventueller einzelner Ausweisser auch nicht mehr so schwer.

aufkrawall
2015-01-08, 17:34:56
Ich würde für Highend-Karten schon erwarten, dass einmal mit und einmal ohne IHV-Features gebencht wird.
HBAO+ und HDAO+ würd ich aber eigentlich als Standard ansehen und immer mitbenchen.

HDAO+ scheint in Alien: Isolation übrigens richtig gut zu funktionieren. Mir sind noch keine SSAO-Artefakte aufgefallen.

Kartenlehrling
2015-01-08, 17:43:11
Bei Metro Last Light tauchten bei den "Optimum" Anforderungen nicht mal AMD Karten auf. Klar, u.a. wegen PhysX. Wie groß war der Aufschrei?



Bei so einem Spiel das man in 5-7std. durchspielt ist mir das auch egal, die entwickler machen sich damit selbst die Verkaufszahlen kaputt.
Bei witcher3 erwarte ich 80-120std., da würde ein vermatschtes und ruckliges spiel einfach ein weiterspielen bremsen.

Monster-Hunter Online ist hoffentlich nicht die Zukunft, capcom hat seit 15Jahren für "mich" nichts mehr gebracht, wo ich sagen würde das muss ich haben.
Und Technisch ist capcom sowieso unter aller Sau.

Loeschzwerg
2015-01-08, 18:44:10
Bei witcher3 erwarte ich 80-120std., da würde ein vermatschtes und ruckliges spiel einfach ein weiterspielen bremsen.


Nicht wenn du entsprechend Einstellungen treffen kannst um den Gameworks Ballast abzustellen.

Vermatscht wird da eigentlich nichts, du verzichtest auf ein paar exklusive und evtl. unnötige Effekte. Keiner redet davon etwas an der Auflösung und Texturqualität ändern zu müssen.

Blediator16
2015-01-08, 18:56:34
Nicht wenn du entsprechend Einstellungen treffen kannst um den Gameworks Ballast abzustellen.

Vermatscht wird da eigentlich nichts, du verzichtest auf ein paar exklusive und evtl. unnötige Effekte. Keiner redet davon etwas an der Auflösung und Texturqualität ändern zu müssen.

Das ist nur ein Teil des Problems. Hier im Forum im Spielebereich lese ich etwas von "wow durch Nvididas GW Programm sehen die Spiele schon viel schöner aus". Dabei sind das nichtmal besondes krass innovative Technologien, sondern 0815 Zeug, was sich die BWLer bei UBI und in dem Fall CD auf die Nase gebunden bekommen haben inkl. einiger $$ und mit dem "AMD tut nie was" haben die Verbraucher und AMD zu kämpfen. Währen man bei AMD ständig zwei Spiele aufzählt, kann man bei Nvidia ein "Dutzend" aufzählen, wo scheinbar einfach nur Scheisse gebaut wurde. TR und Grid sind nur 2 GE Titel, wo es angeblich super Unfair war während die anderen alle ausgeglichen waren und GE Titel sind sicher mehrere in den letzten Jahren rausgekommen.


Das GW Programm bringt keinem Verbraucher was sowohl mir als Nvidia Nutzer als auch AMD Karten Nutzer.

Loeschzwerg
2015-01-08, 19:46:55
Wieviele GW Titel sind es bis jetzt?

M4xw0lf
2015-01-08, 19:51:10
Genau diese Fragen (u.A.) habe ich mal CD Project zukommen lassen. Auch ein paar zu Gameworks. Ich bin mal gespannt.
Ich hoffe auf Balázs Török, und dass er genauso offen antwortet wie letztes mal. (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/)

(Beispiel:
Török Balázs: Das Problem mit der Rauchdarstellung durch APEX-Turbulence ist, dass der Effekt ausschließlich durch die GPU dargestellt werden kann. Turbulence ist eines der Module, die nur auf durch die GPU berechnet werden können und es funktioniert - zumindest in diesem Moment - nur mit Nvidia-Grafikkarten. Wir denken darüber nach, es zu implementieren. Aber diese Entscheidung liegt, um ehrlich zu sein, weniger auf der Programmierer-Seite, sondern ist mehr eine Bussiness-Sache. Und es ist kein Effekt, der notwendigerweise einen Vorteil für das Spielgefühl oder die Immersion des Spielers bringt.)
Vermute aber fast, dass stattdessen jemand der weniger unverblümt ist vorgeschickt wird. ;)

Kartenlehrling
2015-01-08, 19:59:46
Für diese Aussage musste er bestimmt sein ganzes Weihnachsgeld in das Plapper-und Phrasenschwein reinwerfen.
Und ist für alle Ausdienstlichentätigkeiten für ganze Leben gesperrt.

Blediator16
2015-01-08, 20:05:47
Wieviele GW Titel sind es bis jetzt?

Ich rede neben den GW Titeln ebenfalls über Dinge wie C2 Tess und Batman Cape und AMD Antialiasing "Bug" und AC DX10 rauspatchen.

http://www.hardocp.com/article/2015/01/07/far_cry_4_video_card_performance_review#.VK7VRCuG8fg

Der brandaktuelle FC4 Test, wo nur Maxwell das macht, was er soll. Kepler macht da scheinbar wohl nicht mehr mit und wird quasi von der 290 zerstört. Was für ein Zufall.

Nvidia sollte Ubi fallen lassen und GW auf Facebook Browserspiele umlagern, damit der Verbraucher mit diesem Blackbox Müll in Ruhe gelassen wird.

Loeschzwerg
2015-01-08, 20:12:37
Jetzt macht man es halt "offensichtlicher" :D Ist doch besser für uns, weiß man gleich was Sache ist :freak:

Blediator16
2015-01-08, 20:15:23
Bis auf das Argument "besser für den Entwickler, da Zeitersparung" gibts da noch andere? Mir fällt keins ein und sonst habe ich nichts positives für mich als Verbraucher sehen können.

Mancko
2015-01-08, 20:23:00
Doch Exklusivfeatures für den Nvidia Kunden. Der bezahlt ja schließlich für Nvidia Hardware und nicht für AMD Hardware.

Das generell die Effekte auch genutzt werden um den Hardwarehunger zu erhöhen ist doch klar. Das hat die Wintel Allianz über mehr als ein Jahrzehnt gemacht. Unser Wirtschaftssystem basiert auf Wachstum. Ob das nun gut oder schlecht ist lass ich mal dahingestellt sein. Es ist aber nunmal so. Also müssen immer wieder Produkte an den Mann gebracht werden. Sprich alle Hersteller müssen darauf achten die optimalen Halbwertszeiten für Ihre Produkte zu finden, damit der Käufer nachkauf.

Bei einfachen Küchengeräten wie Mixern und ähnlichem tritt der Tot meißt schon kurz nach 2 Jahren ein. Bei Apple iPhones erledigt der Akku das Problem und bei Digitalkameras tritt der Tot auch immer häufiger schon nach ein paar Jahren ein. Wenn das alles langlebig wäre und der Bedarf zu Erneuerung nicht da wäre, könnten sich Millionen Menschen neue Jobs suchen.

Es ist wie es ist.

Blediator16
2015-01-08, 20:27:01
Doch Exklusivfeatures für den Nvidia Kunden. Der bezahlt ja schließlich für Nvidia Hardware und nicht für AMD Hardware.



Die da wären?
Ausserdem laufen diese GW Features nur mit den neusten und teuersten Karten von Nvidia und das bringt sicher die Pcmasterrace vorran:biggrin:

blaidd
2015-01-08, 20:32:52
Ich hoffe auf Balázs Török, und dass er genauso offen antwortet wie letztes mal. (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/)

Vermute aber fast, dass stattdessen jemand der weniger unverblümt ist vorgeschickt wird. ;)

Nett wär's... ich geh aber auch eher von Letzterem aus :wink:

Aber selbst wenn um alle Fragen nur herumgesülzt wird, beantwortet das ja oft genug auch was...

Beispiel:
PCGH: Kann Mantle die KI-Berechnungen signifikant unterstützen und so die Rundenzeiten der CPU-Gegner verkürzen?

John Kloetzli: Mantle ist für unsere Grafiktechnologie ein großer Schritt nach vorn und wir versuchen weiterhin, zu optimieren und uns zu verbessern. Die KI-Performance ist etwas, was uns sehr wichtig ist und wir haben daran gearbeitet, unsere Leistung in diesem Bereich zu verbessern.

Nein. :wink:

Loeschzwerg
2015-01-08, 20:33:32
Die da wären?
Ausserdem laufen diese GW Features nur mit den neusten und teuersten Karten von Nvidia und das bringt sicher die Pcmasterrace vorran:biggrin:

Man bezahlt den NV Aufschlag um die künstliche AMD Bremse zu umgehen :D *wenn man es so sehen will*

Wie verhält man sich als Verbraucher richtig? Eigentlich durch Verzicht. Macht nur keiner.

M4xw0lf
2015-01-08, 20:34:34
Nett wär's... ich geh aber auch eher von Letzterem aus :wink:

Aber selbst wenn um alle Fragen nur herumgesülzt wird, beantwortet das ja oft genug auch was...

Beispiel:


Nein. :wink:
Stimmt. Aber ich bin altmodisch und mag es, wenn jemand sagt was Sache ist. :freak:

Skysnake
2015-01-08, 23:44:43
Man bezahlt den NV Aufschlag um die künstliche AMD Bremse zu umgehen :D *wenn man es so sehen will*

Wie verhält man sich als Verbraucher richtig? Eigentlich durch Verzicht. Macht nur keiner.
Falsch, ich verzichte seit Jahren auf sehr viele Dinge sehr konsequent.

Loeschzwerg
2015-01-09, 07:03:57
Fein fein, dann sind wir ja schon zu zweit :) Hab mir für den PC schon seit Ewigkeiten keine Ubisoft Spiel mehr gekauft und von den Batman Teilen habe ich auch noch keinen gezockt/gekauft ^^

Bei The Witcher 3 werde ich aber zu 100% schwach... 1 und 2 waren einfach schon zu genial.

In jedem Fall bin ich gespannt was blaidd da für eine Antwort bekommt.

M4xw0lf
2015-01-09, 09:57:19
Verzichten ist beim Hexer keine Option, ich hatte das Spiel schon vorbestellt bevor es angekündigt war :freak:

Air Force One
2015-01-09, 14:12:44
Eins verstehe ich nicht ganz.
nVdia entwickelt ja Features die besser aussehen UND mehr Leistung kosten.

Ich würde es ja eher begrüßen die Standard Qualität zu bekommen aber dafür mehr Performance oder eben bessere Effekte bei gleich bleibender Performance.

Weil...wenn ein Spiel nur zu 10% besser ausschaut und es mich 30%-40% Leistung kostet...neeeeee

Bin da aber wohl auch dann der falsche Kunde.

aufkrawall
2015-01-09, 14:17:00
HBAO+, PCSS & Lightshafts waren doch auf NV-Hardware bisher nicht nennenswert teurer.
Simulationen wie Haare, Flüssigkeiten oder Licht-Rays brauchen immer verhältnismäßig viel Leistung.

Kartenlehrling
2015-01-09, 14:25:40
PCSS

schatten brauch viel,
und in Farcry4 sieht man doch das gerade wenn man die Qualität reduziert anscheinen ab einer bestimmt stufe dann alles auf die CPU abwälzt wird und
damit drückt man nochmehr aufs CPU-Limit.

http://international.download.nvidia.com/geforce-com/international/images/far-cry-4/far-cry-4-shadow-quality-performance-640px.png
http://www.geforce.com/whats-new/guides/far-cry-4-graphics-performance-and-tweaking-guide



Ist das PCSS eigentlich in Farcry4 ergraut bzw. für AMD User nicht nutztbar?
Weil es ja eine 6 Jahre alte Funktion ist, die Demo kann auf jedenfall jede DX10 AMD Grafikkarte auch.

http://developer.download.nvidia.com/SDK/10.5/Samples/PercentageCloserSoftShadows.zip
Percentage Closer Soft Shadows (PCSS)

Kriton
2015-01-09, 14:27:05
Doch Exklusivfeatures für den Nvidia Kunden. Der bezahlt ja schließlich für Nvidia Hardware und nicht für AMD Hardware.


Exklusivfeatures für Nvidia-Kunden mit der jeweils aktuellen Generation. Ich kann darin nur sehr eingeschränkt etwas Positives sehen. Positiver wäre jedenfalls IMHO wenn alle prinzipiell (abhängig von der Leistungsfähigkeit ihrer HW) die Features hätten.
Ich ziehe keinen besonderen Nutzen daraus als Nvidia-Besitzer Dinge zu sehen, die (mir unbekannte) AMD-Nutzer nicht haben.
Sehen wir auf diesem Wege Features die wir sonst nicht hätten? Ich glaube nicht. Sie würden ansonsten auch realisiert werden entweder von den Spiele- oder Engine-Entwicklern oder auch den IHVs.

Zu Witcher 3: Verdammt, meine Grafikkarte packt die Minimalanforderungen nicht. :usad: Dabei wollte ich warten bis definitiv DX12-HW-Support angeboten wird.

aufkrawall
2015-01-09, 14:27:42
Da ist doch genau das abgebildet, was ich gesagt habe.

Grestorn
2015-01-09, 16:28:47
Eins verstehe ich nicht ganz.
nVdia entwickelt ja Features die besser aussehen UND mehr Leistung kosten.

Ich würde es ja eher begrüßen die Standard Qualität zu bekommen aber dafür mehr Performance oder eben bessere Effekte bei gleich bleibender Performance.

Weil...wenn ein Spiel nur zu 10% besser ausschaut und es mich 30%-40% Leistung kostet...neeeeee

Bin da aber wohl auch dann der falsche Kunde.

Wie misst Du "besser aussehen", so dass Du eine Zahl wie 10% daneben schreiben kannst?

Außerdem mach Dich mal das Prinzip des sinkenden Grenzertrags (http://de.wikipedia.org/wiki/Ertragsgesetz) vertraut. Kurz gesagt: Je besser und optimaler etwas ist, desto teurer wird eine weitere Verbesserung bei gleichzeitig immer kleiner werdendem Effekt.

In den 90ern und 2000ern gab es riesen Sprünge bei jeder Grafik-Generation. Heutzutage werden die Sprünge immer kleiner, der technische Aufwand ist aber gigantisch.

Fact of Life.

Hübie
2015-01-09, 16:37:39
Anders ausgedrückt: jeder weitere, zusätzliche Nutzen nimmt stetig ab. Dein Gedanke beschreibt es auch am besten, grestorn.

Schnoesel
2015-01-09, 19:16:18
Tja wenn ich mir die News so durchlese und den Link dazu bei HT4U

http://ht4u.net/news/30512_ac_unity-patch_bringt_performancesteigerungen_-_insbesondere_amd-grafik_profitiert/

und das nur durch einen Patch nicht durch den Treiber, dann ist das alberen Argument "AMD braucht ja nur den Treiber anpassen" oder " selbst schuld wenn sie keine Treiber schreiben können" wohl mehr als hinfällig. Es wird immer deutlicher dass AMD für die zunächst miese Performance absolut nicht verantwortlich ist.

Skysnake
2015-01-09, 19:29:37
Lol, das ist hart abseits von 1080p, wobei man sich da fragen muss, ob nicht noch immer limitierungen vorliegen.

Kartenlehrling
2015-01-09, 20:06:16
Gibt es eigentlich nun Tessellation unter AC:U, weil dann müsste sowieso neue Benchmarks durchgeführt werden.

Lurtz
2015-01-09, 21:03:35
Tja wenn ich mir die News so durchlese und den Link dazu bei HT4U

http://ht4u.net/news/30512_ac_unity-patch_bringt_performancesteigerungen_-_insbesondere_amd-grafik_profitiert/

und das nur durch einen Patch nicht durch den Treiber, dann ist das alberen Argument "AMD braucht ja nur den Treiber anpassen" oder " selbst schuld wenn sie keine Treiber schreiben können" wohl mehr als hinfällig. Es wird immer deutlicher dass AMD für die zunächst miese Performance absolut nicht verantwortlich ist.
Was mit Abstand die größte Mehrperformance für Unity brachte war der letzte Catalyst, zuvor lief es auch mit Patch #4 noch mies.

Schnoesel
2015-01-09, 21:23:31
Ich gehe davon aus, dass man bei HT4U mit dem gleichen Treiber getestet hat, was für mich heißt: Da kann der Treiber noch so gut sein, mit spielinterner Handbremse liegt man dennoch deutlich hinter der Konkurrenz.

Lurtz
2015-01-09, 21:29:35
Ist ja schön wenn der Patch noch mehr Leistung gebracht hat, ohne den Omega-Catalyst war das Spiel für AMD-User dennoch kaum zu genießen dank der Performancedrops an manchen Stellen.

StefanV
2015-01-10, 00:38:11
Ist ja schön wenn der Patch noch mehr Leistung gebracht hat, ohne den Omega-Catalyst war das Spiel für AMD-User dennoch kaum zu genießen dank der Performancedrops an manchen Stellen.
...wofür aber AMD nicht verantwortlich war sondern der Spielehersteller, der bei der Entwicklung sich um 'den anderen' nicht geschert hat...

Schnoesel
2015-01-10, 15:06:51
Naja spätestens mit GW Tesselation wird die alte Rangfolge (R9 290X gleichauf mit GTX 770) wieder hergestellt. Da kann man sich schon sicher sein.

Zum Glück kann ich auf Ubisoft sehr sehr gut verzichten.

Grestorn
2015-01-10, 16:02:06
Manchmal denke ich, es muss schon ein echt hartes Leben sein, so als AMD Fan. Zumindest machen es sich einige hier echt schwer.

Kartenlehrling
2015-01-10, 16:11:02
dich kann man ja auch nicht ernst nehmen,
wenn man die ganze Zeit mit Kanonen auf Spatzen schiesst.

Asus Rampage V - Intel i7 5960X @ 4.3 GHz - 16 GB Corsair DDR4 2800
2x EVGA GTX 980 SC (SLI) @ 1514 / 3900 MHz

dildo4u
2015-01-10, 16:16:51
Was mit Abstand die größte Mehrperformance für Unity brachte war der letzte Catalyst, zuvor lief es auch mit Patch #4 noch mies.
Bingo und es wurden auch keine Nvidia Effekte Entfernt womit das ganze Geheule wieder mal nicht bestätigt wird,AMD Hardware wird durch die Nvidia Module nicht bewusst benachteiligt.Unity ist einfach mies programmiert wie man an der PS4 Version sieht.

Schnoesel
2015-01-10, 16:31:39
Da muss man schon mit Scheuklappen durchs Leben laufen um das für völlig normal zu halten. Sicher haben beide Hersteller profitiert aber wenn man sich die Relationen ansieht wie stark profitiert wurde kann man nur zum Schluss kommen, dass AMD benachteiligt wurde (ob absichtlich oder nicht das überlasse ich anderen). Um die Handbremse zu lösen müssen auch keine Effekte entfernt werden. Die Entwickler können aber optimieren, haben sie doch Zugriff auf den GW Code im Gegensatz zu AMD.

Wenn man als Spieleentwickler merkt dass eine Seite wegen eines Bugs benachteiligt wird bessert man sofort nach (wie man am Beispiel Ryse gesehen hat, da hats nicht lange gedauert und schon war der Patch draußen der Nvidia nochmal einen ordentlichen Schub gegeben hat) und wartet nicht Monate bis man mal den Hintern bewegt.

Manchmal denke ich, es muss schon ein echt hartes Leben sein, so als AMD Fan.

Du irrst dich gewaltig. Ich freue mich immer dass ein Nvidianer gleich mal n paar Lappen mehr auf den Tisch legen muss nur um zu denken er hätte das bessere Spielerlebnis. Ihr wollt es nicht anders.

Und wie gesagt mit Ubisoft hat sich Nvidia den besten Publisher ausgesucht um GW zu präsentieren ;-)

Grestorn
2015-01-10, 16:41:20
Ich sag ja, schweres Leben :)

Wenn ihr zufrieden wärt und nicht bitter, dann wären solche Threads ja auch unnötig.

Ich werde einem guten Kumpel, dessen 560Ti letzte Woche den Geist aufgegeben hat, übrigens eine R9 280X oder 290 empfehlen. Einfach weil das für ihn die bessere Karte ist. So ein nV Fanboy bin ich... :) (Die Alternative, GTX960, hat zu wenig Speicher und wird vermutlich zu teuer sein).

fondness
2015-01-10, 16:49:25
Wenn ihr zufrieden wärt und nicht bitter, dann wären solche Threads ja auch unnötig.


Richtig, denn man muss sämtliche Fehlentwicklungen ignorieren solange sie nur von Nvidia kommen.

dildo4u
2015-01-10, 17:11:04
Da muss man schon mit Scheuklappen durchs Leben laufen um das für völlig normal zu halten.
Es liegt am AMD DX11 Treiber das Game ist CPU Limitiert,DF hat das selbe beobachtet mit dem Optimierten Treiber für COD.Am Anfang im GPU Limit ist die 280 + i3 schneller als die GTX 760 + i3.So bald die CPU belastet wird brechen die FPS auf der AMD ein.

http://youtu.be/lQzLU4HWw2U

Warum pusht AMD sonst Mantle,die wollen das der Entwickler ihnen die Treiber Arbeit abnimmt.Die NV Module hätten wenn nur im GPU Limit größe Einflüsse auf die Performance.

Schnoesel
2015-01-10, 17:17:33
War klar dass nun das CPU + Treiber Argument kommt. Wo legt AMD durch den Patch in ACU prozentual am meisten zu? Ach ja in der Auflösung die am meisten CPU limitert ist nämlich unter 4K. Halt warte nein... :rolleyes:

Durch den Patch wurde offensichtlich eine Bremse gelöst die nichts mit der Treiberperformance zu tun hat.

Kartenlehrling
2015-01-10, 17:19:09
Ach ja in der Auflösung die am meisten CPU limitert ist nämlich unter 4K.

Das ist absoluter Quatsch ... !!!

Schnoesel
2015-01-10, 17:20:13
Zum weiterlesen bist nicht gekommen?

Halt warte nein...

N0Thing
2015-01-10, 17:20:16
e:\zu spät

dildo4u
2015-01-10, 17:21:34
Hab ich doch geschrieben das Unity müllig programmiert wurde,das hat aber nichts mit den NV Modulen zu tun,die PS4 Version läuft auch wie Grütze und nutzt keine Nvidia Tech.Warum läuft das Game auf der PS4 schlechter als auf der Xbox One?Es gibt nur einen Grund es ist extrem CPU Lastig was den AMD Treiber bloßstellt.

samm
2015-01-10, 17:25:22
Durch den Patch wurde offensichtlich eine Bremse gelöst die nichts mit der Treiberperformance zu tun hat.Und nicht vergessen, dass dem Dildo sein Filmchen aus vor-Omega-Zeiten stammt. Der 14.12 wendet nun auch den nVidia-Trick des Treiber-Last-Verschiebens an.

Schnoesel
2015-01-10, 17:26:29
Genau deswegen profitiert ja AMD prozentual ja auch am meisten in 4K durch den Patch. Weil endlich das CPU limit in der Auflösung behoben wurde (Achtung Ironie Kartenlehrling).

dildo4u
2015-01-10, 17:33:58
Und CB hat Benches von Version 1.1 wo die 290X in 4k am dichtesten dran ist fragt sich wer da Mist gebaut hat.

In 2.560 × 1.600 schneidet AMD wie gewöhnlich besser ab, wobei sich an der Tendenz nichts ändert. Die GeForce GTX 980 liegt immer noch 19 Prozent vor der schnellsten AMD-Grafikkarte. Diese kann sich nun immerhin um zwölf Prozent von der GeForce GTX 780 absetzen und muss sich der GeForce GTX 780 Ti und insbesondere der GeForce GTX 970 nur knapp geschlagen geben. In 3.840 × 2.160 liegt die Radeon R9 290X dann nur noch sechs Prozent hinter dem Nvidia-Flaggschiff zurück

http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/#diagramm-grafikkarten-benchmarks-in-3840-2160

M4xw0lf
2015-01-10, 17:36:15
Der arme dildo leidet an Treiberlogorrhö. Sobald bestimmte Schlüsselworte fallen (AMD, Treiber, Gameworks, DX11), löst das den immer selben Wortschwall aus.

Schnoesel
2015-01-10, 17:40:28
Und CB hat Benches von Version 1.1 wo die 290X in 4k am dichtesten dran ist fragt sich wer da Mist gebaut hat.

Das wirst du so nicht herausfinden denn:

1. 100% andere Testszene
2. anderer Treiber
3. anderer Patch
4. und das die restliche Hardware die gleiche ist glaube ich auch kaum.

Ich sehe hier keine Vergleichbarkeit. Evtl erbarmt sich PCGH und schiebt selbst noch Benches nach.

dargo
2015-01-10, 17:41:03
Hab ich doch geschrieben das Unity müllig programmiert wurde,das hat aber nichts mit den NV Modulen zu tun,die PS4 Version läuft auch wie Grütze und nutzt keine Nvidia Tech.Warum läuft das Game auf der PS4 schlechter als auf der Xbox One?Es gibt nur einen Grund es ist extrem CPU Lastig was den AMD Treiber bloßstellt.
Jo... der wird sowas von bloßgestellt. Die GTX980 liegt wahnsinnige 5% vor der R9 290X in 1080p. :freak:

dildo4u
2015-01-10, 17:44:31
Der arme dildo leidet an Treiberlogorrhö. Sobald bestimmte Schlüsselworte fallen (AMD, Treiber, Gameworks, DX11), löst das den immer selben Wortschwall aus.

Zumindest gibt's von mir Link's die tatsächlich was mit dem Thema zu tun haben dein Beitrag bringt Keinen weiter.Wer den kompletten Überblick hat versteht das die Bremse im CPU Limit liegt,daher ist es das einzige Game wo die PS4 deutlich schlechter als die Xbox One Version läuft.

Blediator16
2015-01-10, 17:46:53
Es liegt am AMD DX11 Treiber das Game ist CPU Limitiert,DF hat das selbe beobachtet mit dem Optimierten Treiber für COD.Am Anfang im GPU Limit ist die 280 + i3 schneller als die GTX 760 + i3.So bald die CPU belastet wird brechen die FPS auf der AMD ein.

http://youtu.be/lQzLU4HWw2U

Warum pusht AMD sonst Mantle,die wollen das der Entwickler ihnen die Treiber Arbeit abnimmt.Die NV Module hätten wenn nur im GPU Limit größe Einflüsse auf die Performance.

Zum 3. mal dieses Video wurde fast 1 Monat vor Omega Release gemacht.

http://www.hardocp.com/article/2015/01/07/far_cry_4_video_card_performance_review/7#.VLFYOSuG8fh

Vor dem AC:U Test bei HardOCP gabs noch einen FC4 Test. Da ist die 280x so schnell wie eine 780 obwohl bei dem Test mit der 280x höhere Einstellungen gewählt wurden. Wie kann das sein, bei dem Treiber von AMD. Neuster Patch neuste Treiber. Kepler wird unglaublich stiefmütterlich behandelt in den letzten Spielen, die rauskamen, das ist doch eher einen Aufschrei wert.

M4xw0lf
2015-01-10, 17:49:35
Zumindest gibt's von mir Link's die tatsächlich was mit dem Thema zu tun haben dein Beitrag bringt Keinen weiter.Wer den kompletten Überblick hat versteht das die Bremse im CPU Limit liegt,daher ist es das einzige Game wo die PS4 deutlich schlechter als die Xbox One Version läuft.
Dein kompletter Überblick muss ja toll sein, so wie du immer an den Benchmarkwerten vorbeiargumentierst.
Die neuen Ergebnisse von ht4u zeigen Verbesserungen, die rein gar nichts mit CPU-Limitierung am Hut haben - größere Zugewinne bei höherer Auflösung. Erklär mir doch nochmal, woraus sich hier der hohe CPU-Overhead des AMD-Treibers ableiten lässt, mein zu eingeschränkter Überblick lässt diesen Schluss nicht zu.

Kartenlehrling
2015-01-10, 17:52:13
Ich sehe hier keine Vergleichbarkeit. Evtl erbarmt sich PCGH und schiebt selbst noch Benches nach.

Ich hoffe das es auch unter ironie fällt, die testen nun wirklich mit allem was gerade auf dem Schreibtisch rumliegt, aber von Reproduzierbarkeit gleich 00.

Kriton
2015-01-10, 18:01:33
Warum pusht AMD sonst Mantle,die wollen das der Entwickler ihnen die Treiber Arbeit abnimmt.Die NV Module hätten wenn nur im GPU Limit größe Einflüsse auf die Performance.

Ganz klar, weil ich mir Treiberarbeit ersparen will entwickle und supporte ich eine ganz neue API... Moment, da war doch was seitens DICE, die was zu der Entstehungsgeschichte gesagt haben und wie Nvidia und Intel das nicht wollten:

Anderson:
Wir haben mit verschiedenen Firmen gesprochen, inklusive Intel und Nvidia.

http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html

Mehr schreibe ich lieber nicht dazu, dazu ist es zu offensichtlich.

Grestorn
2015-01-10, 18:33:21
Richtig, denn man muss sämtliche Fehlentwicklungen ignorieren solange sie nur von Nvidia kommen.

Die arme Firma AMD, die es offenbar nicht schafft aus dem Schatten der Konkurenz zu treten, und so sehr darunter leidet, wenn diese "Fehlentwicklungen" zu ihrem eigenen Gunsten pusht...

Wie gesagt, bitter bitter...


Ernsthaft:
Was ich hier schreibe mag vielleicht arrogant wirken, ist aber eigentlich gar nicht so gemeint. Stellt Euch bitte nur mal die Frage, was ihr hier eigentlich macht. Da ist eine Firma recht erfolgreich damit, den eigenen Marktanteil mit völlig legalen und marktüblichen Mitteln zu stärken. Und statt dass ihr Euch überlegt, was AMD tun könnte, um mitzuhalten und das dringend notwendige Gleichgewicht zu halten, startet ihr eine Vendetta gegen nVidia, wie böse und verabscheuungswürdig die Firma sei, und wie sehr man sich doch als deren Kunde schämen müsse. Das ist kindisch und nicht zielführend!

Blediator16
2015-01-10, 18:40:02
Die arme Firma AMD, die es offenbar nicht schafft aus dem Schatten der Konkurenz zu treten, und so sehr darunter leidet, wenn diese "Fehlentwicklungen" zu ihrem eigenen Gunsten pusht...

Wie gesagt, bitter bitter...


Ernsthaft:
Was ich hier schreibe mag vielleicht arrogant wirken, ist aber eigentlich gar nicht so gemeint. Stellt Euch bitte nur mal die Frage, was ihr hier eigentlich macht. Da ist eine Firma recht erfolgreich damit, den eigenen Marktanteil mit völlig legalen und marktüblichen Mitteln zu stärken. Und statt dass ihr Euch überlegt, was AMD tun könnte, um mitzuhalten und das dringend notwendige Gleichgewicht zu halten, startet ihr eine Vendetta gegen nVidia, wie böse und verabscheuungswürdig die Firma sei, und wie sehr man sich doch als deren Kunde schämen müsse. Das ist kindisch und nicht zielführend!

Mithalten bedeutet das selbe Spiel spielen.

Grestorn
2015-01-10, 18:45:24
Mithalten bedeutet das selbe Spiel spielen.

Was ist denn genau das Spiel? :)


http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html

Mehr schreibe ich lieber nicht dazu, dazu ist es zu offensichtlich.

nVidia und Intel haben also die Wahl einen komplett neuen Treiber für Mantle zu entwickeln (Denn das muss man ja machen, selbst wenn AMD Mantle zur freien Verwendung frei gibt, werden die keinen Treiber für deren Hardware schreiben. Es muss also die gesamte API für die eigene Hardware implementiert werden. Was vermutlich gar nicht immer so einfach ist, denn die Mantle-API wird schon eher auf AMD Hardware passen) oder alternativ darauf hinzuarbeiten, die Defizite von Direct3D ggü. Mantle zu beheben.

Was ist wohl sinnvoller?

Kartenlehrling
2015-01-10, 20:05:19
Ernsthaft: ....

willst du soowas ... ?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10481917&postcount=341

Mancko
2015-01-11, 11:53:14
willst du soowas ... ?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10481917&postcount=341

Gehört nun mal dazu. Ich nenn das Wettbewerb. Was ihr wollt ist, dass alles immer gleich ist, die gleichen Voraussetzungen hat damit am Ende nur der Preis entscheiden muss. Sprich die optimalen Bedingungen für den Verbraucher. Sorry aber ich verstehe absolut, dass die Firmen keinen Bock darauf haben. Die wollen jeder ihr eigenes Ökosystem puschen um maximal zu profitieren.

AMD möchte die PC Welt so nah wie möglich an den Konsolen haben um davon maximal zu profitieren, am besten zusätzlich durch Mantle. So können Sie ihr Konsoleninvestment am Besten über den gesamten GPU Bereich leveragen.

Nvidia auf der anderen Seite möchte genau das Gegenteil. Sie wollen Abgrenzung von den Konsolen und Abgrenzung von AMD und möglichst viel DirectX und kein Mantle. Am Ende wird es Spiele geben die gut für den einen ausfallen, zumindest zum Launchzeitpunkt, und andere die gut für den anderen ausfallen.
Ich sehe das positiv. So wird das insgesamt das Gleichgewicht gehalten und keiner wird über alle Spiele hinweg im Mittel einseitig bevorzugt. Für den Verbraucher ist es natürlich etwas anstrengender. Er kann eben nicht einseitig nur den Preis bei Geilzhals vergleichen und dann entscheiden. Er muss sich halt mehr Gedanken machen. Genau das finde ich auch richtig, sonst zählt nur noch die Geizhals Mentalität und billige Massenware aus China. Gott sei Dank sind Firmen - auch in anderen Märkten, nicht nur im GPU Bereich - in der Lage Rahmenbedingungen zu schaffen, bei denen eben nicht nur der Preis zählt.

StefanV
2015-01-11, 11:56:27
Gehört nun mal dazu. Ich nenn das Wettbewerb.
...verzerrung, wie es Intel gemacht hat und dafür 'nen bisserl bestraft wurde, von der EU...

Gibt halt leider noch keine Kartell Klage gegen nV. Aber glaubst du ernsthaft, dass nV ungeschoren davon kommen würde, bei dem, was sie gerade abziehen?!

Ein Hardwarehersteller hat keine Software zu manipulieren und Mitbewerber zu benachteiligen!!

Grestorn
2015-01-11, 12:32:26
...verzerrung, wie es Intel gemacht hat und dafür 'nen bisserl bestraft wurde, von der EU...

Du vergleichst die Entwicklung neuer, proprietärer Techniken mit der Erpressung von Retail-Anbietern?

Sehr objektive und neutrale Betrachtungsweise, muss ich schon sagen.

Gimmick
2015-01-11, 13:31:56
Du vergleichst die Entwicklung neuer, proprietärer Techniken mit der Erpressung von Retail-Anbietern?

Sehr objektive und neutrale Betrachtungsweise, muss ich schon sagen.

Wie kommst du jetzt darauf die Entwicklung an sich zu vergleichen? :|

Es geht dabei eher darum wie die Spieleindustrie dazu motiviert wird diese auch zu nutzen.
Ich will einfach nicht so recht glauben, dass die Spieleentwickler nur für die angebliche Zeitersparnis in Kauf nehmen, das ihre Software auf nur einem GPU-Hersteller gut läuft.
Ich mein es gibt nur zwei, da vergrault man dann ja schon eine Menge Kundschaft.

Im Monster Hunter Online Benchmark z.B. Klar ists nur ein Benchmark und das richtige Spiel hat eventuell mehr Einstellmöglichkeiten, aber was will man mit dem Benchmark denn ausdrücken?
Und dabei liegt das Problem hier nicht mal explizit beim Hairworks oder so. Die Spielentwickler haben einfach alles bis zum Erbrechen tesselliert.
Haben sie nicht gemerkt, dass das auf AMD nicht gut läuft? Glaub ich eigentlich nicht.

Irgendeinen Vorteil müssen sie ja davon haben

Demirug
2015-01-11, 13:42:14
Irgendeinen Vorteil müssen sie ja davon haben

Marketingdeals = garantierte Abnahme von X Lizenzen welche dann mit den Grafikkarten gebundelt werden.

Im Moment kann man davon ausgehen das die Regeln relative einfach sind.

- Will ich einen Deal mit nvidia muss ich Gameworks verwenden.
- Will ich einen Deal mit AMD muss ich Mantle verwenden.

Und wenn man nicht gerade einen Title hat den beide unbedingt haben wollen sollte man besser bereits in dem entsprechenden Entwicklerprogramm sein bevor man überhaupt wegen einem Marketingdeal anfragt. Wenn man dann auch schon was zeigen kann steigert das die Chancen gleich nochmal.

StefanV
2015-01-11, 13:44:03
Du vergleichst die Entwicklung neuer, proprietärer Techniken mit der Erpressung von Retail-Anbietern?

Sehr objektive und neutrale Betrachtungsweise, muss ich schon sagen.
Ach und das 'Nachhelfen' bei Distris siehst du jetzt positiv? Warum?

Und weißt du, dass nV nicht auch die Distris/Hersteller erpresst bzw anderweitig 'überzeugt'?
Und genau DAS ist es, worauf ich hinaus wollte...

Da haben sie die Füße still zu halten und denen nicht 'unter die Arme' zu greifen oder Verträge abzuschließen, die die Zusammenarbeit mit 'den anderen' ausschließt...

Auch sowas kann man als Wettbewerbsverzerrung ansehen...
Wäre halt mal schön, wenn jemand die Pfeife blasen würd und das ganze Zeugs mal schön leaken würde...

Grestorn
2015-01-11, 14:21:37
Auch sowas kann man als Wettbewerbsverzerrung ansehen...
Wäre halt mal schön, wenn jemand die Pfeife blasen würd und das ganze Zeugs mal schön leaken würde...

Ich geh mal davon aus, dass es da nicht mehr gibt, als das auch allgemein bekannt ist (siehe Demirugs Posting) und auch zu erwarten war.

Denn wenn es mehr gäbe, hätte es auch schon längst einen Whistleblower gegeben. Es gibt ja nichts, was einen Entwickler daran hindern könnte, auszupacken (im Gegensatz zur NSA, wo man anschließend um sein Leben fürchten müsste).

Schnoesel
2015-01-11, 14:30:57
- Will ich einen Deal mit nvidia muss ich Gameworks verwenden.
- Will ich einen Deal mit AMD muss ich Mantle verwenden.

Mit dem Unterschied, dass man mit Mantle nicht Möglichkeit hat, dass der Gegenüber ausgebremst/ausgeschlossen wird. Mantle macht wenn dann AMD schnelller und nicht Nvidia langsamer. Ein Unterschied meinst du nicht auch?

Das Beispiel Monsterhunter zeigt es doch recht deutlich.

In welchem Mantle Spiel war denn Nvidia zu Beginn so weit zurück wie in diesem Fall?

Sollten sich die Entwickler für GW entscheiden haben sie noch nicht mal die Freiheit dieses "Feature" auch den potentiellen Käufern mit einer AMD zur Verfügung zu stellen. Diese Entschiedung trifft allein Nvidia. Das Interview mit dem Lead Engineer von Witcher 3 zeigt das sehr deutlich:


"PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen."

http://www.pcgameshardware.de/The-Wi...e-CPU-1107469/

Und manche hier nennen das auch noch positiv.

Mancko
2015-01-11, 14:33:33
Du vergleichst die Entwicklung neuer, proprietärer Techniken mit der Erpressung von Retail-Anbietern?

Sehr objektive und neutrale Betrachtungsweise, muss ich schon sagen.

Eher kindische Betrachtungsweise. Er stellt halt AMD gern in die Opferrolle und möchte auf Gedeih und Verderb Rahmenbedingungen, in denen AMD am Besten mit dem Low-Cost Image überleben kann. Er kann es halt einfach auch nicht ab, dass AMD sich mit dem Mismanagement über die letzten Jahre finanziell in so eine brenzlige Situation gebracht hat, dass sie eigentlich kaum mehr die ganzen Investments die andere tätigen durchziehen können.

Das Intel vor Jahren nicht ganz fair gegenüber AMD agiert hat sehe ich auch. Dafür gab es aber Schadensersatz und das AMD im Verhältnis da weniger als Nvidia rausgeholt hat ist eben auch nur eine weitere Seite von AMDs Mismanagement.

Zudem ist das CPU Segment das eine aber niemand hat AMD dazu gezwungen im GPU Segment gegenüber Nvidia so abzubauen. Die Ausgangssituation gegenüber Nvidia war mit ATI ähnlich. Deswegen ist es auch nur einzig AMDs Schuld, dass sie heute Umsatztechnisch maximal noch 1/3 des dedizidierten GPU Marktes für den PC stellen. Es hat auch niemand AMD gezwungen so übermäßig viel Geld für ATI zu bezahlen. Das wäre auch günstiger gegangen. Es hat auch niemand AMD dazu gezwungen die Adreno Sparte so billig an Qualcomm abzugeben.

Im Endeffekt kann man es sich ganz einfach machen. Wie viele CEOs hat AMD über die letzten Jahre seit Jerry Sanders gehabt und wie viele Nvidia. Das alleine sagt schon eine Menge zum Erfolg der beiden Firmen aus. Und dann muss man eben als Firma AMD auch erkennen, dass man leider sehr viel falsch gemacht hat.

Ich sehe keinen Grund wieso die Rahmenbedingungen des Marktes so korrigiert werden sollen, dass die erfolglosen überleben. Für Erfolglosigkeit habe ich grundsätzlich gar nichts übrig. Wenn eine Firma dauerhaft erfolglos ist, dann wird sie halt irgendwann untergehen. Ich seh das nicht so tragisch. Es werden andere kommen und den Platz einnehmen. Monopolgefahr ist hier sowieso nicht zu erwarten. Die Märkte verändern sich. IBM war auch mal Monopolist. Wo ist das Unternehmen heute? Wo ist Nokia heute und wo wird Intel zukünftig sein? Die Zeiten in denen x86 der Nabel der Computerwelt ist sind vorbei. Deswegen muss AMD eben selber zusehen wie sie sich aufstellen und zwar jetzt auch mal ohne Marktverzerrende Geldspritzen. Dann muss eben der AMD Käufer sich auch mal daran gewöhnen, dass die Grafikkarten eben teurer werden.

fondness
2015-01-11, 14:55:14
Mit dem Unterschied, dass man mit Mantle nicht Möglichkeit hat, dass der Gegenüber ausgebremst/ausgeschlossen wird. Mantle macht wenn dann AMD schnelller und nicht Nvidia langsamer. Ein Unterschied meinst du nicht auch?

Das Beispiel Monsterhunter zeigt es doch recht deutlich.

In welchem Mantle Spiel war denn Nvidia zu Beginn so weit zurück wie in diesem Fall?

Sollten sich die Entwickler für GW entscheiden haben sie noch nicht mal die Freiheit dieses "Feature" auch den potentiellen Käufern mit einer AMD zur Verfügung zu stellen. Diese Entschiedung trifft allein Nvidia. Das Interview mit dem Lead Engineer von Witcher 3 zeigt das sehr deutlich:


"PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen."

http://www.pcgameshardware.de/The-Wi...e-CPU-1107469/

Und manche hier nennen das auch noch positiv.

Viel bezeichnender als diese Passage finde ich ja noch den Teil wo er sagt, dass das Management entscheidet welche NV-Features zu verwenden sind. NV schnappst sich also mit dem Management durch Geldspritzen aus welcher NV-Code in welchem Spiel zu verwenden ist. Wer das toll findet dem ist nicht mehr zu helfen.

Demirug
2015-01-11, 15:08:57
Mit dem Unterschied, dass man mit Mantle nicht Möglichkeit hat, dass der Gegenüber ausgebremst/ausgeschlossen wird. Mantle macht wenn dann AMD schnelller und nicht Nvidia langsamer. Ein Unterschied meinst du nicht auch?

Wäre mir neu das Mantle auch auf nicht AMD Hardware läuft. Entsprechend ist jede Minute die in Mantle implementiert wird AMD exclusiv verwendet worden. Die Zeit hätte man auch nutzen können um das Spiel allgemein zu verbessern.

Soweit mir bekannt nutzt Gameworks nur reguläre APIs und ein virtuelles GPU Model zu dem auch AMD (und andere) zugestimmt haben. Entsprechend hat AMD auch die Möglichkeit Hardware und Treiber zu implementieren die dieses Model effektiv umsetzen.

Ich habe es ja schon einmal gesagt. Wenn hier jemand einen Betrug vermutet soll er entweder nachweissen das auf AMD Hardware ein anderer Shader etc als auf nvidia benutzt wird. Oder Nachweisen das die verwendeten Shader auch auf nvidia Hardware nicht das Optimum darstellen und nur verwendet werden weil AMD damit stärker im Nachteil ist als mit dem optimalen Shader.

Ansonsten gilt sowieso die einfache Regel das nvida (durch einen Marketingdeal) dafür bezahlt hat das ihre Kunden in einem Spiel zusätzliche Effekte bekommen. Oder eben gleich das ganze Spiel. Dieses Spielchen ist so alt wie es spezielle Grafikkarten gibt. Schon damals wurden Entwickler dafür bezahlt eben eine spezielle Version von einem Spiel zu erstellen.

Kriton
2015-01-11, 15:10:36
Was ich hier schreibe mag vielleicht arrogant wirken, ist aber eigentlich gar nicht so gemeint. [...] Das ist kindisch und nicht zielführend!

Versuch mal diese beiden deiner Aussagen zusammen zu bringen. Gelingt mir nicht. Wenn Deine 2. Aussage richtig ist, dann wäre sie in dieser Form nicht notwendig.

mit völlig legalen und marktüblichen Mitteln zu stärken.

"legal und marktüblich" muss nicht wünschenswert im Sinne des Konsumenten (merkwürdigerweise argumentieren viele aus Sicht Nvidias, was keinen Sinn macht wenn man bedenkt, dass die Interessen Nvidias üblicherweise nicht mit den eigenen übereinstimmen dürften) oder der Gesellschaft als solcher bedeuten. Wenn dem so wäre hätten wir keine gesellschaftliche Entwicklung beispielsweise in Bezug auf das Rechtssystem oder soziale Normen.
Was dies (in einem krassen Beispiel) bedeutet könnte man sich in Amerika ansehen. Beispiel: Sklavenhandel.

Kriton
2015-01-11, 15:12:27
W
nVidia und Intel haben also die Wahl einen komplett neuen Treiber für Mantle zu entwickeln

Lies mal richtig. DICE ist wegen der Entwicklung einer Low-Level-API auch auf Intel und Nvidia zugegangen, und die wollten nicht. Sie wurden nicht erst gefragt als mantle schon da war. AMD hat das gemacht, was die Anderen nicht wollten.

Unicous
2015-01-11, 15:17:14
@Mancko

AHAHAHAHA.

Dass AMD weniger Kohle herausgeholt hat, liegt mal wieder an AMD.:rolleyes:
Die können echt gar nichts richtig machen. Es lag an ihnen, nicht an den Richtern die diese Summe vorgeschlagen haben.
AMD musste und wollte einem jahrzehntelangen Rechtstreit vorbeugen (denn Intel wäre logischerweise in Berufung gegangen). Sie waren zu der Zeit schon lange in finanzieller Schieflage und haben genommen was sie kriegen können. Eigentlich wurden sie dadurch zum zweiten Mal im gleichen Fall von Intel erpresst. Entweder ihr nehmt was ihr kriegen könnt, oder wir lassen wieder ein paar Jahre verstreichen. Bei Nvidia war das doch viel eindeutiger: Intel hat gegen einen Vertrag verstoßen. Intel wusste, dass sie nicht gewinnen können und Nvidia war in einer deutlich besseren Position. Bei AMD hatte man zum Großteil nur (sehr starke) Indizien.

Beide IHVs haben sich gefälligst aus der Spiele-Entwicklung herauszuhalten. Ganz einfach. Die "positiven" Effekte (im wahrsten Sinne des Wortes), überwiegen nicht die negativen um am Ende sind wir die Dummen.

Wir, die Kunden. ISVs und IHVs sind Dienstleister und Zulieferer in einem größeren Ökosystem. Sie sollten uns nicht vor die Wahl stellen, welches Produkt wir in Verbindung mit einem anderen Produkt zu kaufen haben.

Wir reden hier nicht von geschlossen Systemen wie z.B. Konsolen, oder Smartphones. Sondern um den Personalcomputer. Wenn es so weiter geht ist im Netzteil bald ein Chip drin, der den Computer nur noch mit Hardware des jeweiligen Herstellers starten lässt oder nur nur noch 350 Watt, anstatt 500 Watt liefert. (Ach nein, das haben wir ja schon. Laptop-Netzteile.:rolleyes:)

Solche Maßnahmen stärken den Wettbewerb nicht, sie schwächen ihn. Und der Kunde bekommt nicht die "best experience" sondern wird vor eine Wahl gestellt die er gar nicht hätte treffen wollen.

Ich finde es bezeichnet wie du AMD als Loser darstellst, als Erfolglosen. Dein komischer Sozialdarwinismus und Neo-Liberalismus tut hier gar aber nichts zu Sache. Dein Vergleich von Jerry Sanders der u.a. aus Altersgründen zurückgetreten ist und vorher über 30 Jahre lang das Unternehmen geleitet hat und mittlerweile 78 Jahre alt ist, mit Jen-Hsun Huang der 52 wird ist doch auch völlig daneben. Ruiz hat sicherlich kapitale Fehler begangen, aber einige standen auch in direktem Zusammenhang mit Intels Geschäftsgebahren. Hätten sie gleiche Wettbewerbsbedingungen gehabt, dann sehe es vllt. heute ganz anders aus. Aber das ist nebensächlich.

Aber im Endeffekt läuft es immer auf die selbe Mär hinaus. AMD ist schuld. Wenn der Stärkere auf den Schwächeren einschlägt, dann steht man daneben und hebt schon mal das Grab aus. Das ist doch alles total natürlich. Der Stärkere hat immer recht, und wenn nicht biegt er sich das Recht...zurecht. Und wer an der Seitenlinie steht und davon profitiert hat natürlich auch recht.

Schnoesel
2015-01-11, 15:24:14
Wäre mir neu das Mantle auch auf nicht AMD Hardware läuft. Entsprechend ist jede Minute die in Mantle implementiert wird AMD exclusiv verwendet worden. Die Zeit hätte man auch nutzen können um das Spiel allgemein zu verbessern.


Verstehe den Zusammenhang nicht. Welches Mantle Spiel hatte den von Beginn an massive Performanceprobleme/Bugs (und im besonderen bei einem Hersteller)? GW-Spiele die beschissen laufen gibt es jedoch mehr als genug.

captain_drink
2015-01-11, 15:26:33
Mit dem Unterschied, dass man mit Mantle nicht Möglichkeit hat, dass der Gegenüber ausgebremst/ausgeschlossen wird. Mantle macht wenn dann AMD schnelller und nicht Nvidia langsamer. Ein Unterschied meinst du nicht auch?

Wenn man die NV-Effekte deaktiviert, dann wird AMD auch nicht langsamer. Die ersteren sind eben ein Bonus für NV-Kunden, weshalb mir unverändert schleierhaft ist, inwieweit diese für AMD-Kunden von Belang sein sollten. Genauso abwegig wäre es, Mantle für NV zu fordern.

Viel bezeichnender als diese Passage finde ich ja noch den Teil wo er sagt, dass das Management entscheidet welche NV-Features zu verwenden sind. NV schnappst sich also mit dem Management durch Geldspritzen aus welcher NV-Code in welchem Spiel zu verwenden ist. Wer das toll findet dem ist nicht mehr zu helfen.

Was erwartest du denn? Dass NV Geld dafür bezahlt, damit die eigenen Technologien auch für AMD optimiert werden? Für positiv halte ich das auch nicht, wohl aber für müßig, einem börsennotierten Unternehmen vorzuhalten, wie ein börsennotiertes Unternehmen zu handeln.

dargo
2015-01-11, 15:27:59
Wäre mir neu das Mantle auch auf nicht AMD Hardware läuft. Entsprechend ist jede Minute die in Mantle implementiert wird AMD exclusiv verwendet worden. Die Zeit hätte man auch nutzen können um das Spiel allgemein zu verbessern.

Gleiches gilt für Nvidias Gameworks. Mit dem kleinen Unterschied, dass der Entwickler durch Mantle mehr aus den CPUs für GCN GPUs herausholt. Nvidia muss dafür @D3D11.x für die eigenen GPUs selbst ran.

Edit:
Wo wir schon dabei sind... wurde der Tess-Patch für Unity eigentlich gecancelt? Dauert schon ganz schön lange.

Unicous
2015-01-11, 15:32:32
Ich dachte bei GameWorks muss man nur Dateien in Ordner schieben.:freak:

Schnoesel
2015-01-11, 15:34:56
Die ersteren sind eben ein Bonus für NV-Kunden, weshalb mir unverändert schleierhaft ist, inwieweit diese für AMD-Kunden von Belang sein sollten.

Bitte? Weil AMD Kunden den gleichen Kaufpreis bezahlen müssen für das Spiel wie Nvidia Kunden. Wärs für AMD User günstiger weil die Features nicht oder beschissen laufen ok.

Sicher Mantle Spiele sind für Nvidia Kunden auch nicht günstiger aber deren DX11 Part wird nicht beschnitten, läuft nicht schlechter und unterliegen auch sonst keiner Einschränkung.

Locuza
2015-01-11, 15:42:51
Sicher Mantle Spiele sind für Nvidia Kunden auch nicht günstiger aber deren DX11 Part wird nicht beschnitten, läuft nicht schlechter und unterliegen auch sonst keiner Einschränkung.
Also exklusives Mantle R&D ist okay, aber eine beschränkte Gameworks Teilname ist schlecht?
So oder so verliert der Kunde indirekt etwas.

Grestorn
2015-01-11, 15:44:11
Bitte? Weil AMD Kunden den gleichen Kaufpreis bezahlen müssen für das Spiel wie Nvidia Kunden. Wärs für AMD User günstiger weil die Features nicht oder beschissen laufen ok.

Sicher Mantle Spiele sind für Nvidia Kunden auch nicht günstiger aber deren DX11 Part wird nicht beschnitten, läuft nicht schlechter und unterliegen auch sonst keiner Einschränkung.

Ach ne? Dann wäre Mantle ja überflüssig, wenn das Spiel mit Mantle nicht besser laufen würde... Oder ist langsamer laufen keine Einschränkung?

Komische Logik habt ihr schon drauf, muss ich sagen :)

Schnoesel
2015-01-11, 15:50:05
Mantle hat doch keine Einfluss auf die Geschwindigkeit von Nvidia Hardware unter DX11. Von langsamer laufen kann doch keine Rede sein. Es ist ein Boost (wenn überhaupt) für AMD. Kein Hemmer für Nvidia.

Nochmal. Konkretes Mantle Spiel wo Nvidia ernorme Einbußen unter DX 11 hat und das direkt etwas mit Mantle zu tun hat.

captain_drink
2015-01-11, 15:54:00
Bitte? Weil AMD Kunden den gleichen Kaufpreis bezahlen müssen für das Spiel wie Nvidia Kunden. Wärs für AMD User günstiger weil die Features nicht oder beschissen laufen ok.

Sicher Mantle Spiele sind für Nvidia Kunden auch nicht günstiger aber deren DX11 Part wird nicht beschnitten, läuft nicht schlechter und unterliegen auch sonst keiner Einschränkung.

Schließe ich richtig, dass es dir also lieber wäre, jegliche NV-Technologie völlig NV-exklusiv zu machen, wie es bei Mantle oder (teilweise) PhysX der Fall ist, damit sich niemand mehr beschweren kann, es laufe langsamer, da es überhaupt nicht mehr läuft?

Mantle hat doch keine Einfluss auf die Geschwindigkeit von Nvidia Hardware unter DX11. Von langsamer laufen kann doch keine Rede sein. Es ist ein Boost (wenn überhaupt) für AMD. Kein Hemmer für Nvidia.

Nochmal. Konkretes Mantle Spiel wo Nvidia ernorme Einbußen unter DX 11 hat und das direkt etwas mit Mantle zu tun hat.

Logisch macht das keinen Unterschied.
Gehen wir von einer Grundperformance=X aus (DX11/NV), dann ist die Performance unter Mantle=Y, wobei Y>X. X wird dadurch selbst nicht langsamer, verglichen mit Y ist es jedoch langsamer.
Nimmt man nun wiederum die Grundperformance=X an (ohne GW/AMD), so ist die Performance mit GW=Z, wobei X>Z. X wird also nicht schneller, im Vergleich zu Z ist es allerdings schneller.
Man hat also die Wahl zwischen höherer Performance bei gleicher Effektzahl (Mantle) oder niedrigerer Performance bei mehr Effekten (GW). In Bezug auf das Grundmaß=X erfährt allerdings weder ein AMD- noch ein NV-Kunde Einschränkungen. Z hat schließlich sowohl bei AMD als auch bei NV hohe Leistungskosten, nur das sie bei AMD im Vergleich höher sind.

Locuza
2015-01-11, 15:54:55
@ Schnoesel

Und wenn Nvidia Gameworks exklusiv schaltet, wie ändert sich dann deine Betrachtungsweise?
Dann betrifft es AMD schließlich auch nicht.
Die Optik sieht ja auf AMD nicht schlechter aus, nur ein Boost (optisch) für Nvidia :P

Unicous
2015-01-11, 15:55:07
Und genau deswegen sollte Mantle ein Open Standard sein (und damit in direkte Konkurrenz zu DX treten). Wenn AMD seine Meinung ändert, ist es genau der gleiche Dreck wie GameWorks.

Wenn IHVs Dinge anbieten, die sich Software-Entwickler anschauen können, modifizieren können und ohne weitere Kosten in das Spiel/ Software etc. implementieren können und Intel/AMD/Nvidia/ARM/Qualcomm/IMG/etc. es nutzen können, ist mir scheiß egal ob es GameWorks, Mantle, OpenFX whatever ist. Sobald es aber an die Bedingungen geknüpft ist, andere auszuschließen, schadet es dem Kunden. Ansonsten haben sie sich herauszuhalten. Diese Entwicklung ist wie so viele andere Sachen extrem schädlich für die Spiele-Industrie. Die Abhängigkeiten die geschaffen werden, haben Folgen für die Zukunft. Ich frage mich auch weiterhin, wie Intels Rolle aussehen wird. Bis jetzt haben sie dem sehr ambivalent und abwartend gegenüber gestanden. Aber auch Intel wird sich dazu irgendwie positionieren müssen, da sie immer weiter aus dem IGP-Territorium entschwinden und Richtung Mainstream-Leistung schielen.

Traurig auch, dass man Intel dazu so gut wie nie befragt.

Schnoesel
2015-01-11, 15:59:15
1. Wäre mir lieber es würde keine exklusiven Technologien im Softwarebereich geben.

2. Sogar dein Beispiel wäre mir lieber, denn das hätte direkten Einfluss auf die Verkaufszahlen der Spielehersteller wenn 30% der potentiellen Kunden nur ein halbes Spiel für den vollen Preis bekommen. Das funktioniert ja nur weil man als Alibi sagen kann, " aber auf AMD läuft es doch die sind nur zu doof den Treiber zu programmieren". Diese Variante wäre zumindest ehrlicher.

Gimmick
2015-01-11, 16:07:41
Ach ne? Dann wäre Mantle ja überflüssig, wenn das Spiel mit Mantle nicht besser laufen würde... Oder ist langsamer laufen keine Einschränkung?

Komische Logik habt ihr schon drauf, muss ich sagen :)

Naja, bisher ist es schon so, dass kein Mantle-Spiel auf nV Hardware schlecht läuft oder optische Nachteile bietet, wohingegen nV Titel oft einen optischen Nachteil und/oder sehr schlechte Leistung auf AMD Hardware mit sich bringen.

So ganz auf eine Stufe stellen kann man das nicht.

Locuza
2015-01-11, 16:13:46
Und genau deswegen sollte Mantle ein Open Standard sein (und damit in direkte Konkurrenz zu DX treten). Wenn AMD seine Meinung ändert, ist es genau der gleiche Dreck wie GameWorks.
[...]
Traurig auch, dass man Intel dazu so gut wie nie befragt.
Ich sehe Mantle nur als exklusives Spielzeug an, auch weil AMD scheinbar da Pläne bezüglich Workstations etc. hat.
DX12 wird jetzt einen Teil der Hersteller unter einem OS vereinen und irgendwann später OGL-Next alle.
Ich sehe keine Motivation für irgendjemanden Mantle zu adaptieren.

Bezüglich Intel, ist man da nicht offen was die Situation angeht, jedenfalls bisher.
Sie haben was PixelSync angeht auch eine nicht exklusive Variante mit Vanilla DX11 im Angebot und irgendetwas ganz offen auf Github.
Weiß aber nicht mehr was genau.


2. Sogar dein Beispiel wäre mir lieber, denn das hätte direkten Einfluss auf die Verkaufszahlen der Spielehersteller wenn 30% der potentiellen Kunden nur ein halbes Spiel für den vollen Preis bekommen. Das funktioniert ja nur weil man als Alibi sagen kann, " aber auf AMD läuft es doch die sind nur zu doof den Treiber zu programmieren". Diese Variante wäre zumindest ehrlicher.
Ein paar Effekte die ich schlecht verwenden kann, aber immerhin verwenden kann, manchen nicht ein halbes Spiel aus.
Vor allem was kostet mich da mehr? Ein neues Renderbackend in die Engine zu implementieren oder eine Blackbox anzuschließen?
Ganz so einfach scheint es auch bei GameWorks nicht sein, aber einen übermäßigen Preis bezahlen AMD Kunden sicherlich nicht dafür.

Es ist auch aus meiner Sicht mehr ein Alibi von AMD zu sagen, hey schaut wir bieten Mantle kostenlos an, sind halt stolze Arschlöcher da draußen die sich zu fein sind.

captain_drink
2015-01-11, 16:13:55
2. Sogar dein Beispiel wäre mir lieber, denn das hätte direkten Einfluss auf die Verkaufszahlen der Spielehersteller wenn 30% der potentiellen Kunden nur ein halbes Spiel für den vollen Preis bekommen. Das funktioniert ja nur weil man als Alibi sagen kann, " aber auf AMD läuft es doch die sind nur zu doof den Treiber zu programmieren". Diese Variante wäre zumindest ehrlicher.

Warum "halbes Spiel"? GW ist ein Bonus, d.h. es geht über das Normalmaß hinaus, ebenso wie Mantle ein Bonus ist. Ohne GW oder Mantle fehlt niemandem etwas. Es ist auch nicht so, dass GW überdurchschnittlich schlecht auf AMD liefe, anders als bei PhysX, das zumeist schlicht unspielbar ist.

Dass ein IHV seine Technologie nicht für den Mitbewerber mitoptimiert, ist doch das Normalste der Welt. AMD hat sich bei Dirt, Tomb Raider oder Bioshock Infinite auch nicht um die Leistung auf NV gekümmert, warum auch? Dafür bezahlt NV schließlich ein Treiberteam, deren Aufgabe dergleichen Optimierung ist.

Naja, bisher ist es schon so, dass kein Mantle-Spiel auf nV Hardware schlecht läuft oder optische Nachteile bietet, wohingegen nV Titel oft einen optischen Nachteil und/oder sehr schlechte Leistung auf AMD Hardware mit sich bringen.

So ganz auf eine Stufe stellen kann man das nicht.

Logisch verhalten sich beide inversiv zueinander, das ist also durchaus vergleichbar, vgl.: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10482792&postcount=1606

Blediator16
2015-01-11, 16:15:10
In der Diskussion geht es schon lange nicht mehr um den mündigen Konsumenten, sondern wessen Scheinfirma besser ist. Konsolenspieler müssen sich mit so einem Müll nicht befassen.

Demirug
2015-01-11, 16:19:58
Gleiches gilt für Nvidias Gameworks. Mit dem kleinen Unterschied, dass der Entwickler durch Mantle mehr aus den CPUs für GCN GPUs herausholt. Nvidia muss dafür @D3D11.x für die eigenen GPUs selbst ran.

Ich habe doch geschrieben das auch nvidia letzten Endes die Entwickler dafür bezahlt das sie etwas tun was in nvidias Interesse ist.

AMD -> Geld dafür das man ihre API nutzt damit es auf AMD Hardware besser als mit DX läuft .

nvidia -> Geld dafür das man Effekte einbaut die auf nvidia Hardware besser als bei der Konkurrenz laufen.

Was habe ich als Kunde davon? Wenn ich die "richtige" Hardware zum Spiel habe mehr oder weniger das was der IHV erreichen wollte. Bessere Performances bzw mehr Effekte. Habe ich die "falsche" Hardware habe ich von Mantle erst mal gar nichts. Bei Gameworks habe ich zwar die Effekte aber muss sie möglicherweise abschalten weil es zu langsam wird. In beiden Fällen muss ich dann auf das Treiberteam "meines" IHVs hoffen.

Mantle hat doch keine Einfluss auf die Geschwindigkeit von Nvidia Hardware unter DX11. Von langsamer laufen kann doch keine Rede sein. Es ist ein Boost (wenn überhaupt) für AMD. Kein Hemmer für Nvidia.

Nochmal. Konkretes Mantle Spiel wo Nvidia ernorme Einbußen unter DX 11 hat und das direkt etwas mit Mantle zu tun hat.

Im Prinzip jedes Spiel das Mantle benutzt ohne dafür zusätzlich jemanden eingestellt zu haben. Da die Zeit welche man für die Implementierung brauchte von der Zeit abging welche das GPU Team für DX 11 Optimierungen aufwenden konnte.

Blediator16
2015-01-11, 16:21:47
Ich habe doch geschrieben das auch nvidia letzten Endes die Entwickler dafür bezahlt das sie etwas tun was in nvidias Interesse ist.

AMD -> Geld dafür das man ihre API nutzt damit es auf AMD Hardware besser als mit DX läuft .

nvidia -> Geld dafür das man Effekte einbaut die auf nvidia Hardware besser als bei der Konkurrenz laufen.

Was habe ich als Kunde davon? Wenn ich die "richtige" Hardware zum Spiel habe mehr oder weniger das was der IHV erreichen wollte. Bessere Performances bzw mehr Effekte. Habe ich die "falsche" Hardware habe ich von Mantle erst mal gar nichts. Bei Gameworks habe ich zwar die Effekte aber muss sie möglicherweise abschalten weil es zu langsam wird. In beiden Fällen muss ich dann auf das Treiberteam "meines" IHVs hoffen.



Im Prinzip jedes Spiel das Mantle benutzt ohne dafür zusätzlich jemanden eingestellt zu haben. Da die Zeit welche man für die Implementierung brauchte von der Zeit abging welche das GPU Team für DX 11 Optimierungen aufwenden konnte.

Es wurde doch schon danach gefragt einen Titel zu nennen, wo Mantle implementiert wurde und ebenso beschissen lief wie sämtliche GW Titel bis jetzt. Speziell bezogen auf AMD Hardware. Wir haben mittlerweile von HardOCP zwei Titel, FC4 und AC:U mit den neusten Treibern und Patches, die aufzeigen, dass erst jetzt AMD mithalten kann, nachdem es negative Kritik gehagelt hat.

StefanV
2015-01-11, 16:25:04
nur mit dem Unterschied, dass man mit Gameworks irgendeinen Käse veranstaltet, um 'die anderen' möglichst schlecht dastehen zu lassen und Mantle ein nötiger Schritt war, der seit Jahren überfällig ist...

Da kann man durchaus behaupten, dass einige Entwickler sehr scharf auf das sind, während man die bei Gameworks durchs Managment zwingen muss, das zu implementieren...

Gimmick
2015-01-11, 16:31:44
Logisch verhalten sich beide inversiv zueinander, das ist also durchaus vergleichbar, vgl.: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10482792&postcount=1606

Nö, macht den Vergleich nicht sinnvoller.
Mantle-Spiele laufen auf nV Hardware sehr gut, jedes Geflenne um ein paar FPS, die man eh nicht merkt interessiert keinen. Beide Versionen sehen gleich aus.
Bei vielen PhysX-Spielen wird direkt mit HW-PhysX im Kopf designed und das merkt man entsprechend auch. Ganze Gegenstände werden teilweise weggelassen ohne PhysX. Ebenso wird bei einigen die Tessellation-Keule geschwungen, wo man es eh nicht mehr sieht, da war eindeutig nicht die Effizienz Vater des Gedanken sondern ein Design was absolut auf bestimmte Hardware ausgelegt ist.

Wenn irgendwann mal ein Mantle-Spiel raus kommt was einfach mal so mit DrawCalls klotzt, dass ohne Mantle nichts mehr geht und die einzig andere Option, das komplette Abstellen der jeweiligen Objekte ist, dann kannste das vergleichen.

Lurtz
2015-01-11, 16:34:21
In der Diskussion geht es schon lange nicht mehr um den mündigen Konsumenten, sondern wessen Scheinfirma besser ist. Konsolenspieler müssen sich mit so einem Müll nicht befassen.
Was? Hast du mal in ein Konsolenforum geschaut? :eek:

Ob es einem Playstationbesitzer so egal sein sollte, wenn Microsoft Parität vom Publisher erzwingt...

Demirug
2015-01-11, 16:37:20
Es wurde doch schon danach gefragt einen Titel zu nennen, wo Mantle implementiert wurde und ebenso beschissen lief wie sämtliche GW Titel bis jetzt. Speziell bezogen auf AMD Hardware. Wir haben mittlerweile von HardOCP zwei Titel, FC4 und AC:U mit den neusten Treibern und Patches, die aufzeigen, dass erst jetzt AMD mithalten kann, nachdem es negative Kritik gehagelt hat.

Ich kann dir nicht ganz folgen. Wieso sollte ein Mantle Spiel auf AMD Hardware schlecht laufen? AMD würde den Entwicklern in dem Fall schon ordentlich Feuer untern Hintern machen.

nur mit dem Unterschied, dass man mit Gameworks irgendeinen Käse veranstaltet, um 'die anderen' möglichst schlecht dastehen zu lassen und Mantle ein nötiger Schritt war, der seit Jahren überfällig ist...

Ich warte nach wie vor auf ein Beispiel bei dem aufgezeigt wird das Gameworks "die anderen" gezielt schlecht aussehen lässt und nicht nur einfach die stärken der nvidia GPUs gnadenlos ausnutzt.

Da kann man durchaus behaupten, dass einige Entwickler sehr scharf auf das sind, während man die bei Gameworks durchs Managment zwingen muss, das zu implementieren...

Das ist eine Kombination von Spieltrieb und dem "Not-invented-here" Syndrom das Mantle bei den Entwicklern beliebter macht.

captain_drink
2015-01-11, 16:39:33
Es wurde doch schon danach gefragt einen Titel zu nennen, wo Mantle implementiert wurde und ebenso beschissen lief wie sämtliche GW Titel bis jetzt. Speziell bezogen auf AMD Hardware. Wir haben mittlerweile von HardOCP zwei Titel, FC4 und AC:U mit den neusten Treibern und Patches, die aufzeigen, dass erst jetzt AMD mithalten kann, nachdem es negative Kritik gehagelt hat.

Bei FC4 konnte man von Anfang eine gleichauf stehende Performance erreichen, wenn man GW deaktiviert hat. AC:U wiederum hat insbesondere vom Omega-Treiber profitiert.

Da kann man durchaus behaupten, dass einige Entwickler sehr scharf auf das sind, während man die bei Gameworks durchs Managment zwingen muss, das zu implementieren...

Sicher, weil eine Mantle-Implementierung, die entweder zusätzliche Arbeitszeit kostet oder von der sonstigen, den ganzen Markt abdeckenden DX-Variante abgeht, die Verkäufe so massiv ankurbelt. Mantle ist bislang ein schöner Bonus für AMD-Kunden, mehr nicht.

Nö, macht den Vergleich nicht sinnvoller.
Mantle-Spiele laufen auf nV Hardware sehr gut, jedes Geflenne um ein paar FPS, die man eh nicht merkt interessiert keinen. Beide Versionen sehen gleich aus.
Bei vielen PhysX-Spielen wird direkt mit HW-PhysX im Kopf designed und das merkt man entsprechend auch. Ganze Gegenstände werden teilweise weggelassen ohne PhysX. Ebenso wird bei einigen die Tessellation-Keule geschwungen, wo man es eh nicht mehr sieht, da war eindeutig nicht die Effizienz Vater des Gedanken sondern ein Design was absolut auf bestimmte Hardware ausgelegt ist.

Wenn irgendwann mal ein Mantle-Spiel raus kommt was einfach mal so mit DrawCalls klotzt, dass ohne Mantle nichts mehr geht und die einzig andere Option, das komplette Abstellen der jeweiligen Objekte ist, dann kannste das vergleichen.

Mit PhysX bringst du jetzt etwas hinein, das zum Vergleich GW-Mantle weder gehört noch dazu beiträgt. Wie oben bereits erwähnt, kann jeder AMD-Nutzer aber auch PhysX und Tessellation deaktiveren, so dass man die von den Entwicklern ohne Einwirkung eines IHV geplante Version erhält. Oder glaubst du, dass man die wehenden Vorhänge für die Konsolenversionen von Batman Arkham Aslyum entwickelt hat, dann NV auf die Entwickler zukam und man gemeinsam beschlossen hat, eine NV-Exklusivität herzustellen?

Gimmick
2015-01-11, 17:20:59
Mit PhysX bringst du jetzt etwas hinein, das zum Vergleich GW-Mantle weder gehört noch dazu beiträgt. Wie oben bereits erwähnt, kann jeder AMD-Nutzer aber auch PhysX und Tessellation deaktiveren, so dass man die von den Entwicklern ohne Einwirkung eines IHV geplante Version erhält. Oder glaubst du, dass man die wehenden Vorhänge für die Konsolenversionen von Batman Arkham Aslyum entwickelt hat, dann NV auf die Entwickler zukam und man gemeinsam beschlossen hat, eine NV-Exklusivität herzustellen?

PhysX gehört zu Gameworks und die eigentliche Frage ist doch: Wie sehr darf der Einfluss eines IHVs zum Nachteil des anderen sein?

Woher willst du wissen wie eine Version ohne IHV-Einfluss aussähe?

Ich würde sagen eine Version ganz ohne IHV-Einfluss hätte mehr Details zu bieten, als die IHV-version mit abgeschaltetem Sonderkrimskrams.

Und das ist ja gerade der Punkt. Wenn ich im Spiel einen Gang vor mir hab (an Batman/Borderlands angelehntes Beispiel),aus den Rohren kommt ganz normaler Standard-Nicht-Physik-Partikel-Rauch und in der aufgemotzten Version wird der dann eben physikalisch korrekt verwirbelt beim Durchgehen, dann habe ich damit kein Problem.
Blöd wirds dann wenn gar kein Rauch mehr da ist. Und so wird das leider bisher gehandhabt.

Bei Tessellation ist das nochmal anders. Meistens, bisher eigentlich fast immer, reicht für die Geometrie ein relativ geringer Tessellation Faktor. Danach sieht man kaum oder keinen Unterschied mehr. Da nV Karten das aber besonders gut können wird fröhlich rein geklotzt.
Von mir aus können sie hier auch die Trillionen-Poly Version anbieten für nV, aber dass dann die einzig andere Option oft "aus" sein soll und die Objekte dann einfach detailarm sind wie vor ein paar Jahren... das geht dann imo zu weit.


Und da möchte ich nochmal betonen, dass ich auch gar nicht speziell gegen die Gameworks Geschichte an sich bin. Beispiel Monster Hunter Benchmark: Hairworks bricht AMD hier nicht das Genick, das TrillionenPoly-Monster ist es.
Ich denke objektiver und weniger gesponsort eingesetzt lassen sich die Effekte sehr gut einbauen und würden auch auf jeder Hardware einigermaßen gut laufen, wenn die Leistung da ist dann eben mit dichterem Haar.

Grestorn
2015-01-11, 17:42:55
Ich lese die Threads nicht, in denen gezielt AMD Themen diskutiert werden, aber mich würde ehrlich interessieren: Gibt es dort auch so viele nVidia Fans die einen heiligen Krieg gegen alles anzetteln, was AMD so treibt? Oder ist das eher etwas, das AMD Fans auszeichnet?

Alle Argumente, die gegen GW angebracht werden, kann man in stärkerer Form auch gegen Mantle anbringen. Aber ich habe nicht den Eindruck, dass das passiert.

Ich persönlich finde Mantle gut. Weil es den Markt bewegt. Und aus dem selben Grund finde ich auch GW gut.

Kartenlehrling
2015-01-11, 17:57:56
Ich lese die Threads nicht, in denen gezielt AMD Themen diskutiert werden,...
Das erkärt natürch alles.

Grestorn
2015-01-11, 18:07:29
Das erkärt natürch alles.

Was erklärt das genau? Soll ich in diesen Threads etwa gegen AMD rumflamen um einen Ausgleich zu schaffen?! :)

Black-Scorpion
2015-01-11, 18:18:49
Ach ne? Dann wäre Mantle ja überflüssig, wenn das Spiel mit Mantle nicht besser laufen würde... Oder ist langsamer laufen keine Einschränkung?

Komische Logik habt ihr schon drauf, muss ich sagen :)
Bei deinen Beiträgen von Logik zu sprechen ist schon sehr seltsam.
Wo laufen Mantle Spiele auf NV langsamer? Sie laufen auf AMD schneller aber deshalb auf NV nicht langsamer wie ohne Mantle.

Unicous
2015-01-11, 18:22:02
Was erklärt das genau? Soll ich in diesen Threads etwa gegen AMD rumflamen um einen Ausgleich zu schaffen?! :)

Du beschreibst die andere Uferseite, während du auf der eigenen stehst und Nebel den Fluß umgibt.

Ich hoffe ich konnte dir mit der Metapher weiterhelfen.

tdon
2015-01-11, 18:32:33
Ich lese die Threads nicht, in denen gezielt AMD Themen diskutiert werden, aber mich würde ehrlich interessieren: Gibt es dort auch so viele nVidia Fans die einen heiligen Krieg gegen alles anzetteln, was AMD so treibt? Oder ist das eher etwas, das AMD Fans auszeichnet?



Nein nicht in dem Maße. Das ist der typische Underdog Bonus in Foren. Siehe AMD und Intel (dort ist es eigentlich noch einseitiger). Es gibt Fanboy Foren wie planet3dnow, amdzone, semiaccurate usw. wo sich die Hardcore Elite trifft (sich ausheult und auskotzt wäre treffender). Gibt es bei Intel nicht, obwohl es logischerweise weitaus mehr Intel Nutzer gibt und demnach mehr solche Fanboy Foren geben müsste. Der Underdog Bonus weckt Gefühle, die eine emotionale Verbindung schafft. Einige werden regelrecht aggressiv.

samm
2015-01-11, 19:01:49
Doch natürlich gibt es das :) Als bekennender Pro-AMD-ler versuche ich nur darüber zu schreiben, wovon ich eine Ahnung habe, was ich Grestorn als bekennendem Pro-nVidia-ner ebenfalls den Eindruck habe. Kuckt man sich aber das Verhalten auf den herstellerspezifischen Foren an, vgl. Treiber- und Problem-Threads von den mir bekannten Foren speziell auf Guru3D, oder Prozessorempfehlungen auf jeglichem Forum an, ist der Mehrheitsdruck schon enorm. Intel- und nVidianutzer schwimmen im sicheren Mainstream, sodass jeder andere als ziemlicher Stein im Weg erscheint, und mit Scheinargumenten, Eindrücken vom Hörensagen oder gar erfundenen oder tendentiösen Formulierungen (genannte Threads, Artikelüberschriften und tw -inhalte auf cb, pcper, plus Kommentare unter jeglichen AMD-Newsmeldungen auf anandtech) wird die Stimmung gut angeheizt.

Grestorn
2015-01-11, 19:06:20
Bei deinen Beiträgen von Logik zu sprechen ist schon sehr seltsam.
Wo laufen Mantle Spiele auf NV langsamer? Sie laufen auf AMD schneller aber deshalb auf NV nicht langsamer wie ohne Mantle.

Wenn man die GW Effekte ausschaltet, laufen GW Spiele (nachdem der Treiber angepasst wurde) auf AMD Hardware auch nicht schlechter, als AMD GE/Mantle Spiele unter DirectX auf nVidia Hardware laufen (nachdem der Treiber angepasst wurde).

Wenn Du meine Logik in Zweifel ziehst, bitte mit Argumenten und nicht nur einfach als leeren Vorwurf.

Nein nicht in dem Maße. Das ist der typische Underdog Bonus in Foren. Siehe AMD und Intel (dort ist es eigentlich noch einseitiger). Es gibt Fanboy Foren wie planet3dnow, amdzone, semiaccurate usw. wo sich die Hardcore Elite trifft (sich ausheult und auskotzt wäre treffender). Gibt es bei Intel nicht, obwohl es logischerweise weitaus mehr Intel Nutzer gibt und demnach mehr solche Fanboy Foren geben müsste. Der Underdog Bonus weckt Gefühle, die eine emotionale Verbindung schafft. Einige werden regelrecht aggressiv.

Das ist wohl so. Hat auch etwas gutes, denn es stärkt den Underdog, was auch notwendig und richtig ist.

Wenn die Argumentation nicht oft so absurd und einseitig wäre, könnte ich damit auch besser leben. Wenn einer AMD kauft, weil ihm die Firma und deren Produkte einfach sympathischer sind, so kann ich damit mehr anfangen, als all die Pseudoargumente, denen man hier so ausgesetzt ist.

Mancko
2015-01-11, 19:10:16
Bei deinen Beiträgen von Logik zu sprechen ist schon sehr seltsam.
Wo laufen Mantle Spiele auf NV langsamer? Sie laufen auf AMD schneller aber deshalb auf NV nicht langsamer wie ohne Mantle.

Dürfte bei Gameworks nicht großartig anders sein. Beides soll die eigene Hardware in ein besseres Licht rücken. Wurde ja von Demi schon zich mal gesagt.

Ich denke es ist klar, dass wenn ich als Unternehmen Geld ausgebe ich dieses investiere um meine Produkte ins beste Licht zu rücken. Ich werde mich da wohl kaum mit Produkten der Konkurrenz befassen. Das ist auch nicht meine Aufgabe.

Mancko
2015-01-11, 19:20:14
Sobald es aber an die Bedingungen geknüpft ist, andere auszuschließen, schadet es dem Kunden. Ansonsten haben sie sich herauszuhalten. Diese Entwicklung ist wie so viele andere Sachen extrem schädlich für die Spiele-Industrie. Die Abhängigkeiten die geschaffen werden, haben Folgen für die Zukunft.

Jammerst Du beim allgemeinen Cloud Trend auch so rum? Ganz ehrlich. Du wirst Dich damit abfinden müssen, dass sich die Zeiten ändern. Wer heute in der IT-Industrie nur noch Hardware liefert wird mittel- bis langfristig erledigt sein. Reine Hardware bauen und verkaufen ist nun mal kein Geschäft mit dem man dauerhaft Geld verdienen kann. Da bist recht bald durch billige Chinesen ersetzbar wie nur noch was.

Das geht nur über Abhängigkeiten. Apple und andere haben die schon längst geschaffen. Auch diverse Softwarelieferanten, egal ob professionelle Software oder Spiele, schaffen Abhängigkeiten durch Internetzwang, Online Downloads only, keine physischen Datenträger mehr, Mietmodelle ala Office 365 kombiniert mit Datenspeicher in der Cloud usw. Bei Anbietern von Unternehmenssoftware das gleiche. SAP, das klassische Beispiel für vor Ort Installation beim Kunden, macht seit über 1 Jahr einen auf "The Cloud Company".

Der Trend ist hier eindeutig für das eigene Betätigungsfeld vollständig in sich geschlossene Ökosysteme und jeder will dahin. Diejenigen die das nicht schaffen werden, gehen unter. Hat man den Kunden erstmal gebunden, kann er nicht mehr so leicht weg. Verkaufen auf dem Gebrauchtmarkt lohnt auch nicht mehr. Letzterer wird komplett ausgetrocknet.

Mir ist schon klar, dass Dir das nicht gefällt. Ich fürchte nur, Du wirst das nicht aufhalten können und wohl oder übel akzeptieren müssen. Ich kann absolut nachvollziehen, dass Nvidia und AMD versuchen Ihr eigenes Süppchen zu kochen und sich vom anderen abzugrenzen. Man möchte dem Kunden die Entscheidung halt so schwer wie möglich machen. Ansonsten wäre es ja zu einfach. Da würde jeder nur in den Laden gehen, aufs Preisschild schauen und das wars.

Unicous
2015-01-11, 19:31:46
Ja, ich jammere, besonders wegen deinen Double- und Triple-Posts.

http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/edit.gif

Und ja, Cloud-Services und Dinge wie Uber und Airbnb vermeide ich so gut es geht. Das hat nichts mit "Man muss mit den Zeiten gehen" zu tun.

Schnoesel
2015-01-11, 20:02:52
Ich lese die Threads nicht, in denen gezielt AMD Themen diskutiert werden, aber mich würde ehrlich interessieren: Gibt es dort auch so viele nVidia Fans die einen heiligen Krieg gegen alles anzetteln, was AMD so treibt? Oder ist das eher etwas, das AMD Fans auszeichnet?

Das ist zwar OT aber du warst doch auch im Thread als AMD VSR mit dem Omega Treiber released hat. Was da abging von grüner Seite war ja wohl nur noch übel. Oder ist das alles schon vergessen?

Ich zitiere mal aus dem Anfangspost:

"Hier aber bitte etwas zivilisierter diskutieren. Immer die Hälfte aller Post löschen zu müssen, macht auf Dauer keinen Spaß."

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559325

Ich hoffe das beantwortet deine Frage.

fondness
2015-01-11, 20:05:54
Das ist zwar OT aber du warst doch auch im Thread als AMD VSR mit dem Omega Treiber released hat. Was da abging von grüner Seite war ja wohl nur noch übel. Oder ist das alles schon vergessen?

Ich zitiere mal aus dem Anfangspost:

"Hier aber bitte etwas zivilisierter diskutieren. Immer die Hälfte aller Post löschen zu müssen, macht auf Dauer keinen Spaß."

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559325

Ich hoffe das beantwortet deine Frage.

Natürlich weiß er das, er hat ja selbst mitgepostet. Was generell in AMD-Treiber-Threads abgeht, wo sich mittlerweile hauptsächlich Leute tummeln die nicht mal eine AMD-Karten haben ist ohnehin nicht mehr feierlich. Ich glaube in besagten Omega-Treiber-Thread musst fast jeder zweite Beitrag gelöscht werden, da laufend NV-Fans hineingetrollt sind. Aber das Grestorn offenbar nur die eine Seite sieht verwundert wenig.

Gimmick
2015-01-11, 20:11:43
Wenn man die GW Effekte ausschaltet, laufen GW Spiele (nachdem der Treiber angepasst wurde) auf AMD Hardware auch nicht schlechter, als AMD GE/Mantle Spiele unter DirectX auf nVidia Hardware laufen (nachdem der Treiber angepasst wurde).



Sehen aber schlechter aus :tongue:

-/\-CruNcher-/\-
2015-01-11, 20:19:03
Für sowas gibt es keine Matrix es sieht meistens nur anders aus viele würden es sicherlich nichtmal vermissen wenn es nicht von Anfang an da wäre und ohne vorher Werbung dafür zu machen ;)

Allerdings erkennt man sachen natürlich die Einzigartig sind und man zuvor so nie in einem anderen Titel gesehen hat sei es prebaked/realtime sofort ;)

Es ist gut das abseits der IHVs selbst hier noch Bewegung zu sehen ist wenn das nicht der Fall wäre dann sollte man sich ernsthaft anfangen sorgen zu machen :)

aber auch hier liegt das Problem es birgt die Gefahr der Abhängigkeit zu lasten von A oder B die eben dann von den jeweils abhängigen ausgeht weil diese eben einen Finanzielen sowie eben im Gesammten einen Wetbewerbsvorteil dadurch erlangen und somit natürlich diese begehrlichkeit dann auch bei denen entsteht die plötzlich hinten anstehen, da hoft A oder B natürlich das die anstehenden den anderen folgen und sich genauso in diese Abhängigkeit begeben.

Alles kein Problem so lange die Abhängigen sich zwischen A und B in Balance halten, bei sowas sollte man dann C allerdings nicht aus den Augen verlieren ;)

Grestorn
2015-01-11, 20:57:07
Natürlich weiß er das, er hat ja selbst mitgepostet. Was generell in AMD-Treiber-Threads abgeht, wo sich mittlerweile hauptsächlich Leute tummeln die nicht mal eine AMD-Karten haben ist ohnehin nicht mehr feierlich. Ich glaube in besagten Omega-Treiber-Thread musst fast jeder zweite Beitrag gelöscht werden, da laufend NV-Fans hineingetrollt sind. Aber das Grestorn offenbar nur die eine Seite sieht verwundert wenig.

Was ich aus dem Thread über AMDs VSR vorallem mitgenommen habe, war der Hohn der Fans, weil die AMD Lösung ja sooo viel besser sei - weil eine Webseite geschrieben hat, bei einem Spiel hätte sie leichte Vorteile wahrgenommen.

Auf der anderen Seite die - sich inzwischen als vermutlich falsch herausgestellten - Vorwürfe, AMD hätte das ja nur nachgvemacht.

Ich fand das jetzt bei weitem nicht so heftig, als das was in den nVidia Threads seit Jahren abgeht. Ihr seit einfach deutlich ausdauernder :)

Natürlich gibt es auch unerträgliche nV Fans, das bestreite ich keine Sekunde. Ist aber auch keine große Auszeichnung.

Dass Du von allen Menschen mir vorwirfst, ich würde alles nur von einer Seite sehen, entbehrt nicht einer gewissen Komik muss ich sagen :)

fondness
2015-01-11, 21:08:17
Dass Du von allen Menschen mir vorwirfst, ich würde alles nur von einer Seite sehen, entbehrt nicht einer gewissen Komik muss ich sagen :)

Du schaffst es kaum einen Beitrag zu schreiben ohne mir und anderen das direkt oder indirekt vorzuwerfen. Von daher, wer austeilt muss auch einstecken können. :)

Kriton
2015-01-12, 00:07:37
Soweit mir bekannt nutzt Gameworks nur reguläre APIs und ein virtuelles GPU Model zu dem auch AMD (und andere) zugestimmt haben. Entsprechend hat AMD auch die Möglichkeit Hardware und Treiber zu implementieren die dieses Model effektiv umsetzen.

Das wusste ich noch nicht. Kannst Du das etwas näher ausführen?


Ich habe es ja schon einmal gesagt. Wenn hier jemand einen Betrug vermutet soll er entweder nachweissen das auf AMD Hardware ein anderer Shader etc als auf nvidia benutzt wird. Oder Nachweisen das die verwendeten Shader auch auf nvidia Hardware nicht das Optimum darstellen und nur verwendet werden weil AMD damit stärker im Nachteil ist als mit dem optimalen Shader.


Wie groß ist hier der Aufwand? Kann man das über reverse engineering seitens AMD leisten?


Ich warte nach wie vor auf ein Beispiel bei dem aufgezeigt wird das Gameworks "die anderen" gezielt schlecht aussehen lässt und nicht nur einfach die stärken der nvidia GPUs gnadenlos ausnutzt.


Die Stärke der Nvidia GPUs gnadenlos auszunutzen, ohne dass es einen sichtbaren Vorteil hat (Stichwort Tessalation) ist im Grunde dasselbe wie "die anderen" gezielt schlecht aussehen lassen.


Das ist eine Kombination von Spieltrieb und dem "Not-invented-here" Syndrom das Mantle bei den Entwicklern beliebter macht.

Und was willst Du uns damit sagen?
Im Verhältnis zu "Wir mussten das machen, weil das Management uns zwingt." ist dass doch die "bessere" (freiwillige) Variante.

Bei FC4 konnte man von Anfang eine gleichauf stehende Performance erreichen, wenn man GW deaktiviert hat. AC:U wiederum hat insbesondere vom Omega-Treiber profitiert.


Es geht doch wohl eher um den Patch nach dem die R9 290X gleichauf mit der GTX 980 ist:

http://ht4u.net/news/30512_ac_unity-patch_bringt_performancesteigerungen_-_insbesondere_amd-grafik_profitiert/

Ich lese die Threads nicht, in denen gezielt AMD Themen diskutiert werden, aber mich würde ehrlich interessieren: Gibt es dort auch so viele nVidia Fans die einen heiligen Krieg gegen alles anzetteln, was AMD so treibt? Oder ist das eher etwas, das AMD Fans auszeichnet?


Ja.

Grestorn
2015-01-12, 01:05:28
Wie groß ist hier der Aufwand? Kann man das über reverse engineering seitens AMD leisten?AMD kennt die Shader und Techniken, die GW verwendet, zur Genüge. Denn sie müssen ihren Treiber darauf optimieren. Genau wie es auch andersherum passiert (und, nein, dazu braucht man keinen Source-Code).

Die Stärke der Nvidia GPUs gnadenlos auszunutzen, ohne dass es einen sichtbaren Vorteil hat (Stichwort Tessalation) ist im Grunde dasselbe wie "die anderen" gezielt schlecht aussehen lassen.Sorry, aber wer in einer Konkurenzsituation seine eigenen Stärken nicht ausnutzt, um besser dazustehen, hat ganz offensichtlich einen an der Waffel! Als Aktionär würde ich das Management glatt verklagen, wenn sie aus reiner Nächstenliebe darauf verzichten würden, ihre Stärken auch zu nutzen.

Es geht doch wohl eher um den Patch nach dem die R9 290X gleichauf mit der GTX 980 ist:

http://ht4u.net/news/30512_ac_unity-patch_bringt_performancesteigerungen_-_insbesondere_amd-grafik_profitiert/
HT4U hat hier m.E. einen Fehler gemacht, die Leistungssteigerung dem Patch anzudichten. Außer HT4U hat komischer Weise niemand diese Leistungssteigerung durch den Patch bemerkt, auch kein Spieler. Allen ist aber aufgefallen, dass der Omega-Treiber eine enorme Leistungssteigerung gebracht hat.

Vermutlich hat HT4U nicht nur die Spiel-Version sondern auch den Treiber beim erneuten Test verwendet und hat die Leistungssteigerung schlicht der falschen Komponente zugeordnet.

Ja.
Na, dann hast Du ja sicher einen Pointer auf einen Thread wie diesen hier, in dem nVidianer genauso ausdauernd haten und flamen.

Gimmick
2015-01-12, 07:34:39
Sorry, aber wer in einer Konkurenzsituation seine eigenen Stärken nicht ausnutzt, um besser dazustehen, hat ganz offensichtlich einen an der Waffel! Als Aktionär würde ich das Management glatt verklagen, wenn sie aus reiner Nächstenliebe darauf verzichten würden, ihre Stärken auch zu nutzen.


Dass bei Hairworks, God Ray Works (:D) usw. alles über die Tess-Einheut läuft finde ich auch durch aus verständlich und in Ordnung.

Dass der Spieleentwickler sich dazu verpflichten muss alles andere auch extrem zu tessellieren hingegen nicht. Ist ja auch zum Nachteil der nV-User, die Karten sind in der Disziplin zwar besser, aber umsonst ist es nicht.

Aber, ja aus nV-Sicht ist das wohl besser so, aber warum sollte das unsere Perspektive sein?

-/\-CruNcher-/\-
2015-01-12, 09:37:53
Dass bei Hairworks, God Ray Works (:D) usw. alles über die Tess-Einheut läuft finde ich auch durch aus verständlich und in Ordnung.

Dass der Spieleentwickler sich dazu verpflichten muss alles andere auch extrem zu tessellieren hingegen nicht. Ist ja auch zum Nachteil der nV-User, die Karten sind in der Disziplin zwar besser, aber umsonst ist es nicht.

Aber, ja aus nV-Sicht ist das wohl besser so, aber warum sollte das unsere Perspektive sein?

Ist doch auch verständlich immerhin hat Maxwell eine nochmals höhere Geometry performance pro SMM und das bei über 1000 Mhz je SMM :)

Grestorn
2015-01-12, 09:41:55
In welchem Spiel - außer Crysis 2 - wurde Tessellation denn völlig sinnfrei nur genutzt, weil "es eben geht" und ohne dass man es regulieren kann? Ehrliche Frage. Ich krieg ja auch nicht alles mit.

SamLombardo
2015-01-12, 10:01:52
...und selbst in Crysis 2 lässt sich über das "sinnfrei" streiten. Ich fand den Effekt richtig klasse und eine deutliche Aufwertung. Und musste mir in Crysis 3 verwundert die Augen reiben als ich wieder platte Texturtapeten an den Hauswänden sehen musste (gaming involved ahoi)

Gimmick
2015-01-12, 10:12:26
Ist doch auch verständlich immerhin hat Maxwell eine nochmals höhere Geometry performance pro SMM und das bei über 1000 Mhz je SMM :)

Wusste ich garnicht. Da hat AMD dann mittlerweile aber ziemlich Aufholbedarf ^^.

In welchem Spiel - außer Crysis 2 - wurde Tessellation denn völlig sinnfrei nur genutzt, weil "es eben geht" und ohne dass man es regulieren kann? Ehrliche Frage. Ich krieg ja auch nicht alles mit.

Batman:irgendwas, keine Ahnung welcher, für mich sehen die alle gleich aus.:freak:
In FC4 sehe ich auch keinen Unterschied zwischen niedrigen und hohen Tess-Stufen (außer beim Fell natürlich). Aber ohne Wireframe seht man eh nicht genau wo das angewendet wird.

Edit:
...und selbst in Crysis 2 lässt sich über das "sinnfrei" streiten. Ich fand den Effekt richtig klasse und eine deutliche Aufwertung. Und musste mir in Crysis 3 verwundert die Augen reiben als ich wieder platte Texturtapeten an den Hauswänden sehen musste (gaming involved ahoi)

Meine keine Wände und auch nicht das Wasser, das berechnet wurde/wird(?) obwohl man es nicht sieht. Es gibt da z.B. diese Absperr-Steinblöcke, die eigentlich nur eckig waren, aber auch extrem fein tesselliert wurden.
Habe das Spiel aber nicht, wäre ja auch mal ganz interessant zu sehen ob hier die Tess-Level was reißen können ohne die Optik zu killen.

Habe auch den Eindruck, dass immer alles mit dem gleichen Faktor berechnet wird. Kann man das nicht spezifisch von Objekt zu Objekt festlegen?

-/\-CruNcher-/\-
2015-01-12, 11:43:25
Wusste ich garnicht. Da hat AMD dann mittlerweile aber ziemlich Aufholbedarf ^^.



Batman:irgendwas, keine Ahnung welcher, für mich sehen die alle gleich aus.:freak:
In FC4 sehe ich auch keinen Unterschied zwischen niedrigen und hohen Tess-Stufen (außer beim Fell natürlich). Aber ohne Wireframe seht man eh nicht genau wo das angewendet wird.

Edit:


Meine keine Wände und auch nicht das Wasser, das berechnet wurde/wird(?) obwohl man es nicht sieht. Es gibt da z.B. diese Absperr-Steinblöcke, die eigentlich nur eckig waren, aber auch extrem fein tesselliert wurden.
Habe das Spiel aber nicht, wäre ja auch mal ganz interessant zu sehen ob hier die Tess-Level was reißen können ohne die Optik zu killen.

Habe auch den Eindruck, dass immer alles mit dem gleichen Faktor berechnet wird. Kann man das nicht spezifisch von Objekt zu Objekt festlegen?


Naja bei FC4 siehst du auch schön ein Problem von Tessellation beim Tree Relief sieht man sehr schön die enstehenden Gaps :)

Siehe 7.1.6 Watertight Tessellation

http://http.developer.nvidia.com/GPUGems2/gpugems2_chapter07.html

http://stackoverflow.com/questions/23530807/glsl-tessellated-environment-gaps-between-patches

Nvidias tessellation und lod approach kann man unter anderem sehr schön in der neuen Human Head Demo (FaceWorks) bewundern (Virtual IRA)

http://www.ld-host.de/uploads/images/c7d5b5151b883da0099d2d2c50fed18e.jpg

http://www.ld-host.de/uploads/images/fee3043ec91645cd12d1ac852ba55ed3.jpg

Kriton
2015-01-12, 15:41:40
Sorry, aber wer in einer Konkurenzsituation seine eigenen Stärken nicht ausnutzt, um besser dazustehen, hat ganz offensichtlich einen an der Waffel! Als Aktionär würde ich das Management glatt verklagen, wenn sie aus reiner Nächstenliebe darauf verzichten würden, ihre Stärken auch zu nutzen.

Habe ich das etwa behauptet (hint: Nein!)? Noch einmal: Meine Interessen als Verbraucher sind üblicherweise andere als die der Firma von der ich eine Leistung beziehe. Deswegen kann ich zwar das Agieren einer Firma verstehen (weil es ihren Interessen dient), muss es aber nicht gutheißen (weil es nicht meinen dient). Was ist daran eigentlich so schwer zu verstehen?


Na, dann hast Du ja sicher einen Pointer auf einen Thread wie diesen hier, in dem nVidianer genauso ausdauernd haten und flamen.

Aha, also vorgeblich die Threads nicht lesend nach einer Info fragen und wenn die Info nicht in das eigene Weltbild passt dann noch mal nach "Beweisen" fragen. Hättest auch gleich die Behauptung des Gegenteils in den Raum stellen können, aber dann müsstest Du ja den Beweis führen.

Zwei Beispiele (ich markiere mir so etwas nicht, habe also bewusst ein wenig gesucht, wobei es bei teilweise über 300 Seiten nicht immer schnell geht die passenden Passagen zu finden):

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10446235#post10446235

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10158554#post10158554

M4xw0lf
2015-01-12, 15:44:41
Wisst ihr, was das einzig Nervigere ist als thread-crappende Fanboys? Diskussionen darüber, ob die einen oder anderen Fanboys nerviger sind.

https://41.media.tumblr.com/44ddb1125424d4c13d84cc02f3833085/tumblr_ms4o7ze2Td1sv92t9o1_500.jpg

Hübie
2015-01-12, 16:05:44
Neu? Das is ein paar Jahre alt. Und die Tesselation-Leistung bezieht sich immer auf einen GPC, da einem SMM keine Tesselator zugeordnet sind.
Dadurch dass ein SMM schlanker ist konnte man einfach mehr pro Chip verbauen. Die internen Optimierungen dürften zu vernachlässigen sein. Leider steht im Marketingpaper ja nie was wirklich detailliertes drin. :rolleyes:

Grestorn
2015-01-12, 16:51:00
Habe ich das etwa behauptet (hint: Nein!)? Noch einmal: Meine Interessen als Verbraucher sind üblicherweise andere als die der Firma von der ich eine Leistung beziehe. Deswegen kann ich zwar das Agieren einer Firma verstehen (weil es ihren Interessen dient), muss es aber nicht gutheißen (weil es nicht meinen dient). Was ist daran eigentlich so schwer zu verstehen?Nichts. Aber wenn eine Firma in ihren Interessen handelt, ist das dann ein Grund in den Forum über die Firma, deren Maßnahmen und insbesondere deren Kunden herzuziehen?

Aha, also vorgeblich die Threads nicht lesend nach einer Info fragen und wenn die Info nicht in das eigene Weltbild passt dann noch mal nach "Beweisen" fragen.Ich lese in der Tat die wenigsten AMD Threads. Und ich habe ehrlich gefragt. Du hast etwas behauptet (was einem anderen User hier widerspricht) und ich wollte gerne nur Beispiele, um mir selbst ein Bild zu machen.

Zwei Beispiele (ich markiere mir so etwas nicht, habe also bewusst ein wenig gesucht, wobei es bei teilweise über 300 Seiten nicht immer schnell geht die passenden Passagen zu finden):

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10446235#post10446235

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10158554#post10158554

Danke für die Links. Ich bin da mal ein wenig durchgegangen. Ja, es gibt einige unnötige Flames von nVidia-Fans. Aber eher wenig. Insbesondere verglichen mit diesem Thread hier.
Die meisten Autoren in diesen Threads sind die selben AMD User, die auch hier posten. Von nVidianern, die hier viel unterwegs sind, ist dort aber eher wenig zu finden.
Aber das ist nur mein subjektiver Eindruck. Es wäre mal eine Statistik interessant.

Wisst ihr, was das einzig Nervigere ist als thread-crappende Fanboys? Diskussionen darüber, ob die einen oder anderen Fanboys nerviger sind.

Ich diskutiere was mir gefällt, und es ist mir reichlich egal, ob Dich das nervt oder nicht.

Es wäre generell schon schön, wenn man sich über Erfolge der anderen Seite mehr freuen könnte, als gegen die "anderen" User anzukämpfen.

Seit ich denken kann, gibt es das immer wieder. Und immer ist es genauso kindisch, wie am ersten Tag.

VHS<->V2000
C64<->Spectrum
Atari<->Amiga
Amiga<->PC
Windows<->Linux
PC<->Konsole
iOS<->Android

usw....

Gimmick
2015-01-12, 17:14:43
Nichts. Aber wenn eine Firma in ihren Interessen handelt, ist das dann ein Grund in den Forum über die Firma, deren Maßnahmen und insbesondere deren Kunden herzuziehen?


Über die Firma und deren Maßnahmen? Na klar! :D

Ich reg mich auch wenn Hersteller anderer Gegenstände schön stabile Metallhalterungen gegen Plastik austauschen - ist sicher in deren Interesse in meinem aber nicht :biggrin:

Aber über Kunden ziehe ich nie her und flame auch keinen User, kommt mir nicht in die Tüte :nono:

Wisst ihr, was das einzig Nervigere ist als thread-crappende Fanboys? Diskussionen darüber, ob die einen oder anderen Fanboys nerviger sind.


Die Kette des an nervends, oder wars der Kreis? ;)

Um zumindest ein wenig on Topic rein zu bekommen:

Bin gespannt was die kommende AMD Generation die Tess-Leistung ordentlich anhebt. Insbesondere AC:U scheint mir da nämlich auch so ein Kandidat zu sein, wo das rein hauen könnte - sollte der Patch jemals kommen ^^

Unicous
2015-01-12, 17:15:42
Ist das nicht ein wenig peinlich Grestorn. Dieses Forum ist noch eines der gesitteteren und auch hier wird unnötig rumgeflamed, erhöht und gebashed.

Als "Underdog" wie du es darstellst hat man nicht nur einen Sympathiebonus, man wird auch als fünftes Rad am Wagen angesehen und man fragt sich warum der streunende Hund nicht schon längst eingeschläfert wurde. Das gibt es in jedem Forum. Schau mal bei Anandtech vorbei. Da wirst du auch einen alten Bekannten finden: sontin/LovesuckZ. Darüber hinaus gibt es natürlich entsprechend auch deutsche Foren.

Überall gibt es AMD-Apologeten und Intel-Evangelisten. AMD hat keinen besonderen Bonus. Im Endeffekt sind es alles nur kapitalistische Unternehmen die nicht unser Wohlwollen sondern unsere Kohle haben möchten.

Und genau deswegen kann man auch an Nvidias Verhalten Kritik üben. In den USA werden Monopolstellungen gemeinhin nicht als großes Problem angesehen. Es wird erst reagiert wenn es schon längst zu spät ist, oder die Öffentlichkeit über die Machenschaften Bescheid weiß. Siehe Microsoft, siehe Intel. Die haben schon seit den 80er ihr Schindluder mit unzähligen Mitbewerbern getrieben und es hat niemanden gekratzt. Erst als es nur noch Intel vs. AMD hieß hat man auf einmal bemerkt, dass Intel unlauteren Wettbewerb betreibt. Nachdem sie die gesamte CPU-Landschaft in ein Ödland mit zwei Oasen verwandelt hatte.

Ich sage nicht, dass Nvidia den gleichen Weg beschreitet und AMD selbstverständlich dahingehend auch beäugt werden muss, aber Tendenzen sind klar erkennbar. Wenn ein Großteil der Industrie auf offene Standards und/oder Quellecode setzt können proprietäre Technologien ein Alleinstellungsmerkmal sein, aber auch den Anspruch auf eine Monopolstellung besiegeln.

Ich verstehe auch nicht, warum du Nvidia in einer Opferrolle drängst. Sie beherrschen den AIB-Markt und habe ihre Stellung ausgebaut. Das bißchen an fanboyism sollte man doch (auch persönlich) abkönnen, oder?

Edit:
Seit ich denken kann, gibt es das immer wieder. Und immer ist es genauso kindisch, wie am ersten Tag.

Es ist kindisch, aber dennoch stimmst du ein in den Reigen?

captain_drink
2015-01-12, 17:26:18
Deswegen kann ich zwar das Agieren einer Firma verstehen (weil es ihren Interessen dient), muss es aber nicht gutheißen (weil es nicht meinen dient).

"Nicht gutheißen" ist allerdings auch etwas anderes, als vom Beschuldigten das Gegenteil des Inhalts des Vorwurfs einzufordern. Ich betrachte die Praktiken von NV durchaus als negativ, fordere aber gleichwohl nicht, diese zu ändern, da es dazu für mich (als NV-Kunden) keinerlei Grund gibt; genauso wenig, wie ich es von AMD fordere, da ich deren Vorstöße ins Proporietäre ebenso nachvollziehen kann und für legitim halte.

-/\-CruNcher-/\-
2015-01-13, 10:00:46
Neu? Das is ein paar Jahre alt. Und die Tesselation-Leistung bezieht sich immer auf einen GPC, da einem SMM keine Tesselator zugeordnet sind.
Dadurch dass ein SMM schlanker ist konnte man einfach mehr pro Chip verbauen. Die internen Optimierungen dürften zu vernachlässigen sein. Leider steht im Marketingpaper ja nie was wirklich detailliertes drin. :rolleyes:


Ich finde Nvidias Demo auch nicht mehr so faszinierend als wie das bei der ersten Human Head noch der Fall war jedenfalls rein Rendering Technisch haben andere darauf aufgebaut und verbessert :)
Und deren Ergebnisse sind genauso beindruckend allen voran natürlich Jimenez und Gutierrez (teils sousas) seine :)

Je 1 Tessellator pro SMM die 980 hat somit 16 geometrie pipes mit jeweils über 1000 MHz

Whitepapper

Tessellation was one of DirectX 11’s key features and will play a bigger role in the future as the next
generation of games are designed to use more tessellation. With the addition of more SMs in GM204,
GTX 980 also benefits from 2x the Polymorph Engines, compared to GTX 680. As a result, performance
on geometry heavy workloads is roughly doubled, and due to architectural improvements within the PE,
can achieve up to 3x performance improvement with high tessellation expansion factors.


Damit meint Nvidia auch eben die GameWorks parts die eben auf diese Tessellation Performance aufbauen (Hairworks,GeometryWorks,God Rays (Volumetric Light))


Wobei was dann letztendlich in COD AW Realtime zu sehen ist nicht mehr so beindruckend ist leider und keine Chance gegen Digics Pre Rendered (Arnold) results hat und auch Cryteks Crysis 3 (psycho) sind immernoch sehr beindruckend Ryse teils auch teils nicht mehr so sehr :(

http://www.ld-host.de/uploads/images/88fcc8320dce28ccb51acbfad3a9d028.jpg

Arcanoxer
2015-01-13, 10:51:55
Auch Computerbase hat es eingesehen, dass AMD gejammer über Gameworks ist unberechtigt.

So viel Leistung kostet Nvidia Gameworks (http://www.computerbase.de/2015-01/so-viel-leistung-kostet-nvidia-gameworks/)

Gimmick
2015-01-13, 11:20:31
So viel Leistung kostet Nvidia Gameworks (http://www.computerbase.de/2015-01/so-viel-leistung-kostet-nvidia-gameworks/)


Immer diese Artikel bei denen man erst "yay" denkt und dann "nay" sieht :<
Bei FC4 fehlt das Fell in der Einzelauflistung und ist dann wohl auch nicht in "GW Maximal" enthalten?
Dass AMD bei "Nicht-Tess-GW-Effekten" im Vergleich nicht schlechter da steht finde ich gut. Zeigt ja, dass es wohl kein allgemeines Problem mit GW an sich gibt, was AMD da irgendwie softwarebedingt ausbremst.

Da aber God Rays am stärksten rein hauen und das Fell wohl weggelassen wurde, stellt sich für mich wieder die Frage ob da nicht wieder etwas mehr geklotzt wurde als eigentlich nötig wäre.
Sieht man ja in dem Artikel auf Seite 1 dieses Threads oder halt im neuen MHO Benchmark. Was bewegt die Spieledesigner dazu für teilweise nicht vorhandenen optischen Gewinn so viel Leistung auf AMD Systemen zu opfern?

Und falls es bei den God Rays keinen optischen Unterschied macht, könnten die Spieleentwickler da überhaupt was dran ändern? Ist ja schließlich GW.

Edit: Gerade mal getestet und die Tess Stufen: Aus, 8x, 16x, 32x, 64x rein optisch verglichen. Zum messen der FPS müsste ich jede Szene nochmal mit normalen Volumenlicht vergleichen, dazu hab ich gerade nicht die Zeit und Lust :X, zum Schätzen reichts aber auch so ;)

Man sieht tatsächlich einen Unterschied bis hoch zu 64x. Und objektiv gesehen ist es natürlich besser, da feiner Schatten z.B. durch Laub aufgelöst werden können. Aber ab 16x sind das Feinheiten, die man nur sieht wenn man wirklich sucht.
Mit 8x siehts immer noch gut und besser aus als normales Volumenlicht.
Es ist halt einer der Fälle, für den man den direkten Vergleich braucht und ein typischer Fall für die extra teuren letzten optischen Gewinne. Niemand wird beim Spielen sagen "ohhh, da wird aber nicht genau genug zwischen den Blätterschatten aufgelöst" ;).

Von daher rate ich jedem AMD Nutzer an, den Tess-Regler im Treiber zu benutzen, dann kosten die God Rays fast gar nichts und der Unterschied wird nicht auffallen.

Es wird Zeit für getrennte ingame Schiebregler für Fell, Terrain, Licht usw. :D

Hab auch aufgenommen, weiß aber nicht wann ich zum hochladen komme.

Kriton
2015-01-13, 14:16:47
Auch Computerbase hat es eingesehen, dass AMD gejammer über Gameworks ist unberechtigt.

So viel Leistung kostet Nvidia Gameworks (http://www.computerbase.de/2015-01/so-viel-leistung-kostet-nvidia-gameworks/)

Aber auch noch mal der Disclaimer von CB:

Eine Aussage darüber, wie aufwändig die Optimierung für AMD ist, liefert der Vergleich der Leistungsverluste nicht.

aufkrawall
2015-01-15, 20:10:29
Mit Update 1.4 sehen die PCSS in AC: U schon verdammt gut aus, konnte keine großartigen Artefakte wie Aliasing mehr sehen.
Die klar besten Schatten in einem Spiel.

Lurtz
2015-01-15, 20:33:40
Von daher rate ich jedem AMD Nutzer an, den Tess-Regler im Treiber zu benutzen, dann kosten die God Rays fast gar nichts und der Unterschied wird nicht auffallen.
Was haben Godrays eigentlich mit Tesselation zu tun?

dargo
2015-01-15, 21:17:03
Mit Update 1.4 sehen die PCSS in AC: U schon verdammt gut aus, konnte keine großartigen Artefakte wie Aliasing mehr sehen.
Die klar besten Schatten in einem Spiel.
Naja... besser ja, kosten aber auch etwas. Wenn ich die Wahl zwischen 75fps (Schatten hoch) und 65fps (PCSS) habe nehme ich ersteres. Denn soo viel besser sind die nun auch nicht im Gesamtbild. ;)

Gimmick
2015-01-15, 22:04:24
Was haben Godrays eigentlich mit Tesselation zu tun?

https://developer.nvidia.com/sites/default/files/akamai/gameworks/events/gdc14/GDC_14_From%20Terrain%20to%20Godrays%20-%20Better%20Use%20of%20DirectX11CantlayTatarinov.pdf

S. 75

M4xw0lf
2015-01-15, 22:18:14
Was haben Godrays eigentlich mit Tesselation zu tun?
Sehr viel. Hier war vor einiger Zeit ein Link zu einer Präsentation, in der die Anwedung von Tesselation in diesem und anderen Fällen beschrieben wird.
Siehe Gimmicks Post ;)

Lurtz
2015-01-15, 23:42:51
Sehr interessant, danke, jetzt weiß ich endlich was an Godrays so viel Leistung kostet.

blaidd
2015-01-16, 12:13:12
Genau diese Fragen (u.A.) habe ich mal CD Project zukommen lassen. Auch ein paar zu Gameworks. Ich bin mal gespannt.

Anscheinend waren die Fragen zu unbequem. CD Project will sich nicht dazu äußern. Ich veröffentliche mal die Fragen hier:

1) Now with development of The Witcher 3 coming to a close, could you comment on the system requirements you just released? Will the game only run on a quadcore with a 64-Bit-OS and 6 GiByte of RAM?
2) How much video-memory does The Witcher 3 need? There seems to be quite a discrepancy between the GTX 770 and R9 290 in the recommended specs. Is it because both could have 4 GiByte of memory, while say, an R9 280X could not?
3) How are those system specs determined, which settings and resolutions are used for “minimal” and “recommended” specs?
4) Can you already tell us about the Options-Menu? What kind(s) of anti-aliasing can we expect, for example?
5) Will Ubersampling have a comeback?
6) Could you give us some more information about Nvidia Gameworks and how and which libraries are being used for The Witcher 3?
7) Will those effects also work on an AMD card?
8) Ubisoft implemented some Gameworks-alternatives in their recent games. For example the fur-rendering as an alternative for Hairworks in Far Cry 4, which run quite fast while still looking pretty good. Will there be something similar in The Witcher 3?

Grestorn
2015-01-16, 13:29:47
Wie kommst Du auf die Idee, dass sich das Unternehmen bemüssigt fühlen sollte, auf die Fragen einer Person einfach mal so Auskunft zu geben?

Bist Du Pressemitglied? Wenn nicht, dann wirst Du keine Antwort bekommen. Und das hat auch absolut nichts damit zu tun, dass die Fragen umbequem wären.

Was glaubst Du, was es für einen Aufwand für Firmen bedeuten würde, auf jede solcher Personen wie Du in vollem Umfang, umissverständlich und rechtlich unbedenklich Rede und Antwort zu stehen?

M4xw0lf
2015-01-16, 13:32:27
Er arbeitet bei PCGH, wie man langsam mitbekommen haben könnte. :rolleyes:

Unicous
2015-01-16, 13:32:51
LOL@Grestorn.

Ja, er ist Pressemitglied.;D

Rancor
2015-01-16, 13:42:44
EPIC Fail ^^

Ausserdem sind zB. Systemanforderungen ja nun kein Staatsgeheimnis. Schon seltsam warum sie darauf nicht antworten

Grestorn
2015-01-16, 13:44:08
Das gefällt Dir, was Rancor :)

Nun, episch wollte ich immer schon mal sein.

Nein, ich kenne nicht jedes Mitglied dieses Forums. Was für ein Glück :)

Um wen genau handelt es sich denn, wenn ich fragen darf?

blaidd
2015-01-16, 13:49:07
@Grestorn: PCGH_Phil ;-)

CD Project hatte zudem angeboten, Fragen zu The Witcher 3 zu beantworten, das waren aber offenbar die falschen.

Gimmick
2015-01-16, 13:56:52
Anscheinend waren die Fragen zu unbequem. CD Project will sich nicht dazu äußern. Ich veröffentliche mal die Fragen hier:

1) Now with development of The Witcher 3 coming to a close, could you comment on the system requirements you just released? Will the game only run on a quadcore with a 64-Bit-OS and 6 GiByte of RAM?
2) How much video-memory does The Witcher 3 need? There seems to be quite a discrepancy between the GTX 770 and R9 290 in the recommended specs. Is it because both could have 4 GiByte of memory, while say, an R9 280X could not?
3) How are those system specs determined, which settings and resolutions are used for “minimal” and “recommended” specs?
4) Can you already tell us about the Options-Menu? What kind(s) of anti-aliasing can we expect, for example?
5) Will Ubersampling have a comeback?
6) Could you give us some more information about Nvidia Gameworks and how and which libraries are being used for The Witcher 3?
7) Will those effects also work on an AMD card?
8) Ubisoft implemented some Gameworks-alternatives in their recent games. For example the fur-rendering as an alternative for Hairworks in Far Cry 4, which run quite fast while still looking pretty good. Will there be something similar in The Witcher 3?


Immer ein schlechtes Zeichen, besonders wenn das Unternehmen sonst so offen ist :<

Schnoesel
2015-01-16, 14:35:27
Nun einige Antworten vom Lead Engineer des letzten Interviews ( das ich auch sehr gerne verlinke) scheinen irgendwem nicht geschmeckt zu haben.

Einige Passagen waren ja sehr interessant :biggrin:

StefanV
2015-01-16, 15:23:21
Da kann man nur hoffen, dass TW3 bei den Reviewern das Fett weg bekommt, wg. dem Gameworks Mist...

Aber wird wohl leider nicht passieren :-/

Exxtreme
2015-01-16, 15:28:25
Da kann man nur hoffen, dass TW3 bei den Reviewern das Fett weg bekommt, wg. dem Gameworks Mist...

Aber wird wohl leider nicht passieren :-/
Wenn das Spiel gut ist und ordentlich läuft warum sollte es dann Fett wegbekommen? Nur wegen irgendeiner Middleware?

dildo4u
2015-01-16, 15:34:17
Da kann man nur hoffen, dass TW3 bei den Reviewern das Fett weg bekommt, wg. dem Gameworks Mist...

Aber wird wohl leider nicht passieren :-/
Warum sollte man die beste Version vom Game abwerten?Kein PCler will ne direkte Konsolenumsetzung,das wäre der Fall würde man nur AMD Tech nutzen.Selbst Tress FX ist drauf ausgelegt auf einer 80€ GPU zu laufen.(Siehe Tomb Raider auf Xbox One)Ich hab sicherlich keine 350€ für meine 970 ausgegeben um die selbe Optik wie auf meiner PS4 zu haben.

Grestorn
2015-01-16, 16:24:28
Aber...aber.... das ist doch gegen AMD und so was von nicht fair!!!!

Gimmick
2015-01-16, 16:25:18
Kein PCler will ne direkte Konsolenumsetzung,das wäre der Fall würde man nur AMD Tech nutzen.Selbst Tress FX ist drauf ausgelegt auf einer 80€ GPU zu laufen.(Siehe Tomb Raider auf Xbox One)Ich hab sicherlich keine 350€ für meine 970 ausgegeben um die selbe Optik wie auf meiner PS4 zu haben.

So ein zusammenhangloser Blödsinn.

blaidd
2015-01-16, 17:00:26
Ein Spiel wegen zusätzlicher Effekte abzuwerten, halte ich auch für unsinnig.

Und ich finde auch den Ansatz, den Ubisoft beispielsweise in Assassin's Creed: Unity oder besser noch in Far Cry 4 mittlerweile geht (die Effekte klar als Nvidia-Feature zu kennzeichnen - und in Far Cry 4 sogar nur von Hand zuschaltbar, also nicht per Preset) vollkommen in Ordnung.

Das bringt ein bisschen Transparenz in die ganze Sache.

EDIT: Unfug verzapft. Melde mich zurück. :usad:

y33H@
2015-01-16, 17:01:05
Interessant, gerade Balazs ist idR wenig verschwiegen.

fondness
2015-01-16, 17:40:45
Wer solche Specs raus gibt, und das macht man ja nicht unüberlegt, der wird schon gut Gründe dafür haben. Und vor allem muss einem dann auch klar sein welche Reaktionen das auslöst. Aber nachdem der Lead Engineer eh schon ausgepackt hat will man wohl nichts mehr dazu sagen das man sich kaufen hat lassen.

Lurtz
2015-01-16, 17:44:11
Wer solche Specs raus gibt, und das macht man ja nicht unüberlegt, der wird schon gut Gründe dafür haben. Und vor allem muss einem dann auch klar sein welche Reaktionen das auslöst. Aber nachdem der Lead Engineer eh schon ausgepackt hat will man wohl nichts mehr dazu sagen das man sich kaufen hat lassen.
Angesichts der Verschiebung kann man bei CDP wohl jede Hilfe brauchen, die man kriegen kann...

Kriton
2015-01-17, 14:03:33
Wie sollen wir das verstehen?
Verschiebungen im SW-Bereich sind jetzt nicht so ungewöhnlich. CDP hat ja auch durchaus Erfahrung und weiterhin hat man sich ja nicht erst gestern entschieden GW zu benutzen. Wie soll also die Verschiebung mit den Anforderungen zusammenhängen?

Lurtz
2015-01-17, 14:46:25
In den letzten Tagen gab es wohl ein Event wo Journalisten das erste Mal "frei" spielen durften und selbst da waren Effekte wie Hairworks noch deaktiviert. Info-Embargo sollte am 26. Januar enden.
Ich kann mir gut vorstellen dass da auch technisch noch einiges im Argen liegt, warum sollten nVidia-Programmierer nicht aushelfen können?

Zudem war das auf das "kaufen lassen" bezogen, nicht auf die Anforderungen.

Kriton
2015-01-17, 15:23:57
Ich bin davon ausgegangen, dass nicht gerade die Grafikeffekte die Probleme machen.

aufkrawall
2015-01-17, 15:29:03
Warum sollte man die beste Version vom Game abwerten?Kein PCler will ne direkte Konsolenumsetzung,das wäre der Fall würde man nur AMD Tech nutzen.Selbst Tress FX ist drauf ausgelegt auf einer 80€ GPU zu laufen.(Siehe Tomb Raider auf Xbox One)Ich hab sicherlich keine 350€ für meine 970 ausgegeben um die selbe Optik wie auf meiner PS4 zu haben.
Nach deiner schwachsinnigen Logik hätte es bis NextGen so gut wie kein Spiel mit DX11 Features gegeben...

Kartenlehrling
2015-01-17, 16:51:42
gutes Beispiel ist doch PCSS, das ist eine DX10 funktion, wird aber erst jetzt mit xbone und PS4 beworben, in wirklichkeit ist es ja 6 Jahre alt und mit jeder DX10 grafikkarte möglich.

aufkrawall
2015-01-17, 17:25:03
Das geht auch mit D3D9, siehe Risen 3.
In AC: U sieht das aber bisher am besten aus und ist die Frage, ob diverse Filterungs-Techniken etc., die dafür nötig sind, auch mit D3D10 oder 9 funktionieren würden.
Leider sehen die Schatten in AC: U auf Entfernung doch etwas komisch damit aus, was wieder einen Trade-Off zu den Standardschatten des Spiels darstellt.

Das ist das Hauptproblem mit GW (HBAO+ ausgenommmen), die Effekte wirken mitunter halbherzig oder werden stiefmütterlich seitens des Herstellers behandelt. Da kommt keine pc masterrace Stimmung auf.

aufkrawall
2015-01-19, 22:45:03
In der Evolve-Beta gibst kein MSAA, aber TXAA. Wenn das in der Final auch so ist, wärs richtig hinterfotzig.

-/\-CruNcher-/\-
2015-01-19, 22:47:13
man hat MSAA aus der CryEngine geschnitten ?

aufkrawall
2015-01-19, 22:48:55
Es ist in den Optionen nicht auswählbar. Zumindest nicht auf Radeons, denn TXAA enthält ja MSAA...

blaidd
2015-01-22, 20:39:24
man hat MSAA aus der CryEngine geschnitten ?

Das ist raus, ja. In meiner Testversion läuft aber auch TXAA noch nicht korrekt (und ja, ich hab's mit einer Nvidia ausprobiert, bevor sich irgendwer besonders schlau vorkommt :tongue:).

Hübie
2015-01-23, 00:09:12
Man und ich dacht die ganze Zeit dass sei die Source Engine. Wie kam ich denn auf den Trichter? :|
Was gibts denn noch für Modi? Wie komme ich an so eine Beta?? Auf der homepage konnte ich nichts finden. :redface:

N0Thing
2015-01-23, 00:20:21
Die Evolve Beta lief bis zum 19.01.
Im Februar kommt dann die Vollversion.

Hübie
2015-01-23, 00:35:33
DOH! X-D Vollversion kauf ich mir nicht...


Danke für die Info.

blaidd
2015-01-23, 01:47:48
Man und ich dacht die ganze Zeit dass sei die Source Engine. Wie kam ich denn auf den Trichter? :|

Ist gar nicht so falsch, die Entwicklung hat mit Source begonnen... Die sind dann später auf die Cryengine umgestiegen.

HOT
2015-02-02, 12:07:24
Ah, endlich mal wieder ein Gameworks-Fail:
http://www.pcgameshardware.de/Dying-Light-PC-257307/News/Aetzende-Kritik-1149625/
Gabs ja so selten in letzter Zeit...

M4xw0lf
2015-02-02, 12:22:53
Ah, endlich mal wieder ein Gameworks-Fail:
http://www.pcgameshardware.de/Dying-Light-PC-257307/News/Aetzende-Kritik-1149625/
Gabs ja so selten in letzter Zeit...
Hmm? Dying Light hat doch nur HBAO+, und die allgemeine Aufregung um das Spiel hat nix mit GW zu tun... oder übersehe ich hier was elementares? :confused:

HOT
2015-02-02, 13:22:16
Hmm? Dying Light hat doch nur HBAO+, und die allgemeine Aufregung um das Spiel hat nix mit GW zu tun... oder übersehe ich hier was elementares? :confused:
Nee, ist nur alles sehr auffällig. eigentlich ist es immer dasselbe Spiel: ein GW-Spiel kommt raus, es gibt Performanceprobleme und eine R9 290 hängt immer im 770er-Bereich... später kommen Patches, die das kaum verbessern und wenn einige Zeit vergangen ist, sind die AMDs dann plötzlich genausoschnell... Ist natürlich alles immer nur Zufall.

Kartenlehrling
2015-02-02, 13:38:36
Ich wettere eigentlich auch gerne gegen GameWorks,
aber ich sehe bei "Dying Light" jetzt auch nicht das Nvidia problem.
Man lässt nur viel zu viel über die CPU berechnen was bestimmt nicht nötig ist.

dildo4u
2015-02-02, 13:43:53
Der AMD Treiber und die Engine ist das Problem,das Game ist massiv CPU Limitiert (GTX980 so schnell wie die 970)daher hat man per Patch schon die Sichtweite verringert.

Deutlich schlechter sieht es noch bei den Radeons aus. Nutzer rennen dort deutlich schneller ins CPU-Limit, sodass eine R9 290X sogar nur auf dem Niveau der GTX 670 liegt. Insgesamt ist Dying Light derzeit sehr schlecht Multithreading-optimiert – es wird quasi nur ein Kern richtig ausgelastet. Wir vermuten, dass Nvidia seinen Treiber auf einen separaten Thread gelegt hat und dadurch mehr Fps im CPU-Limit liefert. Einen auf Dying Light optimierten Treiber von AMD gibt es aktuell noch nicht, ein solcher sollte aber theoretisch Verbesserungen bringen

http://www.pcgameshardware.de/Dying-Light-PC-257307/Specials/Technik-Test-Benchmarks-1149149/

Shaft
2015-02-02, 14:07:18
Die Engine nutzt 2015 wirklich nur einen Thread?

WTf :confused:

Finde da die PCGH Benchmarks seltsam, ein 47790 ist mit 4,5 Ghz genauso fast gleich schnell wie mit 2,5 Ghz.

Dramatischer sieht es bei den FX CPUs aus.

Unicous
2015-02-02, 14:46:02
Hat eher nichts mit GameWorks zu tun ist aber unendlich peinlich für Techland, wenn das mit dem Multithreading stimmt. Im Jahr 8 seit dem ersten nativen x86 Vierkerner noch immer Probleme zu haben Multithreading auf dem PC zum Laufen zu bringen kann man einfach nicht mehr als Ausrutscher gelten lassen. Das Spiel gibt es doch auch für die Konsolen, wie kann man das denn so verkacken?

y33H@
2015-02-02, 14:56:13
Auf den Konsolen läuft's halt bei minimaler Sichtweite und teils reduzierten Details mit ~30 fps.

Unicous
2015-02-02, 15:01:31
Ohje.:usad:

Shaft
2015-02-02, 15:05:02
Solch ein Murks sollte man schon aus Prinzip meiden, da kann das Spiel noch so toll sein.

Sollte man doch ersrt einen echten Performance Patch abwarten

Noebbie
2015-02-02, 15:07:11
Jupp der Titel wird von mir auch deshalb boykottiert. Da kann sonst noch alles so toll an dem Spiel sein. Aber für sowas hat man dann nicht die teuere Hardware unter dem Tisch.

Kartenlehrling
2015-02-12, 11:49:31
Na klasse,
da vergleicht man einen nackten Ozelot wo sich sogar die Sonne drin spiegelt gegen einen mit Fell.

https://www.youtube.com/watch?v=M8Nhe34sHJs
NVIDIA HairWorks in FarCry 4

Kartenlehrling
2015-02-25, 18:49:19
http://www.geforce.co.uk/whats-new/articles/world-of-warcraft-warlords-of-draenor-patch-6-1-nvidia-hbao-plus
World of Warcraft: Warlords of Draenor Patch 6.1
Introduces NVIDIA HBAO+ Effects & Other Graphics Upgrades

AMD Grafikkarten würden schon immer in WOW ausgebremst,
die Vermutung liegt nach das es nicht besser wird.
Als sie MSAA gestrichen haben und nur noch CSAA anbieten war wohl nur der erste Schritt.

zur Erinnerung:
Eine weitere Neuerung betrifft die im Spiel verfügbare Kantenglättung: Multisample-Anti-Aliasing (MSAA) ist Geschichte,
stattdessen finden WoW-Spieler die Optionen FXAA niedrig, FXAA hoch und CMAA vor.
Letzteres stammt aus der Entwicklungsabteilung von Intel und soll MSAA als bestmögliches Anti-Aliasing-Verfahren in WoW substituieren.
Entwickler Blizzard begründet diesen Schritt mit der internen Beobachtung, dass World of Warcraft in der neuesten Iteration plötzlich grafiklimitiert sei und
man dem entgegenwirken wolle. Optimierungen der Engine haben unter anderem zu besserer Auslastung moderner Prozessoren geführt,
was im Zusammenspiel mit neuen Grafik-Schmankerln dazu führe, dass WoW stärker an der GPU-Leistung hänge als früher.

Daher habe man MSAA zugunsten ressourcenschonender Verfahren gestrichen.

Rente
2015-02-25, 18:52:54
Prüfst du deine Quellen eigentlich mal bzw. liest dir auch die Bekanntmachung von Blizzard durch?

1. Wird da nichts "ausgebremst", die CPU-Last bei WoW war bisher nur immer der begrenzende Faktor wobei AMD seit längerer Zeit in diesem Bereich nicht glänzt (ohne Mantle)
2. HBAO+ funktioniert auf allen DX11-Karten, nicht nur auf Nvidia-Modellen
3. Gibt es auch SSAO als Alternative
4. Gibt es FXAA, CMAA (eigene Variante von Blizzard), MSAA mit diversen Einstellungsmöglichkeiten, AlphaToCoverage, SSAA und Resolutionscale (bis 200%).
Quelle: http://eu.battle.net/wow/de/blog/17989015/patchnotes-f%C3%BCr-patch-61-aktualisiert-am-25-februar-25-02-2015#general

Die ursprüngliche Ursache dafür sind Umstellungen an der Engine Richtung Deferred Renderer und der damit verbundene erhöhte Hardware-"Hunger" beim Einsatz von MSAA (eventuell gab es auch noch technische Probleme).
Diese sind mit 6.1 aber aus der Welt und es gibt wieder alle (und sogar noch mehr) Optionen die es vor 6.0 in WoW gab.

Achja: HBAO+ ging früher schon mal mit Nvidia-Bits in WoW, jetzt ist es halt auch im offiziellen Client vorhanden für jeden User.

dildo4u
2015-02-25, 18:58:14
Immer wieder lustig wie er das Gebetsmühlenartig,wiederholt die AMD Performance in diesen CPU Limitieren Games hängt am Treiber.Was AMD mittlerweile eingesehen hat siehe hier.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10531518&postcount=377

Kartenlehrling
2015-02-25, 19:14:51
Prüfst du deine Quellen eigentlich mal bzw. liest dir auch die Bekanntmachung von Blizzard durch?


....

4. Gibt es FXAA, CMAA (eigene Variante von Blizzard), MSAA mit diversen Einstellungsmöglichkeiten, AlphaToCoverage, SSAA und Resolutionscale (bis 200%).


Ahh ja ... lese es gerade,... ok ... 14 tage alt, hätte ich lesen können.

Dem Druck der Community hat Blizzard nun nachgegeben und bringt mit Patch 6.1 den MSAA-Kantenglättungsmodus wieder zurück.
Wie gehabt soll maximal ein 8x-Modus unterstützt werden. Darüber hinaus wird man künftig direkt im Spielmenü SSAA auswählen können,
wofür zuvor eine Treibereinstellung (Radeons) oder ein externes Tool (Geforces) nötig war.
http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/News/MSAA-SSAA-HBAO-verbessertes-Licht-Patch-61-1150757/

Exxtreme
2015-02-25, 19:59:57
Halten wir fest: GW scheint die Unternehmen anzuziehen, die offenbar sonst einen recht überforderten Eindruck machen. GW-Spiele sind qualitativ nicht so der Hit wie es scheint.

Rente
2015-02-25, 20:00:12
Ahh ja ... lese es gerade,... ok ... 14 tage alt, hätte ich lesen können.


http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/News/MSAA-SSAA-HBAO-verbessertes-Licht-Patch-61-1150757/Das Fett-markierte hat sich PCGH mehr oder weniger aus den Fingern gesaugt, es gibt dafür keinerlei Bestätigung und Blizzard ist auch nicht bekannt dafür auf "Weinen" der Fans bei technischen Punkten einzugehen.
Halten wir fest: GW scheint die Unternehmen anzuziehen, die offenbar sonst einen recht überforderten Eindruck machen. GW-Spiele sind qualitativ nicht so der Hit wie es scheint.
Das hat quasi überhaupt nichts mit GameWorks zu tun, nur HBAO+ stammt von Nvidia, läuft aber wie gesagt mit allen DX11-Karten.
Alle anderen Features (und schau bitte mal nach wieviele DR es gibt die MSAA und SSAA ootb unterstützen) kommen direkt von Blizzard und haben auch nichts mit Nvidia zu tun.

Blizzard technische Überforderung vorzuwerfen halte ich für sehr gewagt, das Spiel ist immerhin über 10 Jahre alt und hat sich von Add-On zu Add-On in diesem Bereich weiterentwickelt.

Kartenlehrling
2015-02-25, 21:37:42
Ich spiele kein WOW, hab es aber gerade installiert, man muss es nicht mehr kaufen um mal reinzuschnuppern.
Es fällt einem halt schon schwer eine HD7970 auf 100% Last zu bekommen, wenn nur 1x CPUcore gebraucht wird.

Aussdem sammel ich nur infos, ich haben in dem obern Posting nichtmal Nvidia angegriffen, das habt "Ihr" daraus gemacht,
für mich ist ausbremsen nicht nur "Gameworks", sondern auch wenn die Grafikkarte nicht mit 100% laufen kann.
erst mit SSAA2+CMAA oder MSAA4x schaff ich WOW unter 2560x1440 auf 100% GPU.

Ausserdem hat schliesslich Nvidia selbst "...NVIDIA HBAO+ Effects & Other Graphics Upgrades..." vorgestellt und wirbt damit das ein teil von Gamesworks ist.
Und somit landet dieser Beitrag in diesem "Gameworks" Thread.

Thunder99
2015-03-02, 10:49:54
Gerade das hier gefunden:

http://www.hardocp.com/article/2015/01/12/far_cry_4_graphics_features_performance_review/1

FarCry 4 und die Messungen was kostet welcher Effekt auf GTX980, R9 290X und R9 285. Hier sieht man schön, dass die Effekte auf AMD teilweise mehr Leistung kosten, aber GNC in der Ausbaustufe 2 (GNC 1.2) auf einem guten Weg ist die Effekte performant zu rendern :)

Kartenlehrling
2015-03-02, 11:57:57
Noch ein Nachschlag zum WOW Gameworks.

Ob man es nun der WOW-Comunity oder Nvidia Gameworks zu verdanken haben das in WOW wieder MSAA drin ist weiss ich nicht,
schön ist es auf jedenfall das man im Spiel als AMD Grafikkarten Besitzter 8x EQAA stufen einstellen kann.
Manches modere neue Singleplay Game hat nicht so ein umfangreiches Grafikmenü.

http://www.computerbase.de/forum/attachment.php?attachmentid=477533&d=1424957682

Arcanoxer
2015-03-04, 20:10:51
NVIDIA Opens PhysX Code to UE4 Developers (http://blogs.nvidia.com/blog/2015/03/04/nvidia-opens-physx-code-to-ue4-developers/)

Air Force One
2015-03-05, 12:58:38
Bedeutet für uns? (sehr schlechtes englisch)

Unicous
2015-03-05, 13:08:09
Dass PhysX so unerfolgreich ist, dass Nvidia es jetzt "kostenlos" für genau eine Engine anbietet.:tongue: Ob Lizenzkosten bei Nutzung in einem veröffentlichten Spiel anfallen (wie bei der Engine selbst auch), steht da natürlich nicht.:wink:

N0Thing
2015-03-05, 13:21:55
Bedeutet für uns? (sehr schlechtes englisch)

Nachdem PhysX schon vorher in er UE4 als Physik-Engine integiert war, können Lizenznehmer der UE4 nun nicht nur den kompilierten Code von PhysX bekommen, sondern auch den Quellcode von PhysX 3.3.3 inklusive der "clothing" und "destruction" Module einsehen und anpassen. GPU-Effekte sind davon ausgenommen.

Änderungen am Quelltext können an Nvidia gesendet werden, die Nützliches eventuell in ihren Quelltext übernehmen.

Kartenlehrling
2015-03-05, 13:22:56
Solange es immer noch nur auf der CPU berechnet wird für nicht Nvidia Karten, ist es keine Meldung wert.
Ist eigentlich die 5 Jahre alte behaupt beseitig worden, oder müssen wir bis DX12 warten.
Wär toll wenn @Arcanoxer die Urbane Legenden entgültig entkräften kann, wir sind ja nun schliesslich bei der 3.3.3 SDK version angekommen.

Doch der kalifornische Grafikchiphersteller wies derlei Anschuldigungen umgehend zurück.
Nvidias Senior PR Manager Brian Del Rizzo erklärte gegenüber der Webseite Thinq sinngemäß:
"Jede Behauptung, dass wir die CPU künstlich ausbremsen würden, ist offenkundig falsch."
Es liege vielmehr in den Händen der Entwickler, Multithreading bei CPU-PhysX-Code zu nutzen und Aufgaben auf verschiedene Threads zu verteilen.
Gute Beispiele seien laut Del Rizzo die CPU-Tests in den Benchmark-Programmen 3DMark Vantage und Fluidmark, die mit zunehmender Kernzahl skalieren.
http://www.heise.de/newsticker/meldung/Bremst-Nvidia-CPU-PhysX-Effekte-kuenstlich-aus-1036153.html

Air Force One
2015-03-05, 14:08:43
Naja...ist ja schon Sauerei genug physx bei Systemen zu sperren sobald in ein nvidia System eine AMD hinzukommt...

Unicous
2015-03-05, 16:26:08
Jetzt lese ich das überhaupt erst

C++ source access to the CPU-based implementation of PhysX 3.3.3

Also voll der lame Scheiß.:crazy:

PCGH_Carsten
2015-03-05, 16:30:19
Dann kann doch jetzt jeder Hobbyprogrammierer endlich AVX(1/2/512)-beschleunigte Multicore-Unterstützung für Physx eingebaut werden - etwas, was Nvidia vielfach vorgeworfen wurde, absichtlich nicht gemacht und stattdessen veralteten x87-Code beibehalten zu haben.

Zusammen mit dem verringerten Submit-Overhead von DX12 wird das ungeahnte Möglichkeiten eröffnen, CPU-Leistung sinnvoll zu nutzen. ;)

Ich freu mir auf coole Physikspiele mit ins Gameplay integrierter Physik!

Dural
2015-03-05, 16:35:14
Dass PhysX so unerfolgreich ist, dass Nvidia es jetzt "kostenlos" für genau eine Engine anbietet.:tongue:

und ich dachte PhysX wahr schon immer Kostenlos :rolleyes:

Naja...ist ja schon Sauerei genug physx bei Systemen zu sperren sobald in ein nvidia System eine AMD hinzukommt...

PhysX wird nicht gespeert, es läuft einfach nur auf der CPU anstelle der GPU...

Unicous
2015-03-05, 16:42:03
PCGH_Carsten

Nö, er hat die Möglichkeit das an Nvidia heranzutragen, das Ding ist ja nicht Open! Source.:wink:. Nvidia entscheidet dann ob es übernommen wird.

@Dural

Was genau ist denn kostenlos? Das SDK und die unveränderbare binary, soweit ich weiß(Zugriff auf den Source Code konnte man auch mal erbitten). Und afaik auch nur die CPU-Version, lasse mich aber gerne eines Besseren belehren.

PCGH_Carsten
2015-03-05, 17:21:15
PCGH_Carsten

Nö, er hat die Möglichkeit das an Nvidia heranzutragen, das Ding ist ja nicht Open! Source.:wink:. Nvidia entscheidet dann ob es übernommen wird.
Um in deinem Terminus zu bleiben: Nö.

„This means that the entire UE4 community can now view and modify this PhysX code alongside the complete C++ source code for UE4. Modifications can be shared with NVIDIA who will review and incorporate accepted submissions into their main PhysX branch, which then flows into future versions of UE4.“ (Quelle (http://blogs.nvidia.com/blog/2015/03/04/nvidia-opens-physx-code-to-ue4-developers/))

„Er“, der Entwickler, kann machen was er will (auch, was ich beschrieb) - zumindest folgere ich das aus dem obigen Zitat. Nvidia braucht er nur, wenn er möchte, dass seine Schöpfung für alle zugänglicher Teil des UE4-Canon wird.

Unicous
2015-03-05, 17:35:49
Das hätte ich dann gerne schwarz auf weiß. Dass ich das Zeug bei mir auf dem heimischen Computer verändern kann bedeutet doch nicht im Umkehrschluss, dass sich die Veränderungen auch in einem fertigen Produkt mit Nvidias Segen und offiziellem http://weknowmemes.com/generator/uploads/generated/g1336647258691967469.jpg
veröffentlichen darf.

Ich sehe das so. Du darfst damit herumexperimentieren, es verändern und uns gerne bug fixes und Verbesserungen schicken, aber sobald du damit Geld verdienen willst passiert... etwas? Also die gleiche Masche die jetzt auch andere Engine-Entwickler verfolgen. Du darfst gucken und anfassen, aber irgendwann musst du auch dafür bezahlen.

Der Blog-Eintrag bietet jedenfalls nicht genügend Informationen.

Daher wäre es toll, wenn Nvidia sein Lizenz-Modell mal offenlegen würde. Ich verstehe auch nicht, warum man da so ein Geheimnis drum machen muss. Aber gut es ist eben Nvidia.

Dimitri Mayakovsky
2015-03-05, 17:48:21
Das hätte ich dann gerne schwarz auf weiß. Dass ich das Zeug bei mir auf dem heimischen Computer verändern kann bedeutet doch nicht im Umkehrschluss, dass sich die Veränderungen auch in einem fertigen Produkt mit Nvidias Segen und offiziellem veröffentlichen darf.
Selbstverständlich darfst du den Enginecode modifziert in deinem Projekt verwenden. Das ist ja gerade der Sinn hinter einen Enginelizenz mit offenem Quellcode.

Den Code selbst darf man natürlich nur nur an andere Lizenzteilnehmer geben:
What modifications can I make to the source code?
You can extend it, modify it, fork it, or integrate it with other software or libraries, with one exception: You can’t combine the Unreal Engine code with code covered by a “Copyleft” license agreement which would directly or indirectly require the Unreal Engine to be governed by terms other than the EULA.
Can I share the Unreal Engine source code or tools with others?
You can share the source code or tools, along with any modifications you’ve made, with anyone who is an Unreal Engine licensee who is authorized to access the same version of the engine as yours, e.g. the 4.x.x version number of your installed build.
https://www.unrealengine.com/faq

PCGH_Carsten
2015-03-05, 17:49:29
Da es hier um die UE4-Lizenz geht (die lizenzierst du ja, Physx ist darin enthalten): Die ist öffentlich zugänglich.
https://www.unrealengine.com/eula
https://www.unrealengine.com/faq

Zum Beispiel:
Source Code

What modifications can I make to the source code?

You can extend it, modify it, fork it, or integrate it with other software or libraries, with one exception: You can’t combine the Unreal Engine code with code covered by a “Copyleft” license agreement which would directly or indirectly require the Unreal Engine to be governed by terms other than the EULA.

Unicous
2015-03-05, 18:25:40
Ja, aber ihr habt immer noch nicht beantwortet, was passiert wenn ich das ganze kommerziell vertreibe. Das war meine Frage. die ihr umschifft habt mit dem Offensichtlichen.

Screemer
2015-03-05, 18:46:43
du berappst 5% deines gewinns an epic.

Unicous
2015-03-05, 18:50:17
Das bezieht sich auf die Engine. Was ist mit PhysX?

Screemer
2015-03-05, 20:49:17
das ist soweit ich es verstehe nun teil der engine und muss nicht noch mal separat lizensiert werden. lasse mich da aber gerne eines besseren belehren. bei nv würde mich es grad aber nicht wundern, wenn ich was falsch verstehe.

Unicous
2015-03-05, 20:54:02
das ist soweit ich es verstehe nun teil der engine und muss nicht noch mal separat lizensiert werden. lasse mich da aber gerne eines besseren belehren. bei nv würde mich es grad aber nicht wundern, wenn ich was falsch verstehe.

Genau deswegen frage ich nach.:wink:

Es ist an sich schön, wenn Nvidia solche Dinger raushaut, aber man muss dann doch daran denken, dass Nvidia u.a. auch Batman Arkham City sponsert und Two-Face keine Münze mit zwei gleichen Seiten mehr hat, wenn du verstehst was ich meine.:wink:

Arcanoxer
2015-03-05, 21:53:16
wenn du verstehst was ich meine.:wink:
Nope, kein blassen schimmer. :freak:
Deine postings lassen nur immer sehr viel Interpretationsfreiraum offen.

Unicous
2015-03-05, 21:55:11
Cool.

Mr. Lolman
2015-03-05, 22:06:32
Na klasse,
da vergleicht man einen nackten Ozelot wo sich sogar die Sonne drin spiegelt gegen einen mit Fell.

https://www.youtube.com/watch?v=M8Nhe34sHJs
NVIDIA HairWorks in FarCry 4

Tolle Performance hat man auch dabei: https://www.youtube.com/watch?v=kiUHZfXHow4

Najo, ein fps-Einbruch von >50% ist offenbar locker verkraftbar, sofern die Konkurrenz da noch schlechter dasteht. Ist imo genauso idiotisch, wie Sunshafts/Godrays mit Polygonen darzustellen - außerdem interagieren die Gameworks Godrays nicht mit dem volumetrischen Nebel (im Ggs zur nativen Ubisoft Implementation). Macht aber nix, da auch das HBAO+ die Verschattung in der Distanz garnicht packt - während SSBC selbst die billigen Spritebäume in der Entfernung mit Schatteneffekten versieht: http://www.reddit.com/r/pcgaming/comments/2n9zb0/hbao_vs_ssbc_image_comparisons_with_interesting/

D.h. NV-Details sind bloß vom Leistungsaspekt die maximal mögliche Detailstufe, qualitativ ist man ohne den Gameworksfeatures bei FC4 besser dran - auch wenn man für die volumetrischen Godrays ein bisschen Helligkeit/Kontrast/Gamma in den Ingameoptionen anpassen muss.

Schnoesel
2015-03-05, 22:12:40
Warum pulsieren die Felle so? Sieht ja schlimm aus so kurz vorm explodieren.

dildo4u
2015-03-05, 22:19:44
Das ist nicht die Finale Version sondern umgekacke im Editor,es koste im Game keine Performance egal ob NV oder AMD.

http://www.hardocp.com/article/2015/01/12/far_cry_4_graphics_features_performance_review/5#.VPjHxuFrUrc


Die God Ray's hauen auf der 290 rein,sind aber kein Problem für die 285.Sollte also mit allen kommenden AMD Karten gut Performen.

http://www.hardocp.com/image.html?image=MTQyMTA1NzU0NWVoZmdWZVBMQjhfMl8yX2wuZ2lm

http://www.hardocp.com/image.html?image=MTQyMTA1NzU0NWVoZmdWZVBMQjhfMl80X2wuZ2lm

Die Fell Simulation im Game.
http://youtu.be/FHrmAF9IzQU?t=1m14s

Mr. Lolman
2015-03-05, 22:44:21
Das ist nicht die Finale Version sondern umgekacke im Editor,es koste im Game keine Performance egal ob NV oder AMD.

http://www.hardocp.com/article/2015/01/12/far_cry_4_graphics_features_performance_review/5#.VPjHxuFrUrc


Du hast ja keine Ahnung was die genau gebencht haben. Dass das bei der massiven Verschiebung zur Geometrielast keine Performance kosten soll, kannst du deiner Oma erzählen. Wenn irgendwo so ein Tiger in der Entfernung rumrennt und man kaum das Fell erkennen kann ist dank der dynamischen LOD Implementation von Hairworks die Performance wohl ziemlich in Ordnung (ähnlich wie bei TressFX 1.0). Wenn übern ganzen Screen massiv tesselliert wird, kostets halt doch Frames.

Und dass die Godrays bei höherer Geometrieleistung weniger Performance kosten ist auch klar. Dass trifft aber zB auch auf die tessellierten Betonteiler von Crysis 2 zu, wo wir ja hoffentlich alle einer Meinung sind, dass die wohl der Inbegriff Performanceverschwendung waren.

dildo4u
2015-03-05, 22:48:00
Es wird auf der Seite genau beschrieben wie sie gebencht haben.

In order to test the performance of fur on animals we are going to change up our run-through. Our normal run-through does include animals running randomly through the outdoor environments. However, to focus purely on fur performance we are going to literally focus on one animal up-close looking at its fur.

For our run-through here we have chosen a part at the beginning of the game, during the tutorial. The first animal you come across is already dead and laying on the ground. This allows us consistency. We can come to this area each time and angle the camera down at the animal looking directly at the animal, taking up the entire screen up-close and leave the game right there and let FRAPS record performance of the fur on the animal.


Und ich hab das Game selber das einzige was massiv Performance zieht sind die Soft Shadows.

-/\-CruNcher-/\-
2015-03-06, 07:40:57
Es wird auf der Seite genau beschrieben wie sie gebencht haben.




Und ich hab das Game selber das einzige was massiv Performance zieht sind die Soft Shadows.

Jep extreme

Gimmick
2015-03-06, 07:45:04
Das hängt von der Szene und derren "Gesamt-Tess-Last" ab.
Hab das selber schon gebencht, bei den zwei Affen im ersten Ort. Da haut Hairworks so richtig rein auf meiner 290.
Ohne God Rays mitten im Nirgendwo konnte ich bei zwei Büffel(?)-Viechern keinen Unterschied ausmachen.
Oder auch im Monster-Hunter-Online Benchmark, bei der ersten Katze da im Feld: Kaum Unterschied in den FPS.

Man merkt aber, dass die AMDs deutlich schneller in ihr Tess-Limit kommen, mit einer 970 merkt man das wahrscheinlich nicht.

-/\-CruNcher-/\-
2015-03-06, 07:55:29
Das hängt von der Szene und derren "Gesamt-Tess-Last" ab.
Hab das selber schon gebencht, bei den zwei Affen im ersten Ort. Da haut Hairworks so richtig rein auf meiner 290.
Ohne God Rays mitten im Nirgendwo konnte ich bei zwei Büffel(?)-Viechern keinen Unterschied ausmachen.
Oder auch im Monster-Hunter-Online Benchmark, bei der ersten Katze da im Feld: Kaum Unterschied in den FPS.

Man merkt aber, dass die AMDs deutlich schneller in ihr Tess-Limit kommen, mit einer 970 merkt man das wahrscheinlich nicht.

Natürlich nicht dieser Test muss auf AMD dann wenn mit Tonga durchgeführt werden nicht mit Hawaii

Mr. Lolman
2015-03-06, 08:37:05
Far Cry 4 - Patch 1.5.0. huge framerate drops with GTX 980 @ 1574/2000 + 4790k @ 4.8 Ghz

https://www.youtube.com/watch?v=Bz4TPTpg0KQ&feature=youtu.be

dargo
2015-03-06, 08:47:46
Far Cry 4 - Patch 1.5.0. huge framerate drops with GTX 980 @ 1574/2000 + 4790k @ 4.8 Ghz

https://www.youtube.com/watch?v=Bz4TPTpg0KQ&feature=youtu.be
Lol. :freak:

Gimmick
2015-03-06, 09:05:15
Natürlich nicht dieser Test muss auf AMD dann wenn mit Tonga durchgeführt werden nicht mit Hawaii

Muss er nicht.

Far Cry 4 - Patch 1.5.0. huge framerate drops with GTX 980 @ 1574/2000 + 4790k @ 4.8 Ghz

https://www.youtube.com/watch?v=Bz4TPTpg0KQ&feature=youtu.be

Im Zweifel hat FC4 auch sonst noch diverse Probleme. Mit 1.8 läufts auch wieder allgemein schlechter.

Kriton
2015-03-06, 09:26:48
das ist soweit ich es verstehe nun teil der engine und muss nicht noch mal separat lizensiert werden. lasse mich da aber gerne eines besseren belehren. bei nv würde mich es grad aber nicht wundern, wenn ich was falsch verstehe.

So würde ich es auch verstehen. Kann aber natürlich auch nur eine einfachere Integration sein und man lizensiert PhysX mit Zusatzgebühr über Epic. Letztlich ist dieser Teil ja nur kaufmännisch.

Kartenlehrling
2015-03-30, 14:13:02
Outsourcing von Nvidia :) mit der Licht und Schattenberechnung haben sie ja auch schon geteste, das kommt dann nächstes Jahr.
Jetzt kommt das Cuda-Wasser aus JustCause2 doch noch mal wieder zum Einsatz, welche Spiele gibts eigentlich noch mit der Cuda-wasser berechnung?

http://www.pcgameshardware.de/War-Thunder-PC-236743/Specials/Waveworks-1155021/
War Thunder und Waveworks: Alles geben für die perfekte Welle - Hintergrund

Doch weil War Thunder auf so vielen verschiedenen Systemen laufen muss, zwang die naturgetreue Simulation langsamere Rechner in die Knie. Die Lösung der Programmierer: Sie fuhren zweigleisig. "Die Physik-Simulation wird jetzt auf den CPUs der Server und der Spieler durchgeführt und 48 Mal pro Sekunde aktualisiert", erklärt Tim Tcheblokov. "Deren Ergebnisse reicht die CPU dann an die GPU weiter. Je nach Geschwindigkeit des Spieler-PCs setzt die GPU dann die Ergebnisse in jedem Frame optisch um." Falls das System über keine Grafikkarte verfügt, die schnell genug ist beziehungsweise CUDA unterstützt, kann die grafische Simulation ebenfalls in der CPU berechnet werden.