PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21

Troyan
2015-06-14, 11:37:29
Weder beschränkt man sich auf Monitore noch auf Spiele mit einer nVidia-Karte.

Dein Standpunkt ist auch sehr einseitig und nur pro AMD. Eventuell solltest auch DU darüber nachdenken und in eine neutralere Richtung denken.

Complicated
2015-06-14, 12:34:18
Du missverstehst meinen Standpunkt. Der ist nicht pro AMD, sondern pro Industriestandard. AMD bedient dieses Geschäftsmodell, Nvidia nicht. Daher sind diese Argumente auch entspechend zuzuordnen. Nvidia würde von mir großen Applaus bekommen und wieder in Kaufberatungen meinerseits auftauchen wenn sie Gsync und GameworX fallen lassen würden. Ich halte das Geschäftsmodell auf Dauer für kundenfeindlich. Daher rate ich auch jedem dies nicht finanziell zu unterstützen. Da spielt die Leistung keine Rolle, sondern die Kosten die irgendwann auf dem Rücken der Endkunden landen - denn sonst gibt es keine Gewinnsteigerung für Nvidia. Ich denke sie sollten Hardware entwickeln und sich darauf konzentrieren.

Ich will weder dass ein GPU Hersteller Einfluss auf Spieleentwickler nimmt noch auf Monitor-Hersteller. Denn die Innovationen aus diesen Bereichen treiben auch die Entwicklung der GPU Hersteller an. Bei Gleichschaltung eben nicht mehr.

Mancko
2015-06-14, 12:52:37
Ich halte das Geschäftsmodell auf Dauer für kundenfeindlich. Daher rate ich auch jedem dies nicht finanziell zu unterstützen. Da spielt die Leistung keine Rolle, sondern die Kosten die irgendwann auf dem Rücken der Endkunden landen - denn sonst gibt es keine Gewinnsteigerung für Nvidia. Ich denke sie sollten Hardware entwickeln und sich darauf konzentrieren.


Genau aus den gleichen Gründen sage ich jetzt, dass ich vom Kauf von AMD Produkten abrate. Der gesamte Konsolenmarkt ist für mich als PC Gamer schädlich, da M$, Sony und Nintendo zu viel Einfluss auf Spieleentwicklung nehmen und AMD dabei hilft und sich auch einmischt.


Ich will weder dass ein GPU Hersteller Einfluss auf Spieleentwickler nimmt noch auf Monitor-Hersteller. Denn die Innovationen aus diesen Bereichen treiben auch die Entwicklung der GPU Hersteller an. Bei Gleichschaltung eben nicht mehr.

Dito bei den Konsolen und im Übrigen lehne ich die Verbindung von CPU und GPU im PC Markt ab, weil dies eine Gleichschaltung darstellt, die schädlich für den Kunden ist. Daher meine Forderung weder AMD noch Intel dürfen zukünftig weiter GPUs bauen. AMD muss die Grafikabteilung abspalten und Intel ebenfalls. Darüber hinaus müssen AMD und Intel sämliche Erkenntnisse im x86 Umfeld jedem Interessenten, der keine GPUs produziert zu gleichen fairen Bedingungen verfügbar machen.

Ich habe mich jetzt Deiner Argumentationsweise bedient.

Blediator16
2015-06-14, 12:54:08
Genau aus den gleichen Gründen sage ich jetzt, dass ich vom Kauf von AMD Produkten abrate. Der gesamte Konsolenmarkt ist für mich als PC Gamer schädlich, da M$, Sony und Nintendo zu viel Einfluss auf Spieleentwicklung nehmen und AMD dabei hilft.



Dito bei den Konsolen und im Übrigen lehne ich die Verbindung von CPU und GPU im PC Markt ab, weil dies eine Gleichschaltung darstellt, die schädlich für den Kunden ist. Daher meine Forderung weder AMD noch Intel dürfen zukünftig weiter GPUs bauen.


Ich wundere mich garnicht mehr, wenn du auch irgendwas schreibst. Das schießt den Vogel ab :biggrin:

Troyan
2015-06-14, 12:58:32
Ohne nVidia gäbe es auf dem Monitor-Markt kein VRR. Oder auch höhere Refreshraten (3D Vision). Manchmal benötigt der Markt propritäre Techniken um voran zu kommen.

Daher ist deine Argumentation auch nicht sinnführend und ablenkend. Du bist nicht pro Industriestandard, sondern pro AMD. Industriestandard ist für dich nur ein willkommender Argumentationsbereich, um deinen Standpunkt durchzudrücken.

Nehmen wir Gameworks und Hairworks in The Wicher 3. Hairworks läuft über den Industriestandard DX11. Ein Standard der von AMD mit abgesegnet wurde. Demnach dürftest du hier keine Kritik anbringen können.
Anders sieht die Sache mit GPU-Physx aus, dass mit CUDA realisiert wird.

Ich sehe in deinen Postings auch keine Kritik an AMD für TrueAudio und Mantle. Beides sind propritäre Sachen, die nur von AMD unterstützt werden. Wieso sollte also ein Suchender sein Geld in solch eine Firma investieren, wenn du diese Kriterien bei nVidia als "no buy" titulierst?

Grestorn
2015-06-14, 15:22:38
Ich wundere mich garnicht mehr, wenn du auch irgendwas schreibst. Das schießt den Vogel ab :biggrin:

Du hast gar nicht bemerkt, dass Mancko die selben Argumente angewendet hat, die "Complicated" vorher selbst benutzt hat, aber sie in einen anderen Kontext gestellt hat.

Das war offensichtlich sarkastisch, um die Einseitigkeit dieser Argumentationslinie darzustellen.

EvilTechno
2015-06-14, 15:53:32
Es spricht nicht für dich, Mr G., dass du den Unterschied nicht erkennen kannst.

Letztlich argumentieren die einschlägigen nV-Apostel analog zu den alten Gottenbeweisen: "Angenommen es gibt Gott, dann...."

Hier ist es halt: "Angenommen nV ist ein Segen für uns alle, dann...."
Complicated hats doch wirklich nicht kompliziert :D ausgedrückt. Trotzdem wird wieder eklig unehrlich "argumentiert".

"Oh ja?!?! Du findest es also gut, dass nV nicht die Marktmacht hat um den kundenfeindlichen Weg fortzuführen den sie beschreiten? Dann....dann.... bin ich eben gegen AMD und den kundenfeindlich Weg den sie beschreiten könnten! HA! Immer einmalmehr als du!!11!!11"

Grestorn
2015-06-14, 16:36:12
Nein, das finde ich nicht. Das habe ich auch oft genug geschrieben. Aber ich weiß, lesen ist nicht jedermans Stärke.

Um es erneut zu schreiben: Wir brauchen einen starken Konkurrenten zu nVidia und es wäre fatal, wenn AMD scheitern würde.

ABER: Es ist *nicht* nVidia anzulasten, wenn AMD scheitert. Es ist deren natürliches Streben, mehr Marktanteile und damit langfristig mehr Gewinne zu erlangen, genau wie jede andere Firma und jede andere Privatperson auf der Welt auch. Dafür die Firma als "evil" zu bezeichnen und auf ihr herumzuhacken ist schlicht kindisch.

AMD ist die Firma, die leider momentan Schwierigkeiten hat, und das sicher nicht, weil nVidia so schrecklich unfair handelt (das ist eher Intel), sondern weil man dort immer wieder zu kurzfristig denkt und nicht versteht, dass man dem Kunden einen Grund geben muss, warum man ihre Produkte und nicht die der Konkurenz kaufen sollte.

P.S.: Die Fury X sieht ja bislang gut aus, Performance auf Titan X Niveau, integrierter AiO und dennoch ein gutes Stück preisgünstiger als die Titan X. Der Pferdefuß ist das RAM, aber das kriegt man hoffentlich auch bald in den Griff. Ich hoffe, AMD ist so schlau, und verramscht die Karte nicht zu viel billiger als die 980TI. Ob das für einen Turn-Around reicht kann keiner wissen, aber es ist mal ein Anfang.

gedi
2015-06-14, 16:59:28
Trotzdem sollten die Publisher darauf achten, dass die Spiele auf allen Systemen möglichst optimal mit der bestmöglichen Grafikpracht laufen. Nicht umsonst zahlt ein Kunde bis zu 70.- Teuronen für ein Spiel. Oder anders ausgedrückt: Für so eine Stange Geld erwarte ich 100%igen Support!

Und über das Ammenmärchen mit den Treibern brauchen wir uns gar nicht unterhalten.

Troyan
2015-06-14, 17:02:24
Der PC kann aber nicht nur den kleinsten gemeinsamen Nenner bedienen. Dafür gibt es Konsolen. nVidias und AMDs Hardware unterscheidet sich eben. Dazu kommt, dass Direct3D keine technische Implementierungen vorschreibt.

Entwickler sollen sich darum kümmern, dass ihre Spiele fehlerfrei laufen. Leistung ist etwas, was durch die Zeit dazu kommt - neue Hardware, bessere Treiber etc.

gedi
2015-06-14, 17:15:04
? XB1 und PS4 haben was nochmals gleich verbaut? Und im Bereich PC gibt es oft halt nicht mal den kleinsten gemeinsamen Nenner - es gibt oft leider nur einen - und der heißt NV

aths
2015-06-14, 17:17:01
Du missverstehst meinen Standpunkt. Der ist nicht pro AMD, sondern pro Industriestandard. AMD bedient dieses Geschäftsmodell, Nvidia nicht. Daher sind diese Argumente auch entspechend zuzuordnen. Nvidia würde von mir großen Applaus bekommen und wieder in Kaufberatungen meinerseits auftauchen wenn sie Gsync und GameworX fallen lassen würden. Ich halte das Geschäftsmodell auf Dauer für kundenfeindlich.
Auf kurz- und mittelfristige Sicht ja. Auf langfristige Sicht finde ich es gut.

Angenommen, solche Dinge würden erst dann umgesetzt wenn sich alle großen Hersteller geeinigt haben. Dann dauert es erstens länger, bis es überhaupt verfügbar ist. Und je mehr Hersteller beteiligt sind, desto größer der Wille, bei einer Fehlentwicklung nicht rechtzeitig die Konsequenzen zu ziehen. Nutzlose Technologien würden uns mit der kombinierten Marktmacht einfach aufgedrückt.

Jetzt mit GSync und Gameworks gibt es Testballons. Ist die Idee gut, ziehen andere nach. Beharrt ein Hersteller auf die proprietäre Lösung, ereilt sie das Sony-Schicksal diverser sony-eigener Medienformate (Betamax, Minidisc, UMD, ... es gibt sogar eigene Memorycard-Formate, die entsprechend nur Nischenlösungen blieben.)

Der PC-Markt war früher viel stärker segmentiert. Jeder Soundkarten-Hersteller kochte sein eigenes Süppchen.

Troyan
2015-06-14, 17:24:44
? XB1 und PS4 haben was nochmals gleich verbaut? Und im Bereich PC gibt es oft halt nicht mal den kleinsten gemeinsamen Nenner - es gibt oft leider nur einen - und der heißt NV

Welche Rollen spielen die Konsolen für den PC Markt?!
Und welche Rollen spiele diese, wenn die PC-Version verbessert werden soll? :confused:


AMD ist nicht der Hersteller, der vorschreibt, was gemacht werden darf oder nicht. Er ist einer von mehreren. Dank Direct3D können unterschiedliche Hersteller unterschiedliche Architekturen auf den Markt bringen. Das ist der Vorteil von einem Industriestandard. Wenn AMD dann nicht mehr mithalten kann, ist das erstmal deren Problem.

StefanV
2015-06-14, 18:22:47
AMD ist nicht der Hersteller, der vorschreibt, was gemacht werden darf oder nicht.
nVidia aber auch nicht....
Zumal sie auch die waren, die 'nen bisserl mehr im Weg waren...

Mancko
2015-06-14, 19:18:19
Du hast gar nicht bemerkt, dass Mancko die selben Argumente angewendet hat, die "Complicated" vorher selbst benutzt hat, aber sie in einen anderen Kontext gestellt hat.

Das war offensichtlich sarkastisch, um die Einseitigkeit dieser Argumentationslinie darzustellen.

Danke. Er hatte halt meinen letzten Satz übersehen, oder halt übersehen wollen.

dargo
2015-06-14, 19:44:59
Dito bei den Konsolen und im Übrigen lehne ich die Verbindung von CPU und GPU im PC Markt ab, weil dies eine Gleichschaltung darstellt, die schädlich für den Kunden ist.
Inwiefern soll eine APU mit enormen Speedvorteilen durch Beseitigung diverser Flaschenhälse für den Kunden schädlich sein? Das ist höchstens für Nvidia schädlich weil sie bei x86 nichts zu bieten haben. Das war u.a. auch der Grund warum in den Konsolen AMD-APUs stecken.

Sunrise
2015-06-14, 19:52:02
Der PC-Markt war früher viel stärker segmentiert. Jeder Soundkarten-Hersteller kochte sein eigenes Süppchen.
Auch da gab es immer Standards, die auch offen für alle waren.

AdLib, SB Pro und SB16 waren damals von den meisten Herstellern unterstützt (bzw. emuliert). Es gab Exoten wie Gravis Ultrasound (geile Karte) oder Roland mit ihren Midi-Karten (auch geile Karten), aber das war immer nur Zusatz ohne durchdringenden Erfolg.

Das ist nicht zu vergleichen mit der Gameworks-Situation. Schon garnicht, weil Gameworks closed ist. Das baut AMD also nicht einfach mal so ein, selbst wenn sie wollten.

Bei den Testballons stimme ich dir teilweise zu, aber NV macht das heutzutage um den Markt zu spalten. Sie sagen, sie wollen den PC verbessern, im Endeffekt ist das aber nur für die Leute, die es ihnen auch glauben. Würden sie etwas beim PC verbessern wollen, dann würde das auf breiterer Front passieren und vor allem übergreifend, also so, dass jeder etwas davon hat und nicht, dass AMD stark in die Treiber eingreifen muss, um einen "Workaround" für NVs bescheuerte Methoden zu finden. Das bringt keinem was, außer NV.

EvilTechno
2015-06-14, 20:13:41
Das Soundkarten Beispiel passt schon. Heute würde eine Gruppe skandieren: Schaut nur was Creative Labs geiles macht. Dieses EAX ist der Hammer! Und andere würden erklären wie schädlich es ist, wenn man das ganze proprietär handhabt. Und dann kommt Microsoft und rettet den Tag. :D Verrückte Welt.

captain_drink
2015-06-14, 20:25:06
...

Wieso beschränkst du die Kritik nur auf NV? AMD hat und hatte ebenfalls proprietäre Techniken, sogar mal eine API, also das grundlegendste überhaupt. TrueAudio fällt nur unter den Tisch, weil es niemand verwendet, während FreeSync faktisch AMD-Tech ist, weil NV sich ohnehin nie beteiligen wird.

Man sollte die das AMD'sche Folkore über OS nicht zu ernst nehmen. AMD fehlt es lediglich an Marktmacht, um ihre eigene Tech durchzusetzen (siehe Mantle und TrueAudio), probiert hätte man es schon. Dass sich die Kritik auf NV einschränkt, liegt schlicht daran, dass der Marktanteil eine kritische Größe hat.

Umgekehrt könnte man natürlich auch sagen: Aufgrund des großen Marktanteils sind proprietäre Lösungen von NV noch dem Ziel am nächsten, für alle Nutzer einen Nutzen zu haben. Letztlich ist das Formulieren solcher "Ziele" ohnehin willkürlich und meistens damit verbunden, dass jemand seinen Lieblings-IHV in besserem Licht sehen möchte.

Screemer
2015-06-14, 20:55:31
Wieso beschränkst du die Kritik nur auf NV? AMD hat und hatte ebenfalls proprietäre Techniken, sogar mal eine API, also das grundlegendste überhaupt. TrueAudio fällt nur unter den Tisch, weil es niemand verwendet, während FreeSync faktisch AMD-Tech ist, weil NV sich ohnehin nie beteiligen wird.
true audio ist ein lizensierter dsp, den jeder andere wohl auch verbasteln kann. freesync ist ein marketing begriff für das offene adaptivsync, welches ein industriestandard ist, mantle wurde mit dem ziel einen neuen industriestandard zu schaffen, um die stehenden mühlen bei ms und der khronosgroup anzutreiben oder abzubrennen, entwickelt. bei nv sehe ich da nicht 1 solchen ansatz. versteh mich nicht falsch. die maxwell generation und auch schon keppler waren und sind topp produkte. mir ist allerdings das drum herum sehr suspekt.

gedi
2015-06-14, 20:59:58
Naja, PfützeX hat sich nun auch nicht unbedingt durchgesetzt. Dagegen ist Mantle schon beinahe ein richtiger Runner. Mir fällt allerdings TressFX ein, das ist nicht proprietär und funktioniert sowohl als auch mit angemessener Performance.

Screemer
2015-06-14, 21:28:55
gab hier doch ne seitenweise diskussion im thread, bei dem die lizenzbedingungen von tressfx zerlegt wurden um zu zeigen, dass amd da trotz allem proprietär ist. mit dem endresultat kann ich aber nicht aufwarten. verlief sich dann glaub ich.

gedi
2015-06-14, 21:30:38
Ups - sorry, wusste ich nicht :redface:

Troyan
2015-06-14, 21:36:45
Naja, PfützeX hat sich nun auch nicht unbedingt durchgesetzt. Dagegen ist Mantle schon beinahe ein richtiger Runner. Mir fällt allerdings TressFX ein, das ist nicht proprietär und funktioniert sowohl als auch mit angemessener Performance.

Hairworks ist auch nicht proprietär und funktioniert auch mit angemessener Performance.

Das ist aber irgendwie böse. :(

fondness
2015-06-14, 21:41:25
Hairworks ist auch nicht proprietär und funktioniert auch mit angemessener Performance.

Das ist aber irgendwie böse. :(

Natürlich ist Hairworks proprietär, noch mehr proprietär geht eigentlich gar nicht, es ist sogar closed source für die Öffentlichkeit und die Konkurrenz im Gegensatz zu TressFX. Und über die angemessenen Performance kann man auch streiten.

gedi
2015-06-14, 21:44:17
Hairworks ist auch nicht proprietär und funktioniert auch mit angemessener Performance.

Das ist aber irgendwie böse. :(

Aber eben nicht sowohl als auch :rolleyes:

Screemer
2015-06-14, 22:01:58
Ups - sorry, wusste ich nicht :redface:
ging glaube ich hier los: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10647958#post10647958. ziemlich genau 2 wochen her.

Troyan
2015-06-14, 22:06:09
Natürlich ist Hairworks proprietär, noch mehr proprietär geht eigentlich gar nicht, es ist sogar closed source für die Öffentlichkeit und die Konkurrenz im Gegensatz zu TressFX. Und über die angemessenen Performance kann man auch streiten.

Er vergleicht TressFX mit GPU-PhysX. Und somit eher, was wo läuft.

Im Sinne von der Definition von "Proprietär" ist TressfX es natürlich auch. Es steht weder unter einer freien Lizenz noch darf der Source-Code der Implementierung in Spielen an Dritte weitergegeben werden:


Proprietäre Software ist jegliche Software, die keine freie und quelloffene Software ist. Mit dem urheberrechtlichen Schutz (siehe 1.) hat diese Definition jedoch wenig zu tun: Ein urheberrechtlich geschütztes Programm, das unter der GPL lizenziert ist, ist hiernach „frei“. Hingegen gilt ein urheberrechtlich geschütztes Programm, das unter einer nicht-„freien“ Lizenz steht – auch bei offengelegtem Quelltext – als proprietär.
http://de.wikipedia.org/wiki/Propriet%C3%A4r

Was AMD auf der Seite veröffentlicht, spielt überhaupt keine Rolle. Da DAS nicht das sein muss, was in Spielen eingebaut wird, sollte verständlich sein.

Wir haben die Diskussion mit den Lizenzen schon durch. Und im den Sinne ist TressFX genauso schlecht wie Hairworks oder jede andere Gameworks-Bibliothek.

gedi
2015-06-14, 22:58:07
Proprietär im Sinne von auf lediglich einem IHV anwendbar ist weder TressFX noch Hairworks. Proprietär im eigentlichen Sinne ist allerdings so ziemlich alles was ich mir vorstellen kann.

Complicated
2015-06-14, 23:50:09
Ohne nVidia gäbe es auf dem Monitor-Markt kein VRR. Oder auch höhere Refreshraten (3D Vision). Manchmal benötigt der Markt propritäre Techniken um voran zu kommen.
Das ist falsch, denn VRR hat die VESA im eDP-Standard 2010 definiert. Nvidia hat das weder erfunden noch als erster in PCs eingesetzt. Es ist definiert in eDP 1.3 als Adaptive Refresh. Alle GSync Notebooks beruhen genau darauf. Alle GSync Monitore beruhen genau darauf. Nvidia hat lediglich ein eigenes Modul erfunden, das die Bandbreite des DP 1.2 nutzen kann und nicht DP 1.2a nötig ist für VRR. Es ging um einen Firstmover-Vorteil und sie haben einige Monitor-Hersteller davon überzeugt damit einen Vorsprung zu haben. Das hat nicht lange angehalten wie man an der geringen Auswahl von Monitoren sieht. Der First-Mover Vorteil ist dahin und es bleibt eine proprietäre Technik die keine weitere Industrie Unterstützung erhalten wird, das das Preispremium nicht gerechtfertigt ist. Der Kostendruck wird GSync bei den Herstellern von Monitoren scheitern lassen, da neu Standard Monitor Controller eben Adaptive Sync mit an Board haben.

Nvidia soll und kann Freesync nicht unterstützren, sondern Adaptive Sync von der VESA, das in den Monitoren vorhanden ist. Freesync ist der Marketingname für AMDs Unterstützung der VESA Technologie. AMD kann ja wohl kaum Treiber für Nvidia herstellen, damit die den VESA-Standard beherrschen und Standard-EDID Profile der Monitore auslesen.
Genau aus den gleichen Gründen sage ich jetzt, dass ich vom Kauf von AMD Produkten abrate. Der gesamte Konsolenmarkt ist für mich als PC Gamer schädlich, da M$, Sony und Nintendo zu viel Einfluss auf Spieleentwicklung nehmen und AMD dabei hilft und sich auch einmischt.
Ein nettes Schein-Argument, aber mehr auch nicht. AMD beliefert die Konsolen Hersteller mit einer Komponente. Ebenso wie Realtech, Samsung oder Seagate einen Teil der Konsole liefern. MS oder Sonys Geschäftsgebaren gleicht dem von Nvidia. Doch die "Durchgriffshaftung" für die Unternehmensphilosophie schreibst du AMD zu - wenig schlüssig und daher ein Scheinargument. Würde einer der Konsolen Hersteller AMDs Unternehmensphilosophie teilen, wäre die Software frei zugänglich und die Low-Level API auch für andere Konsolen-Hersteller zugänglich - > Siehe z.B. Mantle zu Vulkan Transit in die Khronos Gruppe nach Beendigung der Beta-Phase, wo auch Nvidia Mitglied ist.
Wieso beschränkst du die Kritik nur auf NV? AMD hat und hatte ebenfalls proprietäre Techniken, sogar mal eine API, also das grundlegendste überhaupt.
Du bringst ebenfalls ein Schein-Argument. Natürlich hat AMD propriätere Techniken, sie sind Hardware Hersteller und leben von ihrem Know-How und dem verkauf der Hardware-IP die sie entwickeln. Das ist ihr Geschäftsmodell. Was sie aber nicht haben ist irgendeine Software an der sie Geld verdienen.

Nvidia streckt seine Fühler aber in andere Branchen aus und beeinflusst Spieleentwickler und Monitor-Hersteller aktiv dahingehend exklusive Produkte zu erstellen die nicht kompatibel sind mit Industrie-Standards. Der eine ist ein proprietärer DX-Standard, kontrolliert von MS und das andere der ab DP 1.2a bestehende Adaptiv Sync Standard kontrolliert durch die VESA, wo Nvidia selber auch Mitglied ist.

Troyan
2015-06-15, 00:02:57
Das ist falsch, denn VRR hat die VESA im eDP-Standard 2010 definiert. Nvidia hat das weder erfunden noch als erster in PCs eingesetzt. Es ist definiert in eDP 1.3 als Adaptive Refresh. Alle GSync Notebooks beruhen genau darauf. Alle GSync Monitore beruhen genau darauf. Nvidia hat lediglich ein eigenes Modul erfunden, das die Bandbreite des DP 1.2 nutzen kann und nicht DP 1.2a nötig ist für VRR. Es ging um einen Firstmover-Vorteil und sie haben einige Monitor-Hersteller davon überzeugt damit einen Vorsprung zu haben. Das hat nicht lange angehalten wie man an der geringen Auswahl von Monitoren sieht. Der First-Mover Vorteil ist dahin und es bleibt eine proprietäre Technik die keine weitere Industrie Unterstützung erhalten wird, das das Preispremium nicht gerechtfertigt ist. Der Kostendruck wird GSync bei den Herstellern von Monitoren scheitern lassen, da neu Standard Monitor Controller eben Adaptive Sync mit an Board haben.

Adaptive-Sync wurde erst mit 1.2a auf den Desktop eingeführt. Vorher gab es keine Spezifikation für die Kommunikation, da das ganze nur in eDP vorhanden war.
Erst nach der Vorstellung von G-Sync wurde es überhaupt eingereicht. Das hatten wir auch schonmal.

Unicous
2015-06-15, 00:15:13
Ohne nVidia gäbe es auf dem Monitor-Markt kein VRR.

Du meinst ohne Ati/AMD und David Glen gäbe es kein VRR, richtig? Das wolltest du doch eigentlich sagen, es war nur eine Freud'sche Fehlleistung.:wink:

https://www.google.de/patents/US20080055318

https://ca.linkedin.com/pub/david-glen/45/5b4/359

StefanV
2015-06-15, 00:21:54
Das Zeugs mit variabler Refresh Rate ist noch viel älter als das....

Hab beim googeln (gerade keine Lust zu) Dokumente aus den frühen 80ern gefunden, die sowas für CRTs beschreiben....

Das ist also eigentlich schon verdammt alt, kam aber (leider) nie wirklich beim Consumenten an...

Bis eben vor ein paar Jahren, als man auf die Idee kam, bei den 'Ultramobiles' die Refreshrate einzustellen, um strom zu sparen...

Unicous
2015-06-15, 00:29:10
Darum ging es mir nicht. Schau mal unten bei wem besagtes Patent dann wiederum im eigenen Patent zitiert wird.:wink:

Und variable bzw. dynamische Refresh-Raten sind natürlich nichts neues. Hier wird aber konkret eine Methode beschrieben die wahrscheinlich der Panel Self Refresh Methode zu Grunde liegt.

-/\-CruNcher-/\-
2015-06-15, 00:46:52
Naja, PfützeX hat sich nun auch nicht unbedingt durchgesetzt. Dagegen ist Mantle schon beinahe ein richtiger Runner. Mir fällt allerdings TressFX ein, das ist nicht proprietär und funktioniert sowohl als auch mit angemessener Performance.


Das wird zu einfach dargstellt Microsoft hat schon 2006 zur WinHec die Pläne wo es mit den IHVs hingehen wird mit WDDM und der GPU im Windows OS auf den Tisch gelegt Nvidia daraufhin wie bekloppt angefangen daraufhin zu optimieren mit jeder neuen WDDM version und den vorhanden Restriktionen :)
AMD hat einfach weiter gedacht und Lieber die Resourcen direkt in die Komplett neue API gesteckt (das hat auch Microsoft sehr gefallen) als wie bekloppt zu optimieren das hilft nun allen das ist richtig aber hier wiederum hat Nvidia jetzt ihre ganzen Optimierungen zusätzlich wo AMD versucht gerade wie wild aufzuholen :)
Dafür musste AMD aber auch ordentlich einstecken während Nvidia stetig optimierte konnte AMDs Treiber Team das über die nächsten WDDMs nicht schaffen, weil die Resourcen vor allem im Zeitraum der Konsolen Konvergenz und Fortsetzung ihres HSA (Fusion) gedanken vollkommmen in Mantle gebuttert worden sind, das war absolut richtig und wichtig und dafür musten sie kritik ohne ende kassieren wegen ihrem treiber stand gegen Nvidia.

Natürlich hat hier AMD großes für alle geleistet und das wird ja auch nicht vergessen und von jedem erwähnt, mal drauf achten :)

Zugegeben Nvidia könnte es auch mal öfter erwähnen aber immerhin hat Petersen die Leistung ja offiziel schon mehrmals in Interviews ja auch annerkannt und ausgesprochen :)

Und sicherlich freut sich keiner mehr als Nvidia auf DX 12 mit ihren schon längst vorhanden optimierungen das sie den Vorteil überhaupt erst dank AMD haben sollte man einfach nicht vergessen auch nicht als Nvidia Fanboy und man sollte schon kritischer auf Nvidias handeln in Zukunft schauen.

Optimal ist es jedenfalls nicht was hier alles passiert für den Kunden so lange die Balance aber steht ist alles in Ordnung das ist noch gegeben aber man sollte schon kritischer hinschauen was vor allem mit DX12/Vulkan passiert bei beiden.

Complicated
2015-06-15, 00:52:00
Adaptive-Sync wurde erst mit 1.2a auf den Desktop eingeführt. Vorher gab es keine Spezifikation für die Kommunikation, da das ganze nur in eDP vorhanden war.
Erst nach der Vorstellung von G-Sync wurde es überhaupt eingereicht. Das hatten wir auch schonmal.
Es gibt keinen VESA Standard spezifisch für Desktop Adaptive Sync. Adaptive Sync ist eine bestehende Spezifikation die bei DP 1.2a dazu genommen wurde. Gsync wurde sicher nicht vor der Einreichung von Adaptive Sync im Jahre 2009 bei der VESA eingeführt. eDP ist Teil des DP Standards.

gedi
2015-06-15, 00:57:30
@Cruncher

Wie du richtig angemerkt hast ist, dass es ohne Mantle wahrscheinlich kein DX12 geben würde (M$ halt). Von daher würde ich in Bezug auf Mantle mal meine Füße still halten (damit meinte ich jetzt nicht dich persönlich). Ich denke allerdings trotzdem, dass AMD wohl weitaus mehr von DX12 profitieren wird als NV und ich denke (obwohl mir das Fachwissen hierfür fehlt), dass der DX11-Bug auf Hawaii (sprich der CPU-Overhead) designtechnisch nicht zu 100% zufriedenstellend gefixt werden kann.

-/\-CruNcher-/\-
2015-06-15, 01:13:59
Da sind wir gleicher Meinung mit DX12 wird AMD das volle potential ihrer GCN Hardware auf den Tisch legen können und vermutlich wird dann der Energieverbrauch endlich sinn ergeben relativ zur Performance, das ist eigendlich das wovor Nvidia Angst hat deswegen Gameworks so viele wie möglich durch finanziele anreize auf Nvidia optimierung zu ziehen, weil der Vorteil des treibers sich langsam in luft auflößt und AMD aufholt auch bedingt dadurch das sie verdammt viel wissen aus den Konsolen ziehen konnten mit den bisherigen Partnerships. ;)

gedi
2015-06-15, 01:19:50
Naja, ich glaube kaum, dass Hawaii durch DX12 alleine nun mal kurz 33% schneller wird, um das Verbrauchsdefizit auszugleichen.

-/\-CruNcher-/\-
2015-06-15, 01:46:18
Ach du meine

Nvidia hat ja Transgaming geschluckt ?

http://www.marketwired.com/press-release/-2028766.htm

http://blogs.nvidia.com/blog/2015/06/11/nvidia-gameworks-studio/

http://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Acquires-TransGaming-GPG

Wobei überraschend ist das jetzt nicht die Zukunft von Transgaming sah ja nicht rosig aus jetzt wo alles immer Nativer wird ;)

Da kommt Nvidia gerade richtig um es zu retten mit einem gekonnten komplett switch auf ihr Ökosystem vor allem Tegra und Grid :)

Böhse vor allem was Samsung da jetzt schlucken wird müssen ;)

Zudem holt sich Nvidia da ein paar sehr fähige Low Level Programmierer ins Boot für ihr GameWorks Team (das ist viel interessanter) :)

Jetz sind sie auch noch mitten nebenan ihres großen Partners Ubisoft von der Räumlichen Lokation naja fast Transgaming/Nvidia im Fashion District und Ubisofts Studio im Junction Triangle :D

https://en.wikipedia.org/wiki/Ubisoft_Toronto

gedi
2015-06-15, 02:11:13
Hm - da findet Tegra zurecht zu wenig Akzeptanz.

WC_ENTE
2015-06-15, 03:50:43
während FreeSync faktisch AMD-Tech ist, weil NV sich ohnehin nie beteiligen wird.
.
Nein nein nein,
Intel wird Adaptive-Sync ab 2016 verwenden
Via wird Adaptive-Sync ebenso mit der nächsten Gen. unterstützen

Nebenbei Adaptive-Sync = Freesync (Amd Marketing) ist der Vesa Standard :wink:

Screemer
2015-06-15, 08:24:44
...

Was du dir da schon wieder zusammen fabulierst. Hast du den phoronix-artikel, welchen du verlinkt hattest, auch gelesen?

NVIDIA is acquiring TransGaming's GPG division and folding it into their NVIDIA GameWorks division. NVIDIA previously worked with TransGaming on bringing games to SHIELD Android TV. The rest of TransGaming is left unacquired to focus on GameTree and SwiftShader.

-/\-CruNcher-/\-
2015-06-15, 12:40:42
Was du dir da schon wieder zusammen fabulierst. Hast du den phoronix-artikel, welchen du verlinkt hattest, auch gelesen?

Ja die Game Portability Group besteht aus den wichtigsten Köpfen

StefanV
2015-06-15, 17:26:11
Darum ging es mir nicht.
In gewisser Weise schon. Denn es wurde ja behauptet, dass das ganze ja auf nVidias Mist gewachsen sein soll - was schlicht gelogen ist.

Die Überlegungen zu variablen Widerholraten sind fast so alt wie der PC selbst...

Troyan
2015-06-16, 19:38:18
Killing Floor 2 mit nVidia's Flex: http://gfycat.com/LikelyMellowAnophelesmosquito
http://www.geforce.com/whats-new/articles/killing-floor-2-gore-goes-next-gen-with-nvidia-gameworks-physx-flex

Screemer
2015-06-16, 20:27:21
Killing Floor 2 mit nVidia's Flex: http://gfycat.com/LikelyMellowAnophelesmosquito
http://www.geforce.com/whats-new/articles/killing-floor-2-gore-goes-next-gen-with-nvidia-gameworks-physx-flex
sorry, aber das sieht halt mal richtig scheiße aus. die sollten mal lieber an ihren assets arbeiten, bevor sie solche spielereien verbasteln.

da sehen die beispiele im youtube-vid von nv schon beeindruckender aus.

qu3x^
2015-06-17, 00:37:48
sorry, aber das sieht halt mal richtig scheiße aus. die sollten mal lieber an ihren assets arbeiten, bevor sie solche spielereien verbasteln.

da sehen die beispiele im youtube-vid von nv schon beeindruckender aus.
Bedenke dabei dass du bei Killing Floor 2 bei Zeiten +60 ZEDs am Schirm hast, und du dennoch anständige FPS brauchst um Suicidal oder HoE zu überleben. Was bringt Dir die mörder Optik wenn du ständig unter 60 fps runterfällst und sich deine Maus scheiße anfühlt :freak:

Screemer
2015-06-17, 00:41:12
da brauch ich dann umbedingt rumschwappende gedärme, die machen es dann besser wenn der rest crappy aussieht?!

qu3x^
2015-06-17, 22:57:25
da brauch ich dann umbedingt rumschwappende gedärme, die machen es dann besser wenn der rest crappy aussieht?!
Spiel das Game mal Probe, und zeig mir ein 2t. Game wo das Gunplay so dermaßen gut ist. Bei dem Spiel gings nie um die Optik wenn du dir ansiehst was zum selben Zeitpunkt von "Killing Floor" Urrelease am Markt war.

Ich hab lieber 120 fps und sowas von smoothes Gameplay, einen sauberen Netcode anstatt einen Game wo die Hälfte broken ist und nur schön aussieht. Nicht alles was glänzt ist schließlich Gold. KF2 ist auch nicht das Zielpublikum für ein Crysis, Glitcher 3 odgl. Das Game läuft auf moderater Hardware ausgezeichnet und wenn noch zustätzliche Resourcen da sind hat der Spieler mehr Splatter und Gore. Ob es Dich persönlich ästhetisch erfüllt, vom Gesamtkonzept erfüllt ist ja unabhängig von der Gameworksimplementierung würd ich sagen.

Troyan
2015-06-18, 15:44:44
Aus dem Computerbase Test zu den rebrands:


Eine Anmerkung vorweg: Der neue Catalyst 15.15 bringt einen ordentlichen Geschwindigkeitsschub in Assassin's Creed Unity.
http://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistungsaufnahme

Soviel dazu, dass AMD für Gameworks-Spiele nicht optimieren könnte. Anscheinend gehts...

dildo4u
2015-06-18, 15:46:42
AC Unity sollte mal Tesselation bekommen wurde aber nie gepatcht es gibt nix in dem Game was AMD Performance behindern würde.

Kartenlehrling
2015-06-18, 15:49:47
Du willst uns aber jetzt nicht einreden, das AMD einfach die letzten Monat nur nicht den Treiber optimiert hat.

Troyan
2015-06-18, 15:52:44
Anscheinend schon.

7 Monate nach dem Launch bringt man also einen Treiber, der die Leistung um 15-20% steigert. Gleichzeitig behauptet man PR-mäßig, man könnte ja gar nicht für diese Spiele richtig optimieren.

Man könnte auch meinen, für PR kommen solche Omega-Treiber viel besser rüber. Also bringt man Leistungssteigerungen für ältere Spiele einfach nicht zeitnah, sondern 2x mal im Jahr.

Unicous
2015-06-18, 16:19:50
Langsam wagt sich LovesuckZ wieder etwas. Wenn wir ihm noch etwas Zeit lassen digitiert (heißt doch so, oder?) er zu SupertroyaN, der Vorstufe von LoveSuckZ.

-/\-CruNcher-/\-
2015-06-18, 16:30:21
AC Unity sollte mal Tesselation bekommen wurde aber nie gepatcht es gibt nix in dem Game was AMD Performance behindern würde.

Richtig krass währe es ja wenn sie jetzt plötzlich sagen würden hey Geometryworks patch ist fertig so mitten vor den Fury tests ;)

N0Thing
2015-06-18, 17:46:27
Wird im Assassin's Creed Unity Benchmark von Computerbase überhaupt ein Gameworks-Feature benutzt?
Falls doch, scheint sich zu bestätigen, dass AMD erst ab dem Release mit der Optimierung anfangen kann. Man hört ja immer wieder, dass die finale Gameworks-Fassung erst kurz vor Release in die Spiele integriert wird.

Wie dem auch sein, je nach Vorliebe bezeichnet man es wohl entweder als 7 Monate untätiges Warten oder tollen Support, wo sich der Hersteller selbst 7 Monaten nach Release des Spiels noch um die Kunden kümmert. :freak:

gnomi
2015-06-18, 18:10:48
So lange darf es denke ich dann nicht dauern.
Nvidia war in Tomb Raider und Hitman auch schwach, hat aber kontinuierlich Treiberverbesserungen gebracht. (und mit dem immer noch etwas langsamen MSAA in letzterem kann man ob der zweifelhaften Qualitätsgewinne gegenüber mehr Auflösung auch gut leben)

Mr. Lolman
2015-06-18, 18:37:24
AMD hat aber auch keine closed source Bibliotheken (Tomb Raider). Und dass Hitman auf NV mies lief, war wohl kaum AMDs schuld.

Thunder99
2015-06-18, 18:53:44
Wird im Assassin's Creed Unity Benchmark von Computerbase überhaupt ein Gameworks-Feature benutzt?
Falls doch, scheint sich zu bestätigen, dass AMD erst ab dem Release mit der Optimierung anfangen kann. Man hört ja immer wieder, dass die finale Gameworks-Fassung erst kurz vor Release in die Spiele integriert wird.

Wie dem auch sein, je nach Vorliebe bezeichnet man es wohl entweder als 7 Monate untätiges Warten oder tollen Support, wo sich der Hersteller selbst nach 7 Monaten des Spiels noch um die Kunden kümmert. :freak:
lieber spät optimiert als gar nicht :)

captain_drink
2015-06-18, 18:58:53
AMD hat aber auch keine closed source Bibliotheken (Tomb Raider). Und dass Hitman auf NV mies lief, war wohl kaum AMDs schuld.

Bei TR bekam NV den Build ungefähr fünf Minuten vor Release, also exakt dasselbe, das Huddy sonst allenthalben beklagt. OS oder CS, faktisch hat sich AMD ebenfalls nicht gescheut, NV die Möglichkeit der Optimierung vor Release zu nehmen.

Ich kann mich nur wiederholen: AMD ging in diesen Fällen nicht anders vor als NV in anderen. Wer seine Kritik nur auf einen IHV beschränkt, argumentiert ideologisch.

aufkrawall
2015-06-18, 19:12:46
Bei Dirt: Showdown wurd F+ auch einfach per Update ausgerollt und war erst Monate später auf der AMD-Seite einsehbar.
Ich weiß, ich wiederhole mich. Aber das tun wir uns doch alle hier ständig. :cool:

kruemelmonster
2015-06-19, 17:36:10
Dann nehmen wir zur Abwechselung mal Shogun 2, für dessen DX11 Patch AMD im Rahmen von Gaming Evolved die Shader (mit)geschrieben hat:


AMD provided expert technical support, both on-site and off-site. We co-developed shaders together and rapidly turned around some very high performance shaders for the [unverständlich] hardware. Off-site, they continued to provide expert on-demand feedback for the questions, or shader fragments that we might exchange that enable us to move forward very quickly.

Quelle (https://www.youtube.com/watch?v=J0eZEdpsgjk)

Per se nicht ungewöhnliches, es zeigt aber die Einseitigkeit der "NV soll sich aus den Spielen raushalten"-Sichtweise.

boxleitnerb
2015-06-19, 18:10:01
del, nicht gelesen :D

Troyan
2015-06-19, 18:32:38
Und mit dem neuen Treiber hat sich auch die Tessellationleistung im Allgemeinen gesteigert.
Und schwupps läuft Hairworks in The Witcher 3 erheblich besser - bei Hardocp 40% schneller

Damit schließt sich der Kreis hier.

Und laut dem Marketingpapier hat man die Treiber generell erneuert, wodurch Mehrleistung in einigen Spielen erreicht wurde.

Blediator16
2015-06-19, 18:39:47
Der Gedanke, dass GW diese Arbeit enorm erschwert, wird nicht in Betracht gezogen?

dildo4u
2015-06-19, 18:44:50
Tesselation ist keine Nvidia Erfindung und ist kein Plan seid 6? Jahre in den DX11 Specs.Wie man sieht hätte AMD schon vor Ewigkeiten die Hawaii Performance per Treiber fixen können aber nein man hat sich das für den 300 Launch aufgehoben.

Schnoesel
2015-06-19, 18:51:20
Was ändert das an der Tatsache dass Nvidia einen Tess Faktor verwendet der höher ist als benötigt und damit alle Karten einschließlich die eigenen ausbremst? Das Hairworks in der Form Murks in von aus Performancesicht haben die Entwickler hier doch bereits bestätigt.

Troyan
2015-06-19, 18:52:25
Hairworks gibt es seit ende 2013 in CoD:Ghost und der Hairworks-Viewer ist seit Monaten/Jahren von nVidia runterladbar.

Außerdem hat AMD doch selbst gesagt, dass sie seit März TW3 Versionen mit Hairworks haben.
Die hätten diese Leistungssteigerung schon zum Spiellaunch bringen können.

Es ist mehr als offensichtlich, dass man zum Einen nochmal per PR sich als weißen Ritter präsentieren und gleichzeitig die Rebrands besser promoten wollen.

Erstaunlich nur, dass die AMD Käufer damit kein Problem haben. Zeigt auch ein bisschen die unterschiedliche Käuferschicht. Wäre das nVidia, würde deren eigenes Forum geradewegs implodieren. :lol:

grobi
2015-06-19, 19:04:21
Hairworks gibt es seit ende 2013 in CoD:Ghost und der Hairworks-Viewer ist seit Monaten/Jahren von nVidia runterladbar.

Außerdem hat AMD doch selbst gesagt, dass sie seit März TW3 Versionen mit Hairworks haben.
Die hätten diese Leistungssteigerung schon zum Spiellaunch bringen können.

Es ist mehr als offensichtlich, dass man zum Einen nochmal per PR sich als weißen Ritter präsentieren und gleichzeitig die Rebrands besser promoten wollen.

Erstaunlich nur, dass die AMD Käufer damit kein Problem haben. Zeigt auch ein bisschen die unterschiedliche Käuferschicht. Wäre das nVidia, würde deren eigenes Forum geradewegs implodieren. :lol:

Höre doch bitte auf so was "gehaltvolles" zu schreiben......;D

Kartenlehrling
2015-06-19, 19:28:43
Lass wir uns überraschen was DeusEx:MD und RotTR mit den Haaren und der Performance macht.
Jedenfalls hat eine Wache in DeusEX:MD schönere Haare als die Yennefer in Witcher3 und das auf einer PS4.

dargo
2015-06-19, 19:59:57
Lass wir uns überraschen was DeusEx:MD und RotTR mit den Haaren und der Performance macht.
Jedenfalls hat eine Wache in DeusEX:MD schönere Haare als die Yennefer in Witcher3 und das auf einer PS4.
Das Spiel wird übrigens zum ersten Mal TressFX 3.0 nutzen.

gnomi
2015-06-19, 22:58:21
Yen, Triss & Ciri haben leider alle kein Hairworks Support.
Eventuell kommt da ja noch was. :confused:

gamer
2015-06-21, 09:46:46
Eigentlich dürfte die Sache doch jetzt klar sein.

Ein Spieleentwickler, der sich Nvidia ins Haus nimmt, muss damit rechnen ein Spiel zu bekommen, dass ohne Rücksicht auf Verluste auf Nvidias TopHardware optimiert wird.
Dabei ist es Nvidia offensichtlich scheißegal wie es auf den Karten der „AMD-Kunden“ des Spieleentwickler läuft.

Und wenn „normale“ Optimierung nicht reicht, dann wird auch ein aberwitziger, nix bringender hoher, Faktor genommen. Hauptsache die Nvidia „TopKarten“ sehen besser aus.

Für die Spieleentwickler kann dies eigentlich nur bedeuten, wenn sie ein Großteil ihrer Kunden nicht „verarschen“ wollen: Nvidia? Du kommst hier nicht rein!

-/\-CruNcher-/\-
2015-06-21, 13:36:01
Lass wir uns überraschen was DeusEx:MD und RotTR mit den Haaren und der Performance macht.
Jedenfalls hat eine Wache in DeusEX:MD schönere Haare als die Yennefer in Witcher3 und das auf einer PS4.

Interessanter ist die Ingame Cutscene wo er ihn am Boden eine Drückt und sein Haar hinterherfällt ;)

http://abload.de/img/fall18criv.jpg
http://abload.de/img/fallpyy5l.jpg

gnomi
2015-06-21, 17:19:01
Eigentlich dürfte die Sache doch jetzt klar sein.

Ein Spieleentwickler, der sich Nvidia ins Haus nimmt, muss damit rechnen ein Spiel zu bekommen, dass ohne Rücksicht auf Verluste auf Nvidias TopHardware optimiert wird.
Dabei ist es Nvidia offensichtlich scheißegal wie es auf den Karten der „AMD-Kunden“ des Spieleentwickler läuft.

Und wenn „normale“ Optimierung nicht reicht, dann wird auch ein aberwitziger, nix bringender hoher, Faktor genommen. Hauptsache die Nvidia „TopKarten“ sehen besser aus.

Für die Spieleentwickler kann dies eigentlich nur bedeuten, wenn sie ein Großteil ihrer Kunden nicht „verarschen“ wollen: Nvidia? Du kommst hier nicht rein!

nvidia ist natürlich an Gameworks Features interessiert, aber der Publisher oder unabhängige Entwickler entscheidet immer noch selbst, welche Features er evaluiert und einbaut.
Fall er sich dann entschließt das zu machen, gibt es natürlich weitreichenden Support und entsprechend Marketing.
Verwerflich finde ich da zunächst mal überhaupt nichts dran.
Ist eine Business Geschichte und legitim.
Insbesondere nicht bei Sachen wie PCSS oder HBAO+, die überall laufen und schnell sowie technologisch führend sind.
Fraglich wäre jetzt eher GPU PhysX und Hairworks.
Aber wenn wie bei Batman Engine und Budget es hergeben, kann man das doch auch machen. Ich verstehe das Problem einfach nicht, zumal AMD ja beispielsweise auch Mantle oder True Audio bei Thief, oder Tress FX bei Tomb Raider gebracht hat. Auch bei Intel hat man in Grid Autosport exklusive Effekte.
Es gibt kein Gut & Böse, nur weil ein Feature auf der eigenen Karte ausgegraut ist oder man der Meinung wäre, der Entwickler hätte Sinnvolleres einbauen können.

Knuddelbearli
2015-06-22, 02:17:17
Wie du sagtest PCSS oder HBAO+ sind kein Problem da die eben technologisch auch das beste darstellen, ebenso wie TressFX und Mantle.

Bei PhysikX kann ich es nicht beurteilen aber zumindest HW ist eben nicht das technologisch beste sondern wird, vermutlich, nur genutzt weill der Konkurrent da noch weit schlechter abschneidet. Glaube Coda hat da zur Technologischen Sicht irgendwo einen sehr guten Post verfasst.

gnomi
2015-06-22, 11:35:13
Ich schaue mir da einfach das Ergebnis an.
Gerade bei den Monstern in The Witcher 3 ist es ein echter Gewinn und die neuste Generation kann es mit GSync auch darstellen. Von daher auch nicht weiter verwerflich, es einzubauen.
Fragwürdiger als HBAO+ natürlich schon, da es bei der Konkurrenz eben nicht mehr so gut nutzbar ist, aber das habe ich oben auch so ausgeführt.
Außerdem- wenn nvidia 70% Marktanteil im High End Bereich erreicht hat und Technologien entwickelt, ist es doch genau so fair, für diese Gruppe speziell was zu machen, oder etwa nicht? Ich muss mit meinem Windows Phone auch mit weniger 3rd Party App Support auskommen, bis vielleicht mehr Leute dieses OS und die Telefone einsetzen oder MS sich was ausdenkt. Das sind die Gesetze des Marktes.

Schnoesel
2015-06-22, 11:53:02
Es ist also gut einen Technik zu verwenden die aus Performancesicht schwachsinnig ist um alleine den eigenen High End Bereich zu bedienen, obwohl eine andere Implementierung ressourcenschonender wäre und damit auch mehr eigenen Kunden zu Gute kommen würde? Ernsthaft?

Ich frage mich immer ob ihr alle Großanteilseigner von Nvidia seid weil ihr oft aus Unternehmenssicht argumentiert, die Kundensicht lasst ihr völlig außen vor. Dabei seid ihr nix anderes: die Kunden! Ich finde das gelinde gesagt sehr merkwürdig.

Knuddelbearli
2015-06-22, 12:32:23
Ich schaue mir da einfach das Ergebnis an.
Gerade bei den Monstern in The Witcher 3 ist es ein echter Gewinn und die neuste Generation kann es mit GSync auch darstellen. Von daher auch nicht weiter verwerflich, es einzubauen.
Fragwürdiger als HBAO+ natürlich schon, da es bei der Konkurrenz eben nicht mehr so gut nutzbar ist, aber das habe ich oben auch so ausgeführt.
Außerdem- wenn nvidia 70% Marktanteil im High End Bereich erreicht hat und Technologien entwickelt, ist es doch genau so fair, für diese Gruppe speziell was zu machen, oder etwa nicht? Ich muss mit meinem Windows Phone auch mit weniger 3rd Party App Support auskommen, bis vielleicht mehr Leute dieses OS und die Telefone einsetzen oder MS sich was ausdenkt. Das sind die Gesetze des Marktes.

Nein du hast nicht ganz verstanden was ich meine. Auch auf NV Hardware ist HW so wie es aktuell genutzt wird suboptimal und bei selber Optik wäre deutlich mehr Leistung möglich bzw bessere Optik. Nur läuft es halt auf AMD noch schlechter.

InsaneDruid
2015-06-22, 14:31:08
Wie oft wurde denn schon drauf hingewiesen dass die immer propagierten Tess-Settings die diesen Boost bei gleicher Optik bringen sollten bei nassen Haaren suboptimal sind? Sie sind eben NICHT "identische Optik".

aufkrawall
2015-06-22, 14:38:21
Darum geht es nicht. Es geht darum, ob Tess bei so einer Technik überhaupt Sinn macht bzw. die sinnvollste Lösung ist. Ich hab noch keinen Entwickler gehört, der diese Position vertreten hätte.

Troyan
2015-06-22, 14:46:43
Können diese Entwickler denn ähnliches vorweisen?

Ich habe es öfters ja schon mal gesagt: Manchmal bewerten Leute Dinge, die sie nicht tangieren.

Wer meint, er könnte es besser, kann doch z.B. in die UE4 seine bessere Lösung implementieren. nVidia macht es gerade vor. Eigentlich sind diese Open Source Engines doch das perfekte Spielfeld für Techniken.

Also Mut zur Offenheit.

aufkrawall
2015-06-22, 14:57:42
Rise of the Tomb Raider scheint TressFX selbst auf der XB1 zu haben.
Ansonsten ist Deus Ex damit angekündigt, bei Mirror's Edge sahen die Haare auch nicht übel aus.
Wenn sich das so bewahrheitet, ist Hairworks mit Tess ganz schnell tot, sofern NV nicht mächtig dafür bezahlt.

Knuddelbearli
2015-06-22, 15:01:10
Können diese Entwickler denn ähnliches vorweisen?

Ich habe es öfters ja schon mal gesagt: Manchmal bewerten Leute Dinge, die sie nicht tangieren.

Wer meint, er könnte es besser, kann doch z.B. in die UE4 seine bessere Lösung implementieren. nVidia macht es gerade vor. Eigentlich sind diese Open Source Engines doch das perfekte Spielfeld für Techniken.

Also Mut zur Offenheit.

deshalb auch mein Hinweis auf das Posting von Coda den der kann es im Gegensatz zu dir dann wirklich beurteilen.

Und das mit Nasse Haare ist ein Blödsinniges Argument. den dort beschneidet man die Technik einfach mit AMD, woher willst du also beurteilen können das, wenn von Anfang an nur weniger Tesselation vorgesehen gewesen wäre, es den unterschied immer noch gäbe?

Unicous
2015-06-22, 15:12:22
Ich finde die Haare beim Rise of the Tomb Raider Gameplay Video auch sehr schick (außer mit Schnee im Haar, das sieht wiederum etwas komisch aus) und im Vergleich zum Witcher klar überlegen. Dafür scheinen für den Bär wohl keine Locken mehr übrig geblieben zu sein:rolleyes:. Mal sehen ob das beim PC dann auch der Fall ist.

Allein die Haarsträhnen und der Zopf, das Lighting sehen schon sehr realistisch aus. Beim Witcher wirkt es wie eine schlechte Perücke aus Pferdehaar (->Plötze/Roach).

gnomi
2015-06-22, 23:48:32
Es ist also gut einen Technik zu verwenden die aus Performancesicht schwachsinnig ist um alleine den eigenen High End Bereich zu bedienen, obwohl eine andere Implementierung ressourcenschonender wäre und damit auch mehr eigenen Kunden zu Gute kommen würde? Ernsthaft?

Ich frage mich immer ob ihr alle Großanteilseigner von Nvidia seid weil ihr oft aus Unternehmenssicht argumentiert, die Kundensicht lasst ihr völlig außen vor. Dabei seid ihr nix anderes: die Kunden! Ich finde das gelinde gesagt sehr merkwürdig.

Hairworks ist nicht schwachsinnig, sondern eventuell etwas zu teuer.
Hairworks läuft aber in The Witcher 3 mit einer 980 überraschenderweise in 1440P mit allen Details. Das ist schon soweit nicht schlecht. Und per Mod kann man es auch auf die Tiere alleine beschränken.
Tress FX habe ich hingegen zu Zeiten der 680 in Tomb Raider nicht genutzt, sondern würde es erst jetzt mit der nächsten Karte plus GSync verwenden, weil ich damit ein geringeres fps Niveau fahren kann.
Es spielt also bei der Beurteilung schon auch eine große Rolle, ob ich die Technologie bei Release verwenden kann. Beim The Witcher geht das jedenfalls, weshalb ich Hairworks dann auch nicht schlecht finde.
Wenn das nächste Tomb Raider es besser macht und mehr als Laras Haare Tress FX nutzen, ist es mir nur recht. Allerdings kann man darauf noch ziemlich warten und hat dann auch nur die Konsolenversion, welche in Punkto Auflösung , Framerate, Details sowie AF und AA nicht dem gewohnten Standard entsprechen wird.
Wer eine bessere Implementierung hat, soll sie doch einbauen oder einem Entwickler schmackhaft machen. Bis dahin genieße ich derartige kleine Goodies einfach, auch wenn sie nicht alleinstehend kaufentscheidend für mich sind.

Knuddelbearli
2015-06-23, 04:57:19
also reduziert man einfach die restliche Grafik soweit bis es die Haare schön hat ^^
Sorry aber das Argument ist ja wohl mal extrem bei den Haaren herbeigezogen.

Abgesehen davon kostet TressFX 1.0 in Tom Raider 20-25% HairWorks in Witcher 3 20-30% Also in etwa gleichviel mit NV Hardware

dargo
2015-06-23, 08:18:26
also reduziert man einfach die restliche Grafik soweit bis es die Haare schön hat ^^
Sorry aber das Argument ist ja wohl mal extrem bei den Haaren herbeigezogen.

Abgesehen davon kostet TressFX 1.0 in Tom Raider 20-25% HairWorks in Witcher 3 20-30% Also in etwa gleichviel mit NV Hardware
Vergesst die Performancevergleiche mit TressFX 1.0. Alles was jetzt kommt wird TressFX 3.0 nutzen und schon TressFX 2.0 ist deutlich effizienter als Version 1.0.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2013/apu14-tressfx-7.jpg

Schnoesel
2015-06-23, 09:51:05
Hier wird doch immer so stolz auf die Effizienz der Maxwell Reihe verwiesen und wie toll das doch ist und überhaupt das Kaufargument schlechthin, die Software muss dann aber plötzlich nicht mehr effizient sein? HW kostet zu viel Performance und das ist sicherlich gewollt, schließlich will man die ganzen neuen GPUs ja loswerden nicht war und mit den Leuten die Kepler haben verdient Nvidia eben nichts mehr. Aber aus Unternehmenssicht super Sache ;D.

Malabolge
2015-06-23, 11:20:57
Hier wird doch immer so stolz auf die Effizienz der Maxwell Reihe verwiesen und wie toll das doch ist und überhaupt das Kaufargument schlechthin, die Software muss dann aber plötzlich nicht mehr effizient sein? HW kostet zu viel Performance und das ist sicherlich gewollt, schließlich will man die ganzen neuen GPUs ja loswerden nicht war und mit den Leuten die Kepler haben verdient Nvidia eben nichts mehr. Aber aus Unternehmenssicht super Sache ;D.

Tja wer NVidia kauft , Kauft 2 Mal !:biggrin:

(Kepler -> Maxwell)
(oder noch besser 970 -> (verar...) ->980 )

Knuddelbearli
2015-06-23, 11:55:21
Vergesst die Performancevergleiche mit TressFX 1.0. Alles was jetzt kommt wird TressFX 3.0 nutzen und schon TressFX 2.0 ist deutlich effizienter als Version 1.0.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2013/apu14-tressfx-7.jpg

genau deshalb habe ich ja extra 1.0 geschrieben ;-) selbst das war schon effizienter bis gleich effizient wie jetzt HW

Thunder99
2015-06-24, 12:20:37
Nvidia nutzt halt AMD Tessschwäche nun gnadenlos aus. Siehe Hairworks und der Lichtkegel im neuen Batman Spiel. Anderseits wird endlich das Potential der HW genutzt. Sinnvoll oder nicht sein mal dahingestellt.

Bei HW wird ja vermutet das ein x16 Faktor weniger Haare darstellt. Wäre zu überprüfen wie auch wie intensiv der Lichtkegel im Batman Spiel ist (16 vs 64)

Arcanoxer
2015-06-24, 18:09:09
Nvidia nutzt halt AMD Tessschwäche nun gnadenlos aus. Siehe Hairworks und der Lichtkegel im neuen Batman Spiel. Das neue Batman kommt ja nicht von nVidia, sondern Rocksteady.
Was erwartest du wenn AMD seit Generationen nur rebranded.
Seih froh das nicht alle solche Fortschrittsbremsen sind.

maguumo
2015-06-24, 18:15:18
Das neue Batman kommt ja nicht von nVidia, sondern Rocksteady.
Was erwartest du wenn AMD seit Generationen nur rebranded.
Seih froh das nicht alle solche Fortschrittsbremsen sind.
The Witcher 3 kommt also von Nvidia oder was? Was glaubst du von wem die Gameworks Module im neuen Batman stammen?

blaidd
2015-06-24, 23:36:14
Hat nur indirekt was mit Gameworks zu tun, aber DAFUQ?!

Not sure if this has been posted in this thread yet, but the Nvidia GameWorks promo video of the game running at 60fps is actually just a sped up video.
The following link should take you to the video at 24 seconds:
https://youtu.be/zsjmLNZtvxk?t=24s
Listen very closely. The voices of the thugs he is fighting can be faintly heard, and they sound like chipmunks because its sped up.
Credit for discovery goes to YouTube user "PoweredByFlow" who pointed this out in the comments of the video.

Quelle: Reddit (http://www.reddit.com/r/pcmasterrace/comments/3axvsu/wbgames_expected_30fps_capped_the_recommended/cshc58i)

Das hört man tatsächlich... :| Und im Vergleich zum Spiel sieht's auch zu schnell aus (achtet bspw. mal auf die Animation vom Cape)

Kartenlehrling
2015-06-25, 00:56:24
http://blogs.nvidia.com/blog/2015/06/15/metal-gear/


Das macht mir richtig Angst :)

Complicated
2015-06-25, 09:57:11
Wird sich zeigen wie viele hier noch ähnliche desaströse Markteinführungen wie Batman derzeit durchleben wollen. Der Verkauf der PC-Version wurde nun vorläufig gestoppt um es nachzubessern. Die Steam Bewertungen und die hohe Rückgabequote durch das neue 14-tägige Rückgaberecht, scheinen hier die richtige Maßnahmen von Steam gewesen zu sein um diesen mies programmierten Unsinn schnell in der Versenkung verschwinden zu lassen.

https://community.wbgames.com/t5/Support-for-PC/June-24-Update-on-PC-Version-of-Arkham-Knight/m-p/575332#U575332

Exxtreme
2015-06-25, 09:57:24
Das neue Batman kommt ja nicht von nVidia, sondern Rocksteady.
Was erwartest du wenn AMD seit Generationen nur rebranded.
Seih froh das nicht alle solche Fortschrittsbremsen sind.
Hahaaa! Wie lange hat Nvidia den Fermi durchgeschleppt? 5 Jahre? Maxwell ist endlich was Neues was von denen kommt.

StefanV
2015-06-25, 10:49:46
Hahaaa! Wie lange hat Nvidia den Fermi durchgeschleppt? 5 Jahre? Maxwell ist endlich was Neues was von denen kommt.
...wobei Fermi ja auch auf dem G80 basiert, der auf DX10 erweitert wurde...

Effe
2015-06-30, 21:26:24
NVidia, die Samariter der Gamesbranche - Interview bei PCGH: http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Gameworks-Interview-1163483/

Kartenlehrling
2015-06-30, 21:42:53
Jemand meinte im PC-Batmanthread das alle Gameworks Funktionen in Batman:AK für AMD nicht aktivierbar sind, ist das ein Fehler oder haben sie wirklich AMD ausgesperrt?
Weil eigenlich haben diese PhysX teilweise funktioniert in Batman:AC und nachträglich in BM:A (GotY) auch, in BM: O bin ich mir nicht sicher weil da wieder Turbulenz dazu kam.

Raff
2015-06-30, 21:44:38
Bei Batman AK kann man zwei der vier Gameworks-Gimmicks auf Radeons zuschalten. Auf Geforce-GPUs gehen - Überraschung - alle vier. Mehr oder minder. :ugly:

MfG,
Raff

AtTheDriveIn
2015-06-30, 22:19:02
Boah, wenn ich das Interview mit NVIDIA lese und die Auswirkungen von Gameworks sehe, dann wünsche ich mir das die Gerüchte wahr sind und MS bei AMD einsteigt und genug Ressourcen bereitgestellt werden.

Wahrscheinlich auch zu kurz gedacht, aber bei diesem ekelhaften Auftreten "helfen den Künstlern nur ihre Visionen zu verwirklichen (natürlich nur auf unser Hardware)" kommt mir die Galle hoch.

kruemelmonster
2015-07-01, 00:13:45
Und deine betriebswirtschaftlich sinnvolle Lösung für das prinzipiell IHV-unabhängige Problem "Früher haben wir in unseren Tech-Demos etwa richtig gut aussehendes Wasser gezeigt, dass dann vielleicht drei Jahre später seinen Weg in ein Spiel gefunden hat." sieht wie aus?

NV hat halt nicht mit dem Hintern auf den eigenen Händen gesessen sondern was gemacht: "Unser Ziel war, das auf sechs Monate zu verkürzen - und das ist die Idee hinter Gameworks."

Kartenlehrling
2015-07-01, 00:23:56
Sagt ja auch keiner das solche Features 6 Monate brauchen,
ihr PCSS hat ja auch nur 6 Jahre gebraucht ist noch aus der DX10! Zeit, da war warschein auch AMD schuld.

Mr. Lolman
2015-07-01, 06:55:22
NVidia, die Samariter der Gamesbranche - Interview bei PCGH: http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Gameworks-Interview-1163483/

Keine kritischen Fragen*, anstattdessen bietet man eine Bühne für Selbstbeweihräucherung und Bashing gegen AMD.


*zB warum in div. Spielen HBAO+ implementiert wird, während Inhouselösungen häufig besser aussehn (Farcry4, AC-Unity,GTA V). Warum Sunshafts massiv tesseliert werden müssen, während shaderbasierte Sunshafts um nix schlechter aussehen und weitaus performanter laufen. Warum man die eigenen GraKas bei Witcher abkacken lässt, nur weil der ISV meint er 'müsse' soviel tessellieren. Oder inwieweit man den Treiber sich über DX-konformität hinwegsetzen lassen muss, um verbuggte Spiele treiberseitig zu patchen un ob es aufgrund diverser Kombinationen von Treiberhacks NVidia nicht tw. sogar willkommen ist, dass Spiele verbuggt erscheine (da man selbst häufig einfach nur die passenden - bereits existenten - Treiberhacks miteinander kombinieren muss um Bugs rauszupatchen, während AMDs Philosophie es eher war, dem ISV seine eigene verbuggte Software ausbessern zu lassen - was eben häufig leider nicht passiert und AMD deswegen schlechter in Benchmarks dasteht.)

Dazu anschließend hätte man noch fragen können in wie weit Performancetreiber für einzelne Spiele vermeidbar wären, wenn die Entwickler ihre Hausaufgaben machen würden (bzw wie sehr die vermeintliche Notwendigkeit zu Performancetreibern die Grundidee von DX konterkariert. Oder dass man zumindest nachgefragt hätte, welcher NV-Effekt auf AMD den schneller laufe als deren inhouse Lösung...)

kruemelmonster
2015-07-01, 11:28:56
Warum man die eigenen GraKas bei Witcher abkacken lässt, nur weil der ISV meint er 'müsse' soviel tessellieren.

Moment mal...zuerst wird gemutmaßt (und missbilligt) dass NV dem Dev 64x Tess vorschreibt, und nach dem Dementi wird missbilligt dass NV dem Dev eben keine Vorschriften macht?

Verdrehte Welt, aber das Messen mit zweierlei Maß kennt man ja von Team Rot.

Oder inwieweit man den Treiber sich über DX-konformität hinwegsetzen lassen muss

Wann und wie hat NV das gemacht? Und jetzt bitte keine Ausflüchte oder Wischiwaschi sondern Butter bei die Fische. Zeige konkret auf an welcher Stelle NV welche Spec verletzt haben soll, oder lass den FUD endlich ruhen.

StefanV
2015-07-01, 11:54:46
@kruemelmonster

Hast du bei dir auch einen nVidia Altar rumstehen, den du regelmäßig anbetest??
Oder wie soll man deine Postings hier verstehen?!

Wann und wie hat NV das gemacht? Und jetzt bitte keine Ausflüchte oder Wischiwaschi sondern Butter bei die Fische. Zeige konkret auf an welcher Stelle NV welche Spec verletzt haben soll, oder lass den FUD endlich ruhen.
DX11.1 Unterstützung bei Kepler zum Beispiel.
Aber das sollte dir eigentlich bekannt sein.

Oder hast du das schon verdrängt?!

kruemelmonster
2015-07-01, 12:09:28
@kruemelmonster

Hast du bei dir auch einen nVidia Altar rumstehen, den du regelmäßig anbetest??
Oder wie soll man deine Postings hier verstehen?!

Warum kommt (insbesondere, aber nicht nur) von dir immer so ein Blödsinn sobald ein Thema nicht AMD-freundlich wird?

DX11.1 Unterstützung bei Kepler zum Beispiel.
Aber das sollte dir eigentlich bekannt sein.

Oder hast du das schon verdrängt?!

1. Habe ich um Konkretes gebeten
2. Kepler meldet sich mit FL11.0
3. ich persönlich habe im TPU-Forum den Thread (http://www.techpowerup.com/forums/threads/gpu-z-0-6-7-incorrectly-shows-dx11-1-for-kepler.179122/) erstellt damit Kepler in GPU-Z korrekt als 11.0 dargestellt wird, das sollte deine unpassende Altarfrage beantworten
4. mutmaßlich ging es Mr. Lolman nicht um Kepler sondern um die Multicore Optimierung des NV-Treibers - und da warte ich schon seit Monaten auf einen Beweis, fondness erzählt diese Geschichte ja auch gern und macht sich dann rar wenn Fakten gefordert werden
(OT: 5. die Diskussion zu Kepler und 11.x haben iirc wir beide schonmal geführt, kannst dir gerne die Posts raussuchen)

Pirx
2015-07-01, 12:22:15
Wer hier so ein proprietäres Programm, daß nicht nur Karten der Konkurrenz sondern sogar die eigenen sinnlos benachteiligt und den PC-Spielemarkt insgesamt schädigt, kritiklos verteidigt sollte sich doch mal überlegen, ob an den Vorwürfen doch etwas dran sein könnte.

Kartenlehrling
2015-07-01, 12:29:22
Wir als Endkunde können sowas doch überhaupt nicht nachweisen,
hin und wieder gibts halt verdächtige Situationen die aber genauso nur "schlampig" Programiert sein können,
eigentlich kann das aber einer aus den grossen Spieleschmied machen, danach kann er sich warscheinlich aber ein Zimmer mit Snowden teilen.

FuryNator
2015-07-01, 12:36:03
Wer hier so ein proprietäres Programm, daß nicht nur Karten der Konkurrenz sondern sogar die eigenen sinnlos benachteiligt und den PC-Spielemarkt insgesamt schädigt, kritiklos verteidigt sollte sich doch mal überlegen, ob an den Vorwürfen doch etwas dran sein könnte.
Stimmt, der Weg von AMD ist da natürlich deutlich überlegen und der PC-Markt wurde durch das nicht vorhandene Engagement wie z.B. bei Project Cars extrem verbessert.

:freak:

robbitop
2015-07-01, 12:38:16
@PCGH Interview

Es wird nicht kritisch hinterfragt, es werden keine unangenehmen Fragen gestellt. Man lässt NV seine PR gerechte Meinung durchrattern und sich selbst beweihräuchern. Und das obwohl es ein äußerst kontraverses Thema ist. Ich würde mich gar nicht trauen, so etwas zu veröffentlichen.

Ich vermute, dass das Interview nicht vom A-Team der PCGH durchgeführt worden ist.

Schnoesel
2015-07-01, 12:39:01
Wenn ich von den Entwicklern hier im Forum quasi bestätigt bekomme, dass Tess für Hairworks ausgemachter Unsinn und ein Performancefresser ist obwohl es performante Alternativen geben würde heißt das für mich, dass Nvidia es entweder nicht besser kann oder bewusst eine performancearme Variante wählt.

Aus Sicht des Kunden ist beides nicht gut, umso mehr wundere ich mich dass hier Nvidia immer wieder verteidigt wird.

Warum Nvidia ausgerechnet Tess für HW genutzt hat hätte mich auch interessiert.

Stimmt, der Weg von AMD ist da natürlich deutlich überlegen und der PC-Markt wurde durch das nicht vorhandene Engagement wie z.B. bei Project Cars extrem verbessert.


Wenn ich mir ansehe, dass es in jüngster Vergangenheit vor allem Gameworkstitel waren die von Grund auf verbuggt waren (AC:U, Batman um nur mal 2 zu nennen,) finde ich persönlich überhaupt nicht dass uns das weiterbringt. Eventuell sollten Entwickler wieder mehr selbst entwicklen als proprietäre Sachen einfach auf die Konsolenfassung aufzusetzen. Funktioniert ja irgendwie nicht.

Exxtreme
2015-07-01, 12:41:56
Mich wundert es eher, dass die Spieleentwickler sowas überhaupt nötlig haben. Sind die echt so klamm bei Kasse oder fehlt das Knowhow, dass das Spiel oder ein Effekt ohne Gameworks gar nicht möglich wäre? :freak:

Birdman
2015-07-01, 12:43:43
Wer hier so ein proprietäres Programm, daß nicht nur Karten der Konkurrenz sondern sogar die eigenen sinnlos benachteiligt und den PC-Spielemarkt insgesamt schädigt, kritiklos verteidigt sollte sich doch mal überlegen, ob an den Vorwürfen doch etwas dran sein könnte.
Wieso? Weil einem von Onkel Kim vorgeschrieben wird dass jeder Regler zwangsweise immer ganz nach rechts gestellt werden muss?

Lächerlich was Leute wie Du immer wieder für von AMD Fanboys erdachte Verschwörungstheorien aufwärmen...
Nur weil ein IHV ein Grafik-Feature in einem Game sponsort, heisst das doch nicht dass dieses dann für alle Karten (fremde oder eigene alte) aktiviert werden muss oder soll.
Sowas macht doch vor allem dann Sinn, wenn man damit die Fähigkeit einer neuen Chipgeneration ausreizen kann, welche ansonsten dem User zu Lebzeit seiner Graka vorenthalten bliebe.

Zudem, AMD hat den ganzen Scheiss doch 1:1 vorgemacht:
Mantle Support in Battlefield4 implementiert und damit nicht nur die Karten der Konkurenz, sondern auch die eigenen (<=GCN 1.2) "geschädigt" (das sind Deine eigenen Worte!), die damit langsamer als unter DX sind.

Knuddelbearli
2015-07-01, 12:57:03
Mich wundert es eher, dass die Spieleentwickler sowas überhaupt nötlig haben. Sind die echt so klamm bei Kasse oder fehlt das Knowhow, dass das Spiel oder ein Effekt ohne Gameworks gar nicht möglich wäre? :freak:


das entscheiden ( wie man bei Witcher 3 sah ) weniger die Entwickler als die darüber geordneten Publisher und deren Buchhalter bzw Chefes, und da ist nunmal jeder euro mehr mehr

FuryNator
2015-07-01, 12:59:50
Wenn ich mir ansehe, dass es in jüngster Vergangenheit vor allem Gameworkstitel waren die von Grund auf verbuggt waren (AC:U, Batman um nur mal 2 zu nennen,) finde ich persönlich überhaupt nicht dass uns das weiterbringt.
Korrelation != Kausalität.

Das Beispiel Project Cars zeigt doch, dass auch der AMD-Weg nicht gülden ist, im Gegenteil.

Dural
2015-07-01, 13:01:14
NVidia, die Samariter der Gamesbranche - Interview bei PCGH: http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Gameworks-Interview-1163483/

Über 300 Mitarbeiter :eek: da nimmt NV ja richtig Geld in die Hand.

y33H@
2015-07-01, 13:02:01
Mantle Support in Battlefield4 implementiert und damit nicht nur die Karten der Konkurenz, sondern auch die eigenen (<=GCN 1.2) "geschädigt" (das sind Deine eigenen Worte!), die damit langsamer als unter DX sind.Dem traue ich bisher nicht zugegeben.

Kartenlehrling
2015-07-01, 13:11:13
@Birdman
Mit welcher Begründung haben sie Smog und Papier für AMD ausgegraut, das hat doch vorher in BM:ACity wenigten auf der CPU funktioniert,
aber da Batman sowieso schon im CPU-Limit mit 2core rennt würde das Spiel noch mehr "Abkacken", also war es ein Schutz am Kunden es zu deaktivieren.

http://www.legitreviews.com/wp-content/uploads/2015/06/Batman-Arkham-Knight-Settings-645x392.jpg

Effe
2015-07-01, 13:13:13
Dem traue ich bisher nicht zugegeben.
Fehlt da ein Wort? Oder ein Komma?

Arcanoxer
2015-07-01, 13:16:39
NVidia, die Samariter der Gamesbranche - Interview bei PCGH: http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Gameworks-Interview-1163483/
Die Frage ist nicht, was Nvidia macht, sondern was AMD nicht macht. --Brian Burke
Habe es mal in die Signatur aufgenommen. (y)

Troyan
2015-07-01, 13:30:04
Wenn ich von den Entwicklern hier im Forum quasi bestätigt bekomme, dass Tess für Hairworks ausgemachter Unsinn und ein Performancefresser ist obwohl es performante Alternativen geben würde heißt das für mich, dass Nvidia es entweder nicht besser kann oder bewusst eine performancearme Variante wählt.

Aus Sicht des Kunden ist beides nicht gut, umso mehr wundere ich mich dass hier Nvidia immer wieder verteidigt wird.

Warum Nvidia ausgerechnet Tess für HW genutzt hat hätte mich auch interessiert.


Kannst du auf die "performanten" Alternativen hinweisen, die z.B. in der Lage sind 6 Kreaturen gleichzeitig mit dem Hauptcharakter mit mindesten 30FPS darzustellen?

Exxtreme
2015-07-01, 13:33:03
Kannst du auf die "performanten" Alternativen hinweisen, die z.B. in der Lage sind 6 Kreaturen gleichzeitig mit dem Hauptcharakter mit mindesten 30FPS darzustellen?
MMOs schaffen es zig Spieler/Kreaturen mit 30 fps darzustellen.

4Fighting
2015-07-01, 13:35:49
Mich wundert es eher, dass die Spieleentwickler sowas überhaupt nötlig haben. Sind die echt so klamm bei Kasse oder fehlt das Knowhow, dass das Spiel oder ein Effekt ohne Gameworks gar nicht möglich wäre? :freak:

ich denke mal, dass man mit solchen Aktionen die Port-Kosten für die so ungebliebten PC Fassungen drastisch senken kann.

Bei W3 wird NV durch ihre Bundle Aktion bestimmt eine fünfstellige Anzahl an Vollversionen abgenommen haben. Bei 50000 Keys und 10 EUR pro Key kommt da schon gut was zusammen.

Troyan
2015-07-01, 13:36:47
Mit "realistischer" Fellberechnung?

4Fighting
2015-07-01, 13:41:25
@Birdman
Mit welcher Begründung haben sie Smog und Papier für AMD ausgegraut, das hat doch vorher in BM:ACity wenigten auf der CPU funktioniert

Ist eigentlich recht einfach: weil sie es können. Ist zwar nicht der schönste Weg, aber wird wohl so sein. Eine abgespeckte Version wäre sicherlich drin gewesen für die CPU.

Die Physx Runtime gehört nunmal NV; genauso wie man eben als AMD User 1 Jahr in BF auf Mantle zurückgreifen konnte. Da war ich als NV-User auch der Doofe:)

StefanV
2015-07-01, 13:47:01
MMOs schaffen es zig Spieler/Kreaturen mit 30 fps darzustellen.
Jop, geht ohne Probleme.
Da sind dann auch mal 50 Spieler und/oder 10-20 Mobs aufm Schirm. Oder sogar mehr.

Arcanoxer
2015-07-01, 13:48:13
Mit welcher Begründung haben sie Smog und Papier für AMD ausgegraut, das hat doch vorher in BM:ACity wenigten auf der CPU funktioniertMit welcher Begründung läuft Mantle nicht auf nVidia Karten und musst erst failen damit AMD einsieht das sie im alleingang nicht die geringste chance haben?

Pirx
2015-07-01, 14:09:39
Mit welcher Begründung läuft Mantle nicht auf nVidia Karten und musst erst failen damit AMD einsieht das sie im alleingang nicht die geringste chance haben?
:ucrazy3:
Mit der Begründung, daß auch du von diesem "Fail" schon stark profitiert hast und noch profitieren wirst.

aufkrawall
2015-07-01, 14:21:06
genauso wie man eben als AMD User 1 Jahr in BF auf Mantle zurückgreifen konnte. Da war ich als NV-User auch der Doofe:)
Nö, warst du nicht. Du konntest es mit Nvidia unter Windows 8 bereits zur Beta mit guter CPU-Performance spielen.

Thunder99
2015-07-01, 14:32:38
Effekte die nicht nur mit Cuda laufen sollten immer auch auf AMD bzw CPU laufen. Werde demnächst mal wieder Metro 2033 auspacken und dort gibt es ja immerhin eine gute PhysX Implementation auch für die CPU (Mehrkernprozessoren optimiert)

maguumo
2015-07-01, 14:38:14
Werde demnächst mal wieder Metro 2033 auspacken und dort gibt es ja immerhin eine gute PhysX Implementation auch für die CPU (Mehrkernprozessoren optimiert)

Tatsächlich? Lief bei mir grässlich, und der Xeon E3 1230v3 ist ja nun so schwach auf der Brust auch nicht...

Thunder99
2015-07-01, 14:44:35
Basierend auf den Informationen aus dem Netz. Selber noch nicht getestet :)

FuryNator
2015-07-01, 14:55:32
Mit der Begründung, daß auch du von diesem "Fail" schon stark profitiert hast und noch profitieren wirst.
Davon hat noch keiner von uns stark profitiert und ob wir es je werden, steht auch in den Sternen.

Malabolge
2015-07-01, 16:09:21
Davon hat noch keiner von uns stark profitiert und ob wir es je werden, steht auch in den Sternen.

Sicher !, Das DX12 so schnell gekommen ist ,ist ja Purer Zufall !
Du glaubst doch nicht wirklich Microsoft hätte sich freiwillig bewegt.

-/\-CruNcher-/\-
2015-07-01, 16:20:27
@kruemelmonster

Hast du bei dir auch einen nVidia Altar rumstehen, den du regelmäßig anbetest??
Oder wie soll man deine Postings hier verstehen?!


DX11.1 Unterstützung bei Kepler zum Beispiel.
Aber das sollte dir eigentlich bekannt sein.

Oder hast du das schon verdrängt?!


Noch einmal zum Mitschreiben wie Nvidia funktioniert sie haben es wirtschaftlich weggelassen und kosten eingespart da es für Games noch nicht an der Zeit war es zu nutzen (wissen fehlte bei den Devs teils und der lernprozess hatte gerade begonnen gehabt, erste R&D erfolge)

Sie haben auf das richtige Pferd gesetzt mit Maxwell war die Zeit reif so agiert Nvidia immer schon sie nutzen nur das was wirtschaftlich auch sinn macht und lassen sich auch nichts von Microsoft vorschreiben in dem Bezug.

Sie berrechnen ganz genau was wo wann wirtschaftlich sinn macht in der API und wenn es jemand brauch haben sie ihre eigenen möglichkeiten es dennoch zur Verfügung zu stellen (teils emuliert).

Das selbe bei Compute in der Kepler Zeit war die Shader Performance noch nicht wirklich aussreichend das ein gutes Compute viel kompensiert hätte mit Maxwell hat sich das geändert, da wurde Compute balanciert und Tesselation erhöht mit den Tegra (R&D) Gewinnen beim Power Managing.

Nur um Metro zu beschleunigen war ihnen CR nicht genug und die Entwicklung in anderen berreichen eher Mau sie selbst haben sich aber intensiv damit ausseinandergesetzt (R&D) und bringen das alles mit Maxwell und DX12 auf den Tisch, weil es jetzt an der Zeit ist und wirtschaftlich sinn macht ;)

PS: Und ja natürlich werden z.b AMD karten die schon alles implementiert hatten mit Hawaii besser da stehen mit DX12 als ältere Nvidia Karten (Kepler) die hier vermutlich/sicher einbrechen werden bei komplexerem load, der da noch im Anmarsch ist.
Es sollte jedenfalls in der Theorie so sein ob es in der Praxis so kommt wird sehr spannend zu beobachten, da spielt dann auch Nvidias Einfluss den sie Aufgebaut haben eine Rolle und ob der gegen AMDs Konvergenz bestehen kann aber AMD hat einen richtigen Vorteil der müsste/sollte mal so langsam sichtbar werden ;)

Allen voran bei Hawaii vs Kepler

aufkrawall
2015-07-01, 16:24:50
Ich hoffe dann mal auf Resource Binding Tier 3 mit Pascal.
Frisst das nennenswert Transistoren? GM200 ist ja am Limit.

FuryNator
2015-07-01, 16:57:14
Sicher !, Das DX12 so schnell gekommen ist ,ist ja Purer Zufall !
Du glaubst doch nicht wirklich Microsoft hätte sich freiwillig bewegt.
Genau! Nur weil AMD Mantle gezeigt hat, da kam einer bei Microsoft auf die Idee "Hey, gar nicht so blöd! Lass uns auch sowas mal machen!" und Schwupps hatte man DX12 gebastelt. In der Besenkammer mit zwei Ingenieuren an nem Wochenende.

:facepalm:

Menace
2015-07-01, 17:01:59
:eek: Ein Wochenende hat es gedauert? MS hat 2 Ingenieure die DX programmieren? :eek:

Wann ist Vulkan fertig? :confused:

Um es genauer zu formulieren:

- Wie lange hat Mantle gedauert mit welcher Firma und wie vielen Programmierern?
- Wie lange dauert Vulkan mit welchen Firmen und wie vielen Programmieren und welchen Input gab es?
- Wie lange dauerte DX12, wie viele Programmierer nutzen sie und welchen Input gab es?

Auf jeden Fall scheint MS der kleinste und ärmste Verein von den 3 genannten zu sein. :rolleyes:

-/\-CruNcher-/\-
2015-07-01, 17:04:21
Genau! Nur weil AMD Mantle gezeigt hat, da kam einer bei Microsoft auf die Idee "Hey, gar nicht so blöd! Lass uns auch sowas mal machen!" und Schwupps hatte man DX12 gebastelt. In der Besenkammer mit zwei Ingenieuren an nem Wochenende.

:facepalm:

An DX12 WDDM 2.0 wurde schon seit der WinHec 2006 theoretisiert (Roadmap) AMD hat es gepushed keine Frage die Entscheidung bei Microsoft AMD als Soc Partner zu nehmen war sicherlich auch nicht nur bedingt dadurch das sie eine APU liefern konnten sondern das der GPU Core auch alle vorschrifften von Microsoft erfüllt die sie da eingeplannt haben mit Windows 8, Nvidia hatte keinen wirkliche APU aber vor allem hatten sie diesen GPU support nicht mit Kepler :D

http://download.microsoft.com/download/5/b/9/5b97017b-e28a-4bae-ba48-174cf47d23cd/pri103_wh06.ppt


nach 9 Jahren Software/Hardware Entwicklung sind wir nun dort endlich angekommen.

Knuddelbearli
2015-07-01, 17:19:41
Noch einmal zum Mitschreiben wie Nvidia funktioniert sie haben es wirtschaftlich weggelassen und kosten eingespart da es für Games noch nicht an der Zeit war es zu nutzen (wissen fehlte bei den Devs teils und der lernprozess hatte gerade begonnen gehabt, erste R&D erfolge)


Nur wie sollen die devs lernen damit umzugehen wenn sie es nirgendwo nutzen können?
Da kann muss man einfach AMD danken das sie immer sehr schnell neue FL unterstützen!

-/\-CruNcher-/\-
2015-07-01, 17:36:29
Jo ander als wie viele andere verteufele ich die Konsolen auch nicht sie sind etwas sehr positives wenn es um das schaffen von Software Innovationen geht, eben durch den wirtschaftlichen zwang der durch sie entsteht effizient sein zu müssen ;)

FuryNator
2015-07-01, 19:50:54
http://download.microsoft.com/download/5/b/9/5b97017b-e28a-4bae-ba48-174cf47d23cd/pri103_wh06.ppt
Danke, damit kann man diese Mär mit dem Mantle vs. DX12 Gedöns endlich mal begraben.

Womit der gute Roy uns natürlich angelogen hat:
http://www.heise.de/newsticker/meldung/AMDs-Vice-President-im-Gespraech-Es-wird-kein-DirectX-12-kommen-1835338.html

:P

Kriton
2015-07-01, 20:40:06
Keine kritischen Fragen*, anstattdessen bietet man eine Bühne für Selbstbeweihräucherung und Bashing gegen AMD.

Und dann wundert man sich wenn Nvidia-Nähe vorgeworfen wird. Ich verstehe ja, dass man die Möglichkeit eines Interviews nutzt (und auch nicht die ganze zeit nur kritische Fragen stellt), aber hier und da mal nachhaken und nicht nur die PR durchgehen lassen wäre schon nett.

@PCGH Interview

Es wird nicht kritisch hinterfragt, es werden keine unangenehmen Fragen gestellt. Man lässt NV seine PR gerechte Meinung durchrattern und sich selbst beweihräuchern. Und das obwohl es ein äußerst kontraverses Thema ist. Ich würde mich gar nicht trauen, so etwas zu veröffentlichen.

Ich vermute, dass das Interview nicht vom A-Team der PCGH durchgeführt worden ist.

Diese "Ausrede" will ich nicht gelten lassen. Man produziert unter demselbem Label. Auch wenn das bitter für diejenigen sein mag die intern einen höheren Anspruch favorisieren mögen.

Screemer
2015-07-01, 21:40:04
Dieses 'Interview' könnte 1:1 von pcper kommen. :down:

captain_drink
2015-07-01, 21:58:52
Mit der (angeblichen) NV-Nähe von PCGH hat das nichts zu tun.

Roland Austinat hat mit GPUs etc. eben wenig am Hut, daher kann er keine präziseren Fragen stellen.
Zudem sind die Interviewpartner auch nicht optimal gewählt, PR-Leute spulen eben bevorzugt PR ab. Jemand wie Cem Cebenoyan hätte sicher mehr als nur Gemeinplätze erzählen können.

Um es mal umzudrehen: Hätte man Roy Taylor oder Robert Hallock zu Freesync, Mantle oder True Audio befragt, wäre daraus ebenfalls eine reine Werbeveranstaltung geworden. Wenn man diese Leute befragt, bekommt man eben nichts anderes zu hören, sogar fast unabhängig von der Qualität der Fragen.

Unicous
2015-07-01, 22:23:52
Danke, damit kann man diese Mär mit dem Mantle vs. DX12 Gedöns endlich mal begraben.

Womit der gute Roy uns natürlich angelogen hat:
http://www.heise.de/newsticker/meldung/AMDs-Vice-President-im-Gespraech-Es-wird-kein-DirectX-12-kommen-1835338.html

:P

Das ist kein Beweis für gar nichts. Dass an WDDM 2.0 gearbeitet wurde ist schon seit Jahren bekannt und ist erst mal unabhängig von DX 12.

StefanV
2015-07-02, 10:10:35
Das ist kein Beweis für gar nichts. Dass an WDDM 2.0 gearbeitet wurde ist schon seit Jahren bekannt und ist erst mal unabhängig von DX 12.
hat da nicht jemand in diesem Forum erwähnt, dass einer der großen Hersteller das WDDM 2.0 Vorhaben blockieren würde?

Weil eigentlich war ja der Plan, das mit Windows 7 oder 8 zu bringen...
Entsprechende Folien gibt es ja auch erst seit fast 10 Jahren von M$ zu WDDM 2.0 ...

Mr. Lolman
2015-07-16, 17:31:38
Man hörte ja schon manchmal vom ein oder anderen, dass das bloße aktivieren von Gameworksbibliotheken auf AMD-Karten zu Performanceverlusten führt (noch bevor man irgendwelche Features davon verwenden würde). Konkret war das bei der Unreal Engine angeblich der Fall.

Beim Witcher3 hab ich nun folgendes bemerkt: Wenn man den Witcher 3 Mod "Hairworks on everything but Geralt" installiert und in Witcher 3 Hairworks auf "nur Geralt" stellt, dann sollte ja nach meinem Verständnis nix tesselliert werden. Optisch ändert sich auch nix. Die fps gehen trotzdem runter. Komisch, oder?

Troyan
2015-07-16, 17:40:17
Dafür müsste man das Spiel debuggen und zu sehen, wie sich der Mod mit Hairworks verträgt. Es kann genauso gut sein, dass die komplette Pipeline durchlaufen, aber das Asset nicht angezeigt wird.

In CoD:Ghost gab es doch das gleiche Phänomen, wenn man Tessellation auf 1x stellt. Es werden zwar keine Dreiecke erzeugt, aber die Renderingpipeline bleibt weiterhin intakt für Hairworks.

dildo4u
2015-07-19, 00:34:51
Noch mal zu Witcher 3,Tesselation Low vs High macht doch ne Menge aus sieht mit High deutlich besser aus die hohen Tesselation Stufen sind nötig.
Soviel dazu das NV unnötige Tesselationstufen fährt um Hardware auszubremsen.



Hairworks off

http://abload.de/img/witcher3_2015_07_19_0a8s6z.png

Hairworks low

http://abload.de/img/witcher3_2015_07_19_0masct.png

Hairworks High

http://abload.de/img/witcher3_2015_07_19_0jaj29.png

Kartenlehrling
2015-07-19, 00:47:00
Trotzdem wird unnötig viele Leistung verbraten...

N0Thing
2015-07-19, 00:48:20
Das Argument bleibt weiterhin bestehen, weil Tesselation für eine gute Haarsimulation ja gar nicht notwendig ist, oder sogar eher unpraktisch ist und es genug Modifikationen von Spielern gab, deren Einstellungen deutlich besser aussahen als das, was du verlinkt hast.

dildo4u
2015-07-19, 00:54:27
Ein Fazit welche Lösung besser ist kann man imo erst ziehen wenn der näste Tomb Raider Teil für den PC kommt.In Teil 1 gab es ja noch keine Fell Simulation für die Tiere.Seit NV MSAA eingebaut hat sieht das Hairworks Modell ziehmlich genial aus,ich vermute das jegliche Aufwendige Haar Simulation immer massig Leistung kosten wird.Nicht ohne Grund gabs bisher so wenige Hauptfiguren mit langen Haaren,die meisten Games haben sich immer davor gedrückt das zu Simulieren.

Troyan
2015-07-19, 01:11:34
"Unpraktisch"? Wie willst du bitte vernünftiges Fur und Haare ohne Tessellation vernünftig in Echtzeit realisieren?

Mal ein paar Fakten über TressFX:
Die Dreiecke sind ebenfalls kleiner als ein Pixel. Es spielt also überhaupt keine Rolle, ob man per Tessellation oder per CPU die Kontrollpunkte berechnet und Dreiecke erzeugt. Das Rasterizing wäre bei beiden Varianten gleich ineffizient.
Bei TressFX muss jeder Kontrollpunkt von der CPU erzeugt und im Vertexshader berechnet werden. Das TressFX 2.2 SDK verwendet 32 Kontrollpunkte pro Haar. Macht bei 24k/48k/72k Haaren 768k/1536k/2304k Kontrollpunkte. Das SDK verwendet dort einen kompletten Thread mit 100% Last zur Erzeugung. Hairworks erzeugt die Unmengen an Kontrollpunkten und Dreicken auf der GPU, was nicht nur schneller ist sondern auch wesentlich ressourcenschonender.
Der Speicherbedarf ist immens. Dank haufenweise Buffern und PPLL für OIT verbraucht das SDK ganze 2GB in 1440p, 4GB in 4K und crasht in 5K auf meiner GTX980TI. Hairworks dagegen kommt fast vollständige ohne erhöhten Speicherverbrauch aus.
TressFXs Anforderungen wachsen mit Zunahme der Auflösung. Je höher die Auflösung, umso höher wird der Speicherbedarf (PPLL) sowie die Pixel-Berechnungen für AA und OIT. Hairworks Geometrieansatz ist leistungsschonender, wenn die Auflösung erhöht wird, da Berechnungen auf Pixelbasis nicht annährend so aufgeprägt sind.

Es spricht viel mehr für den Einsatz von Tessellation als dagegen.

gedi
2015-07-19, 01:17:42
Das ändert aber nichts an der Tatsache, dass Hairworks in W3 ganz einfach nur scheiße aussieht.

dildo4u
2015-07-19, 01:27:21
Das ändert aber nichts an der Tatsache, dass Hairworks in W3 ganz einfach nur scheiße aussieht.
Die Monster und Tiere sehen ziehmlich gut aus bei Geralt könnte man drauf verzichten.

https://mega.co.nz/#!cIVyWBhb!Y2HxGHJYnL5yHtvzqzZc_jCHFFAfio6B6HhNR5a3M2g

Troyan
2015-07-19, 01:31:13
Ändern sich die Haare bei Geralt mit "Low"?

Ansonsten sehen die Tiere klasse aus. Ich reite nur noch mit der Griffin-Trophäre durch die Gegend, weil das optimisch wirklich "Next-Gen" ist.

StefanV
2015-07-19, 01:33:39
Ein Fazit welche Lösung besser ist kann man imo erst ziehen wenn der näste Tomb Raider Teil für den PC kommt
Sag mal, gehts noch?!
Einfach so einen Haufen auf die Postings von z.B. Coda und Alphatier zu setzen?!
NUR weil die nicht das gesagt haben, was dir passt?!

Wie oft müssen halbwegs angesehene Leute noch sagen, dass es völliger Bullshit ist, Haare zu tesselieren?!

Aber hier noch mal die ganzen Beiträge zu dem Thema:
Isoline Tessellation fuer Haare zu verwenden mag anfangs wie eine gute Idee klingen, am Ende bekommt man aber massiv Probleme da der maximale amplification Factor 64 betraegt, das macht vor allem bei laengeren Haaren einfach keinen Sinn mehr. Das Nvidia daran fest haelt ist aus rein technischer Sicht einfach nicht nachvollziehbar. Ihr werdet ja vllt. sehen wie schnell sich das Schiff dreht, sobald AMDs Tess Performance on Par oder sogar besser geworden ist.
Tessellation fuer Haare zu verwenden macht keinen Sinn. Wenn man Instancing mit Vertexfetch gemacht haette wuerde es viel schneller laufen und das gilt fuer beide Hersteller, nur eben dass AMD dann gleich auf waehre.

maguumo
2015-07-19, 06:24:23
Noch mal zu Witcher 3,Tesselation Low vs High macht doch ne Menge aus sieht mit High deutlich besser aus die hohen Tesselation Stufen sind nötig.
Soviel dazu das NV unnötige Tesselationstufen fährt um Hardware auszubremsen.



Hairworks off

http://abload.de/img/witcher3_2015_07_19_0a8s6z.png

Hairworks low

http://abload.de/img/witcher3_2015_07_19_0masct.png

Hairworks High

http://abload.de/img/witcher3_2015_07_19_0jaj29.png



Ich dachte Tesselation kann man Ingame nicht reduzieren?

-/\-CruNcher-/\-
2015-07-19, 10:54:56
In GTA V und AC Unity sieht man zwei interessante alternativen wobei die Aliasing anfälligkeit bei AC Unity enorm ist :)

Skysnake
2015-07-19, 11:14:42
Noch mal zu Witcher 3,Tesselation Low vs High macht doch ne Menge aus sieht mit High deutlich besser aus die hohen Tesselation Stufen sind nötig.
Soviel dazu das NV unnötige Tesselationstufen fährt um Hardware auszubremsen.



Hairworks off

http://abload.de/img/witcher3_2015_07_19_0a8s6z.png

Hairworks low

http://abload.de/img/witcher3_2015_07_19_0masct.png

Hairworks High

http://abload.de/img/witcher3_2015_07_19_0jaj29.png


1. Wurde bisher doch nur Geralds Haar für Vergleiche herangezogen, bzw. die Aussage bezüglich unnütz hohen Tesselation Stufen bezog sich eben auf sein Haar. Du kommst nun aber mit dem Fell von Tieren daher. Das ist ein Äpfel-Birnen Vergleich.

2. Kannst du mal bitte ausführen was du da jetzt wirklich gemacht hast? Also wirklich im Detail.

Sofern es sich um Einstellungen ingame handelt, die also nicht nur rein den Tesselationfaktor begrenzen, wie bei AMD über das CCC möglich, dann bewegst du dich auch hier wieder aufeinem komplett anderen Pfad, als die Leute, die sich bisher über die unnötige Tesselierung von Geralds Haar ausgelassen habe.

Thunder99
2015-07-19, 11:29:33
Aber mal ehrlich: Endlich wird mal die überlege Tess Leistung genutzt. Immer war dies unnütz. Ob spürbar optisch besser sei mal dahingestellt.

Bei Witcher 3 müsste man prüfen was die Ingame Einstellung denn wirklich nun verändert. Ist es die Tess Stufe und oder das MSAA?

Troyan
2015-07-19, 13:17:26
Ach und wo hast du irgendjemand gesehen, der halbwegs Plan von dem ganzen Zeugs hat, der der Meinung ist, dass das, was nVidia hier gemacht hat, richtig und alternativlos ist?!

Wer hat denn soviel Ahnung von der Materie? Die Arbeiten an Hairworks gehen Jahre zurück. Schon 2008 hat nVidia darüber gesprochen, die DX11 Erweiterung der Pipeline für die Haarerzeugung zu verwenden:
http://www.nvidia.com/object/siggraph-2008-hair.html

Es macht überhaupt keinen Sinn die CPU für die Erzeugung von Polygone für Haare zu "missbrauchen", wenn man diese Geometrie viel schneller und effizienter auf der GPU erzeugen kann. Und die Zeit, die man für die Ausbreitung der Linien in Quadrate im GS benötigt, verschwendet man bei TressFX im VS für die Berechnungen der Millionen von Kontrollpunkten.

Novum
2015-07-19, 13:27:12
Na und? Ändert nichts. Ist ein sehr starkes Argument, aber eben kein absolutes.
Und wieder bist du bei "oft genug wiederholen". Du liefertst gar keine Argumente.

Wer hat denn soviel Ahnung von der Materie? Die Arbeiten an Hairworks gehen Jahre zurück. Schon 2008 hat nVidia darüber gesprochen, die DX11 Erweiterung der Pipeline für die Haarerzeugung zu verwenden:
http://www.nvidia.com/object/siggraph-2008-hair.html

Es macht überhaupt keinen Sinn die CPU für die Erzeugung von Polygone für Haare zu "missbrauchen", wenn man diese Geometrie viel schneller und effizienter auf der GPU erzeugen kann. Und die Zeit, die man für die Ausbreitung der Linien in Quadrate im GS benötigt, verschwendet man bei TressFX im VS für die Berechnungen der Millionen von Kontrollpunkten.
Niemand redet davon die CPU zu benutzen. Der Vertex-Shader läuft im übrigen sowieso für jeden Vertex nach dem Hull- und Domain-Shader.

Es gibt SV_VertexId. Darauf macht man dann ein Modulo auf die Anzahl der Punkte die man pro Haar hat um rauszufinden welches Haar es ist und eine Division um die Stelle auf dem Haar zu berechnen und fertig. Braucht keine Tesselation.

StefanV
2015-07-19, 13:34:08
Na und? Ändert nichts. Ist ein sehr starkes Argument, aber eben kein absolutes.
Ich habe bisher keinen halbwegs vertrauenswürdigen Menschen gesehen, der gesagt hat, dass die nVidia Implementierung in Ordnung geht. Ich habe immer nur gesehen, dass in diesem Zusammenhang IMMER davon gesprochen wird, dass die Implementation keinen Sinn macht und es andere Methoden gäbe, die deutlich performanter wären. Und dass nVidia das nur deswegen gemacht hat, weil AMD eine Tesselationsschwäche hat. Und hier wurde sogar von einigen (Demirug z.B.) unterstellt, dass nVidia das ändern wird, sobald AMD diese Schwäche beseitigt.

Es gibt sehr viele Leute, die die gleiche Meinung vertreten...
Andrew Lauritzen (von Intel) ist hier auch eine Person, der man nicht unterstellen könnte, keine Ahnung zu haben...

Hier noch mal, worum es geht:
On this point I think everyone can agree that NVIDIA is doing stupid nonsense that needs to be stopped. I fully agree that lowering performance on your own cards because it hurts the competition more is BS, and borderline anti-competitive.

Wer hat denn soviel Ahnung von der Materie? Die Arbeiten an Hairworks gehen Jahre zurück. Schon 2008 hat nVidia darüber gesprochen, die DX11 Erweiterung der Pipeline für die Haarerzeugung zu verwenden:
http://www.nvidia.com/object/siggraph-2008-hair.html
Und weil man daran so lange arbeitet, muss das ganze gut sein, weil es von nVidia kommt, oder was meinst du?!

Und wenn das so super duper toll ist, warum sagen dann einige Leute, die wirklich Plan von der Materie haben, dass der Weg, den nVidia hier gewählt hat, völliger Käse ist?!

Troyan
2015-07-19, 16:16:49
Niemand redet davon die CPU zu benutzen. Der Vertex-Shader läuft im übrigen sowieso für jeden Vertex nach dem Hull- und Domain-Shader.

Liegt die Vertex-Shader Stage nicht vor Hull-Shader?


Es gibt SV_VertexId. Darauf macht man dann ein Modulo auf die Anzahl der Punkte die man pro Haar hat um rauszufinden welches Haar es ist und eine Division um die Stelle auf dem Haar zu berechnen und fertig. Braucht keine Tesselation.

Und wo werden die entsprechenden Haare erstellt und entsprechend abgerundet?

/edit: Das hat nVidia schon 2008 gemacht: http://t.gpucomputing.net/sites/default/files/papers/1864/2316-abstract.pdf
Die DX11 Version mit Tessellation war in der Fermi Demo rund 30% schneller - Seite 17: https://developer.nvidia.com/sites/default/files/akamai/gamedev/files/sdk/11/HairSDKWhitePaper.pdf

Novum
2015-07-19, 17:19:42
Liegt die Vertex-Shader Stage nicht vor Hull-Shader?
Doch, brainfart. Ändert aber nix am Prinzip. Die Domain-Shader müssen bei Tesselation die Transformation etc. machen.

Und wo werden die entsprechenden Haare erstellt und entsprechend abgerundet?
Im Vertex Shader werden die Punkte erzeugt so wie du sonst auch eine Linie tesserlierst. Hairworks erzeugt die Strand-Geometrie dann im Geometry Shader danach iirc.

Geometry Shader sind auch lahm, aber dafür hab ich wirklich keine bessere Alternative.

Troyan
2015-07-19, 21:07:25
Im Vertex Shader werden die Punkte erzeugt so wie du sonst auch eine Linie tesserlierst. Hairworks erzeugt die Strand-Geometrie dann im Geometry Shader danach iirc.

Wo kommen die Informationen für die Vertex-Shader Stage her? Die müssen komplett auf der CPU berechnet werden:
http://image.slidesharecdn.com/hairintombraiderfinal-130429140253-phpapp02/95/hair-in-tomb-raider-27-638.jpg?cb=1367251613
http://de.slideshare.net/WolfgangEngel/hair-intombraider-final - Slide 27

Deswegen finde ich es ja so ironisch, dass man hier gegen "Tessellation" wettert, da die Geometrie so oder so erzeugt werden muss. Unabhängig ob dies auf der CPU oder auf der GPU erfolgt.
Im Gegensatz zum Ansatz der Geometrieerzeugung auf der GPU hat man bei AMD immer den CPU-Overhead.


Geometry Shader sind auch lahm, aber dafür hab ich wirklich keine bessere Alternative.

Jemand hat sich die Mühe gemacht die Renderzeit zu messen:
Bei der 2010 Fermi Demo wird weniger als 2% der Renderzeit im Geometry-Shader verbracht. Bei TressFX sind es dagegen ~3% der Zeit in der Vertex-Shader Stage - gemessen auf einer GTX580:
http://markusrapp.de/wordpress/wp-content/uploads/hair/MarkusRapp-MasterThesis-RealTimeHairRendering.pdf - Seite 64

Kartenlehrling
2015-07-19, 21:27:13
gibt es einen grund wieso du es mit tressFX1.0 vergleichst selbst die TR-Consolenversion war schon tressFX2.3

Novum
2015-07-19, 21:33:34
Wo kommen die Informationen für die Vertex-Shader Stage her?
Müssen sie nicht. Ich rede nicht von irgend einer CPU-Erzeugung. Du kannst auch mit einem puren Vertex-Shader Liniensegmente unterteilen. Primitive ID reicht dafür völlig aus. Ich hab die Idee auch schon mal beschrieben. PrimitiveID % (Anzahl Vertices pro Strand) gibt dir das Vertex im Haar, PrimitiveID / (Anzahl Vertices pro Strand) gibt dir das Haar. Dann liest du damit aus den Buffern und gut is. TressFX benutzt übrigens keine Tesselation und keinen GS.

Tesselation ist sau lahm bei so hoher Amplifizierung.

-/\-CruNcher-/\-
2015-07-19, 22:28:15
Wo kommen die Informationen für die Vertex-Shader Stage her? Die müssen komplett auf der CPU berechnet werden:
http://image.slidesharecdn.com/hairintombraiderfinal-130429140253-phpapp02/95/hair-in-tomb-raider-27-638.jpg?cb=1367251613
http://de.slideshare.net/WolfgangEngel/hair-intombraider-final - Slide 27

Deswegen finde ich es ja so ironisch, dass man hier gegen "Tessellation" wettert, da die Geometrie so oder so erzeugt werden muss. Unabhängig ob dies auf der CPU oder auf der GPU erfolgt.
Im Gegensatz zum Ansatz der Geometrieerzeugung auf der GPU hat man bei AMD immer den CPU-Overhead.

Jemand hat sich die Mühe gemacht die Renderzeit zu messen:
Bei der 2010 Fermi Demo wird weniger als 2% der Renderzeit im Geometry-Shader verbracht. Bei TressFX sind es dagegen ~3% der Zeit in der Vertex-Shader Stage - gemessen auf einer GTX580:
http://markusrapp.de/wordpress/wp-content/uploads/hair/MarkusRapp-MasterThesis-RealTimeHairRendering.pdf - Seite 64

hui klasse thesis :)


The hair demo utilizes the tessellation rendering engine of modern GPUs, which is perfect for the creation of large amounts of data on the GPU. The main bottleneck is the
bandwidth between central processing unit (CPU) and GPU. It is faster creating data on the GPU than uploading data from the CPU to the GPU. It is also possible to have a fine
grained and continuous level of detail with the tessellation engine.

Das Problem besteht nunmal beim PC bei den Konsolen (HSA) ist es um einiges kleiner da spielt es dann weniger eine Rolle ;)

MSAA is implemented in hardware and therefore very fast.

Ehhh naja kommt drauf an aus welchem Blickwinkel man es betrachtet ;)


Thibieroz and Hillesland claimed that isoline tessellation is not cost effective because lines have to be expanded in the geometry
shader, which is a major impact on performance. They also think that pure vertex shader solution is faster and curvature is barely a problem.
However, they did not back up their claims with test results, which compares a tessellation based version with their version.

Da müsste StefanV ja ausflippen die claimen da einfach was ohne es zu profen ach ne sie haben ja argumentiert warum und das reicht Stefan ja, glatt vergessen ;)

Tariq’s work showed the better results for hair rendering, uses a more realistic hair simulation, has a smaller amount of
guide hairs and utilizes the tessellation pipeline. Especially, the tessellation pipeline allows more flexibility and control over the tessellated hairs for level of detail purposes.

Der junge ist zu biased neee das geht nicht tessellation ist evil macht nur löcher und alles langsam auf AMD Hardware ;)

Another reason to use an implementation that utilizes the tessellation pipeline is because it also can be used to render face and cloth geometry more efficiently and with less memory consumption.

Was das lauft auch noch ordentlich auf der Speicherverkrüpelten GTX 970 naaa jetzt aber ;)


It is possible to implement a view-dependent level of detail, which could be useful for the future of our character rendering pipeline. The tessellation pipeline would also allow to decide how much geometry detail is generated per frame.
Therefore a version of our characters with less geometric detail would be possible. We would also have the possibility to have a continuous transition between low poly geometry and high detail geometry.

Wofür den so etwas pre baken wir einfach mit Simpligon auf deren Cloud nicht wahr ;) ?

Troyan
2015-07-20, 00:54:36
Müssen sie nicht. Ich rede nicht von irgend einer CPU-Erzeugung. Du kannst auch mit einem puren Vertex-Shader Liniensegmente unterteilen. Primitive ID reicht dafür völlig aus. Ich hab die Idee auch schon mal beschrieben. PrimitiveID % (Anzahl Vertices pro Strand) gibt dir das Vertex im Haar, PrimitiveID / (Anzahl Vertices pro Strand) gibt dir das Haar. Dann liest du damit aus den Buffern und gut is. TressFX benutzt übrigens keine Tesselation und keinen GS.

Ich rede nicht von der Arbeit im Vertexshader, sondern über den Input. Woher stammen die Informationen über die Lines? Irgendwer muss die Kontrollpunkte für den Vertexshader erschaffen.
Eidos hat 21k Haare verwendet - jede Strähne bestand aus 16 Kontrollpunkten, also 15 Segmente. Jedes Segment wiederum hat 6 Kontrollpunkte verwendet, um daraus die Quads im Vertexshader zu erstellen. Ein Aufruf zum schlussendlichen rendern der Strähne bestand aus 90 Kontrollpunkten, die von der CPU erzeugt und dann über das Bussystem zur Grafikkarte gesendet wird.
Für das komplette Haar bestand der Aufruf aus 1.890.000 Kontrollpunkten bzw. 945.000 Dreiecken pro Frame - alleine für die Haare. All die Informationen müssen als Stream in die Vertex-Shader Stage gelangen.


Tesselation ist sau lahm bei so hoher Amplifizierung.

Es ist schneller als Vertex-Instanzierung - siehe das Dokument von oben.
Es gibt auch keine öffentliche Zahlen, die dies untermauern. Die Bachelorarbeit zeigt, dass bei TressFX mehr Zeit im Vertexshader verbracht wird als bei der Fermi-Demo im Geometrieshader.

gedi
2015-07-20, 01:22:21
Es ändert trotzdem nichts an der Tatsache, dass Laras Haare (wo auch immer ;)) besser aussehen als die beknackte Implementation seitens W3!

The_Invisible
2015-07-20, 07:34:47
Ich dachte Tesselation kann man Ingame nicht reduzieren?

Seit Patch 1.07 ist das möglich, es gibt Low und High, dazu kann man auch noch die AA Stufen für HW festlegen (2x, 4x, 8x). Das dürfte dann auch widerlegen das Spieleentwickler diese Settings nicht ändern dürfen, oder hat es ein Hairworks Update gegeben das dies nun erlaubt?

del_4901
2015-07-20, 07:39:17
Und wo werden die entsprechenden Haare erstellt und entsprechend abgerundet?

Im VS oder vorangestellten CS jeh nach Bandwidth Occupancy trade off.Ein Aufruf zum schlussendlichen rendern der Strähne bestand aus 90 Kontrollpunkten, die von der CPU erzeugt und dann über das Bussystem zur Grafikkarte gesendet wird.
Die Zeiten von glBegin/glEnd Style rendering sind schon lange vorbei. Die Daten werden einmal hochgeladen und verbleiben dann persistent im GPU Speicher. Zur animation verwendet man dann GPU compute, da unterscheidet sich Tariq und TressFX nicht viel.

Troyan
2015-07-20, 15:41:10
@grestron
Was ist das für eine Hilfe für Entwickler wen am Ende nichts gescheites rüber kommt? Tessellation mit 64x ist in diesem Sinne sinnlos und die Haare sehen nicht besser aus.

Aber die gleiche Menge an Vertices über die CPU zu erzeugen, unnötig viel Speicher zu verbraten, Unmengen an Bandbreite für Null und Nix aufzuwenden und dann wesentlich eingeschränkter in der Verwendung zu sein, ist dagegen besser? :freak:

Es gibt viel mehr Argumente, die AMDs Weg für die Geometrieerzeugung als schlechter darstellen lassen als umgekehrt:
Es braucht Unmengen an Speicher für Vertices und OIT, es ist wesentlich unflexibler, es kann nur geringe Mengen an Haare darstellen, es belastet unnötig das Host-System, es schränkt Designer wesentlich stärker ein etc.

Ich warte immer noch auf Argumente gegen den Einsatz von HS/TS/DS/GS.

Digidi
2015-07-20, 15:46:57
Aber die gleiche Menge an Vertices über die CPU zu erzeugen, unnötig viel Speicher zu verbraten, Unmengen an Bandbreite für Null und Nix aufzuwenden und dann wesentlich eingeschränkter in der Verwendung zu sein, ist dagegen besser? :freak:

Es gibt viel mehr Argumente, die AMDs Weg für die Geometrieerzeugung als schlechter darstellen lassen als umgekehrt:
Es braucht Unmengen an Speicher für Vertices und OIT, es ist wesentlich unflexibler, es kann nur geringe Mengen an Haare darstellen, es belastet unnötig das Host-System, es schränkt Designer wesentlich stärker ein etc.

Ich warte immer noch auf Argumente gegen den Einsatz von HS/TS/DS/GS.

Ich stecke nicht drin in dieser Materia. Aber wenn Pcgh sagt das man mit Tessellation 16x zu 64x keine Abstriche bei der Bildqualität machen muss aber dafür ein gutes Leistungsplus erhält warum macht man dann 64x???? Bitte beantworten

maguumo
2015-07-20, 15:52:09
Seit Patch 1.07 ist das möglich, es gibt Low und High, dazu kann man auch noch die AA Stufen für HW festlegen (2x, 4x, 8x). Das dürfte dann auch widerlegen das Spieleentwickler diese Settings nicht ändern dürfen, oder hat es ein Hairworks Update gegeben das dies nun erlaubt?

Und welchen Tesselationsstufen entsprechen diese Settings? Woher wissen wir das nicht auch was anderes geändert wird?

del_4901
2015-07-20, 16:11:45
Aber die gleiche Menge an Vertices über die CPU zu erzeugen, unnötig viel Speicher zu verbraten, Unmengen an Bandbreite für Null und Nix aufzuwenden und dann wesentlich eingeschränkter in der Verwendung zu sein, ist dagegen besser? :freak:

Es gibt viel mehr Argumente, die AMDs Weg für die Geometrieerzeugung als schlechter darstellen lassen als umgekehrt:
Es braucht Unmengen an Speicher für Vertices und OIT, es ist wesentlich unflexibler, es kann nur geringe Mengen an Haare darstellen, es belastet unnötig das Host-System, es schränkt Designer wesentlich stärker ein etc.

Ich warte immer noch auf Argumente gegen den Einsatz von HS/TS/DS/GS.
Bandbreite und Speicherverbrauch sowie ALU sind mit VS extrusion ähnlich im Vergleich zu Tess+GS. Mit GS/HS spilling ist der Bandbreitenverbrauch eher höher bei der Tess+GS Lösung

Designer sind keineswegs eingegeschränkt der code wird bei Tess+GS nur ein wenig hässlicher wenn die Haare lang sind. Flexibel sind also beide Verfahren.

Tess+GS erzeugt unnötig backpressure auf das gesamte Frontend, deswegen knackt die Leistung verglichen mit VS extrusion mehr ein.

Digidi
2015-07-20, 16:18:33
@MilesEdgeworth

Man braucht nicht immer den Tiefen Einblick um zu sehen das etwas nicht stimmt. Wie gesagt wieso stellt man Tessellation auf 64x und nimmt große Leistungsverluste in kauf ohne das sich das Bild verbessert? Das kann jeder an seinem Rechner nachprüfen und ab da macht es klick. Das sind dann die kleinen schmutzigen Trick die Verraten warum Gameworks entwickelt wurde. Aber die meisten denken ja immer noch das Gameworks der Heilige Gral ist.

maguumo
2015-07-20, 16:28:46
Falls es wen interessiert könnte ich später mal ein paar Vergleichscreens mit unterschiedlichen Ingame HW Settings und Tesselations Limits im CCC machen. Was außer Geralt sollte denn noch drauf sein? Bär? (Royal) Griffin?

Elite_Warrior
2015-07-20, 16:33:45
Aber die meisten denken ja immer noch das Gameworks der Heilige Gral ist.

Die meisten? Wie kommst du auf den Zug? Ich habe noch nie bei einer Kaufberatung gesehen das jemand unbedingt Nvidia wegen Gameworks haben will, höchstens Physix und das auch nur gaaanz selten.

Ganz im Gegenteil, auf Youtube(Ja, ich Esel hatte meine 2 Sekunden Spaß in der Kommentarzeile :freak:) machen sich selbst Nvidia Käufer über Gameworks lustig weil sie diese oftmals nicht selbst voll ausfahren können, da der Leistungseinbruch eher mit mit den teuersten Karten gut zu kompensieren ist.

-/\-CruNcher-/\-
2015-07-20, 17:12:18
Die meisten? Wie kommst du auf den Zug? Ich habe noch nie bei einer Kaufberatung gesehen das jemand unbedingt Nvidia wegen Gameworks haben will, höchstens Physix und das auch nur gaaanz selten.

Ganz im Gegenteil, auf Youtube(Ja, ich Esel hatte meine 2 Sekunden Spaß in der Kommentarzeile :freak:) machen sich selbst Nvidia Käufer über Gameworks lustig weil sie diese oftmals nicht selbst voll ausfahren können, da der Leistungseinbruch eher mit mit den teuersten Karten gut zu kompensieren ist.

Das ist korrekt aber das ist eben das Portofolio wart mal ab wenn VXGI in den ersten titteln anklopft, du brauchst die Physikalischen Shader + die Optimierungen aus Maxwell die verluste kannst du auch teils nicht mit OC kompensieren ;)

Dir steht es ja aber immer selber frei nach unten hin anders zu gewichten und den Load anders zu verteilen.

Problematisch wird es nur wenn Nvidia mit Gameworks einem vermehrt nicht mehr die Option lässt die Tessellation oder andere Settings in Richtung Performance selbst zu verschieben und sie Hardcoded, das fände selbst ich dann ein Problem als user und würde sturm laufen und da kommen alte Erinnerungen hoch ;)

Wenn selbst den Engine Entwicklern keine Option mehr eingeräumt wird diese Settings in ihre Optionen oder Presets mit aufzunehmen sondern lediglich on/off dann wirds haarig.

Also die Entscheidung ob ich 16 oder 64 Tesselation auf die Shader jagen will oder etwas anderes eher prioritisieren möchte die sollte man den usern bei allen Gameworks funktionen schon einräumen.

InsaneDruid
2015-07-20, 18:30:25
Falls es wen interessiert könnte ich später mal ein paar Vergleichscreens mit unterschiedlichen Ingame HW Settings und Tesselations Limits im CCC machen. Was außer Geralt sollte denn noch drauf sein? Bär? (Royal) Griffin?ja mach mal bitte.

Troyan
2015-07-20, 18:33:41
Können wir aufhören hier von "64x" zu sprechen? Es geht einzig und allein um die Anzahl an Haare.
Der Faktor ist doch völlig uninteressant.

Es wäre sogar wünschenwert, wenn dieser höher sein könnte, da man dann noch mehr Haare auf der GPU in einem Rutsch erzeugen und so die Patches für den Hull-Shader minimieren könnte.

Gipsel
2015-07-20, 18:42:32
So, mal gute 4 Seiten des Threads entfernt.

Bleibt bitte beim Thema und seht von persönlichen Angriffen ab!

Danke.

del_4901
2015-07-20, 19:41:12
Es wäre sogar wünschenwert, wenn dieser höher sein könnte, da man dann noch mehr Haare auf der GPU in einem Rutsch erzeugen und so die Patches für den Hull-Shader minimieren könnte.
Erfordert grössere Caches oder mehr On-Chip Memory ohne wirkliche Vorteile zu bringen. Ab einem gewissen Punkt ist auch nicht mehr genug Parallelität drin um den Chip optimal auszulasten da nicht mehr genug VS oder PS waves laufen können wenn alles mit DS überfutet wird.

The_Invisible
2015-07-20, 20:07:30
Ich stecke nicht drin in dieser Materia. Aber wenn Pcgh sagt das man mit Tessellation 16x zu 64x keine Abstriche bei der Bildqualität machen muss aber dafür ein gutes Leistungsplus erhält warum macht man dann 64x???? Bitte beantworten

Gabs bei 16x und nassen Haaren nicht Probleme mit zu eckigen Haaren? Zumindest 32x sollte aber reichen. Vielleicht finde ich das VergleichsBild noch.

maguumo
2015-07-20, 20:54:53
Hier ein paar Screens. Nen Bären/Archgriffin habe ich leider auf die schnelle nicht gefunden, Warg ist zu klein um daran großartig Unterschiede zu erkennen. Mit der Griffin Trophäe muss man sich auch wirklich anstrengen um Unterschiede zu erkennen (oder das Tess-Limit im CCC greift warum auch immer nicht mehr, Performance ist aber definitiv besser wenn man das Limit auf 16 bzw. 8 setzt)...

Mein Monitor hat sich leider vor ner Woche verabschiedet, also leider nur in 1680x1050. Womöglich könnte man bei höheren Auflösungen besser was sehen...

EDIT: Das Zeug ist leider zu groß für die Anhänge...
Hairworks High (8xMSAA, kein Tess Limit):
http://puu.sh/j6l6a/94d13a191b.bmp
Hairworks Low (8xMSAA, kein Tess Limit)
http://puu.sh/j6l91/6fa0d0f425.bmp
Hairworks High (8xMSAA, x32 Tess Limit)
http://puu.sh/j6lbN/261358413f.bmp
Hairworks High (8xMSAA, x16 Tess Limit)
http://puu.sh/j6ljI/e209fb4883.bmp
Hairworks High (8xMSAA, x8 Tess Limit)
http://puu.sh/j6lmm/3555865430.bmp

Troyan
2015-07-20, 22:56:56
Die Griffin-Trophäe hat klar weniger Haare mit allen Einstellungen. Selbst "Low" sieht besser aus.

Hier mal Vergleiche zwischen Low und High bei Geralt und bei Tieren:
http://abload.de/thumb/witcher3_2015_07_20_11suuk.png (http://abload.de/image.php?img=witcher3_2015_07_20_11suuk.png) http://abload.de/thumb/witcher3_2015_07_20_1ppuix.png (http://abload.de/image.php?img=witcher3_2015_07_20_1ppuix.png)

http://abload.de/thumb/witcher3_2015_07_19_2zquee.png (http://abload.de/image.php?img=witcher3_2015_07_19_2zquee.png) http://abload.de/thumb/witcher3_2015_07_19_25sutq.png (http://abload.de/image.php?img=witcher3_2015_07_19_25sutq.png)

Bei Geralt ist Low ausreichend. Vielleicht nicht hier auf dem Bild, aber während des Spielens sieht man kaum einen Unterschied. Bei den Tieren dagegen finde ich High besser.

maguumo
2015-07-20, 23:02:25
Für den Unterschied muss man aber schon arg genau hinschauen. Beim Spielen fällt mir kein Unterschied zwischen tess x16 und x64 auf. Liegt vielleicht auch an der niedrigen Auflösung...

Was großes zum Testen habe ich wie gesagt leider nicht gefunden. N Bär wäre interessant gewesen, der hat n paar Haare mehr...

Troyan
2015-07-20, 23:05:59
Das ist kein Argument, da es die Entscheidung des Designers ist, wie es auszusehen hat.
Ich sehe auch viele Effekte nicht bzw. verzichte darauf. Mit "Low" hat man sich der Kritik ja schon angenommen. Wenn man nun Geralts Haar vom Rest trennt, hat man alle Wünsche erfüllt.

Bei den Wölfen sieht man es dagegen auch deutlich, wenn man es weiß. Die "Textur" ist eben deutlicher sichtbar als bei High. Da merkt man, dass man FPS gewinnt, weil man die Qualität reduziert.

Armaq
2015-07-20, 23:28:46
Ich lass es auf ner AMD aktiviert. Einfach weil es geil aussieht auf Bären und Wölfen. Aber im Spiel seh ich zwischen den Stufen (auch AA Stufen) kaum Unterschiede, wenn das Ding mich angreift, zerhacke ich es und gut. Nur Off geht nicht, wenn man es einmal Live gesehen hat.

blaidd
2015-07-21, 04:37:20
Falls ihr einen vernünftigen Vergleich anstrebt: Versucht's mal mit einer animierten Szene. Die Fluchtszene vor der Wilden Jagd nach White Orchards ist beispielsweise gut. Der Tessellations-Faktor spielt da eine große Rolle bei der Glaubwürdigkeit der Haardarstellung. ×32 sieht da schon bäh aus, ×16 ist richtig fies. Ob da allerdings eine so hohe Polygondichte wirklich eine sinnvolle Herangehensweise ist, sei dahingestellt....

Was hat Nvidia bei ihren Demos angegeben, 1,6 Millionen Polygone? Das entspräche etwa 40 The-Witcher-3-NPCs (natürlich nicht 1:1, einzig auf die Dreiecke bezogen)... sinnvoll? Das könntet ihr jetzt diskutieren, ist cleverer als der Tessellationsfaktor, der im Grunde immer einen Bezug auf das ursprüngliche Mesh hat: Low-Poly, wie z.B. Landschaft - großer Unterschied selbst bei kleinem Faktor; High-Poly wie z.B. Charaktermodelle - mehr oder minder für'n Arsch, auch bei ×64 und da eigentlich ganz besonders. Der Faktor Performance-Impact/Optikgewinn ist tendenziell eher unterschiedlich.

Wenn ihr (mehr oder minder ausnahmsweise) mal ein bisschen anständige Tessellation sehen wollt, geht Dragon Age spielen. Das ist dahingehend ziemlich eindrucksvoll, wenn man mal ein wenig genauer hinschaut... und es läuft sogar ganz ordentlich. :)

@Troyan: Die (sehr gut aussehenden) Viecher haben schon vorher verhältnismäßig wenig Leistung gekostet... selbst mit einer AMD-GPU. Geralt sieht @low dagegen mies aus; schlechter oder maximal gleichwertig als mit einer AMD @ ×16, zumindest unbewegt - ist das ein Comb-Over?. In Zwischensequenzen und Nahaufnahmen ist das bestimmt kein Hingucker - Aber ich lass mich natürlich gern vom Gegenteil überzeugen. Und dafür braucht's wahrscheinlich auch nur kümmerliche 30 % Mehrleistung... Ist ja nicht mal ganz so viel wie der Sprung von 1080p auf 1440p - das ist's bestimmt wert ;)

Skysnake
2015-07-21, 07:19:36
Die Griffin-Trophäe hat klar weniger Haare mit allen Einstellungen. Selbst "Low" sieht besser aus.

Hier mal Vergleiche zwischen Low und High bei Geralt und bei Tieren:

Bei Geralt ist Low ausreichend. Vielleicht nicht hier auf dem Bild, aber während des Spielens sieht man kaum einen Unterschied. Bei den Tieren dagegen finde ich High besser.
Wieso jetzt wieder mit den Ingame Einstellungen? Das ist doch eher uninteressant, bzw wurde schon gezeigt.

Wenn dann bitte mit Direktvergleich zur Limitierung des Tess lvl durch das CCC.

captain_drink
2015-08-01, 14:11:18
http://www.pcr-online.biz/news/read/amd-slams-tragic-nvidia-gameworks-it-even-typically-damages-the-performance-on-nvidia-hardware/036660

Huddy gehen offenbar die Ideen aus...

Unicous
2015-08-01, 14:15:49
Warum verlinkst du dann diesen Furz?:confused:


:rolleyes:

Kartenlehrling
2015-08-01, 14:21:54
Ich bin kein freund von Gameworks, aber dieser Huddy macht sich lächerlich und unglaubwürdig.
Entweder belegt Er es "Schwarz auf Weiß" oder läst es, AMD soll einfach mit Spielen zeigen das sie es besser können,
in 8 Wochen ist doch von jedem Spiel einen Mantle version möglich, dann können sie beweisen das nichts bremst.

Mancko
2015-08-02, 13:01:40
Ich bin kein freund von Gameworks, aber dieser Huddy macht sich lächerlich und unglaubwürdig.
Entweder belegt Er es "Schwarz auf Weiß" oder läst es, AMD soll einfach mit Spielen zeigen das sie es besser können,
in 8 Wochen ist doch von jedem Spiel einen Mantle version möglich, dann können sie beweisen das nichts bremst.

Kann er nicht. Bei einigen AMD Personen ist zunehmend Nervosität zu erkennen. Einige, insbesondere er und Roy Taylor, glänzen zunehmend nur noch durch ungezieltes Umherschießen und -posaunen. Huddy spezielles Problem wird sein, dass auch er letztlich am Erfolg gemessen wird und er kämpft mittlerweile mit knappen Developer Relations Resourcen gegen eine extrem wachsende Gameworks Group innerhalb von Nvidia. Ich habe ja schon vor ein paar Wochen gesagt, dass Gameworks noch zum Alptraum von AMD werden wird. Der Huang hat m.E. völlig richtig erkannt wo er über die nächsten Jahre ansetzen und investieren muss. Und der Huddy weiß vermutlich einfach, dass der Zug für ihn und AMD abgefahren ist. Die Konkurrenz hat einfach die letzten Jahre deutlich besser genutzt um die finanziellen Grundlagen für die heutigen Investments zu schaffen und in ein paar Jahren wird nur doch derjenige Relevanz haben, der maßgeblich Einfluss auf Content, in dem Fall Spiele, nimmt.

Grestorn
2015-08-02, 13:10:55
Wobei man auch ganz klar sagen muss, dass es eine Katastrophe ist, wenn AMD weiter so ins Hintertreffen gerät.

Was mich dabei so sehr nervt ist, dass man nicht müde wird, den Fehler bei den Konkurrenz zu suchen, auf diese mit übelster Rhetorik einprügelt (und die Fans da nur zu gerne mitmachen), statt dass man die eigenen Defizite erkennt und beseitigt.

Auch wenn AMD das kleinere Budget hat: Kleinere Entwicklunsabteilungen sind in der Regel flexibler und neuen Ideen aufgeschlossener als große, schwerfällige Teams und Companies. Das wäre etwas, wo AMD seine Stärken ausspielen könnte.

Aber nein, man kippt lieber Schmutzkampagnen über nVidia aus und macht sich damit (in meinen Augen) nur noch unbeliebter.

-/\-CruNcher-/\-
2015-08-02, 13:26:22
Naja der Kampf hat begonnen jetzt müssen Alphatier und Co in Echtzeit beweisen das TressFX der Richtige Weg für Kepler,Maxwell und GCN Hardware ist ;)

Oder selbst eine solution Middleware aus dem Boden Stampfen die auf beiden identische Ergebnisse liefert.

Mit dem neuen Deus Ex und Tomb Raider kommen 2 Titel aus dem Square Enix AMD TressFX lager

Die Implementierung von Hairworks in UE4 ist schon weit vorangeschritten (da arbeitet das Gameworks Team nonstop dran) :)

Wenn es am Ende dazu kommen sollte das Kepler user selber TressFX preferieren wegen dem Latenzverlust dann wird Nvidia schon von selber einknicken.

Oder man riskiert diese User zu verlieren viele werden das Upgraden auf Maxwell nicht mitmachen es sei den Nvidia kombiniert immer mehr Load da werden Kepler user keine andere Wahl haben sich zu entscheiden.
Vor allem die Enthusiasts werden VXGI + Hairworks + Faceworks fahren wollen, wobei da selbst noch die Lower Maxwell momentan ins straucheln kommen vor allem wenn noch Physx hinzukommt ;)

Aber soweit sind wir dann auch noch nicht ganz bei 4K schon garnicht ;)

Wie sich einige hier sorgen machen kann ich nicht verstehen das bessere wir für die jeweilige Hardware gewinnen und die Entwickler sich anpassen (noch ein paar extra paths und hardware detections) oder eben selber Hand anlegen ;)

fondness
2015-08-02, 13:34:17
Als ob es nicht genug berechtige Kritikpunkte geben würde und sich nicht schon namhafte Industriegrößen sehr negativ zu Gameworks geäußert hätten. Das traurige ist eher, das sowas dann trotzdem noch verteidigt wird von den NV-Fans. Das die Konkurrenz auf solche Missstände hinweist ist wohl das mindeste.

-/\-CruNcher-/\-
2015-08-02, 13:51:22
Naja ich seh das ganze nicht so eng immerhin ist die Konsolen Konvergenz da auf seiten AMDs ;)
Wobei Nvidia das bis jetzt ziemlich blendend Kompensiert :)

Nvidia schaft hier Balance darauf muss man sich als Entwickler einstellen

Troyan
2015-08-02, 13:51:54
http://www.pcr-online.biz/news/read/amd-slams-tragic-nvidia-gameworks-it-even-typically-damages-the-performance-on-nvidia-hardware/036660

Huddy gehen offenbar die Ideen aus...

Die PC Version von The Witcher 3 hat ein Score von 94: http://www.metacritic.com/game/pc/the-witcher-3-wild-hunt

Dying Light hat 75, Project Cars liegt bei 83. Evolve steht bei 77. Lords of The Fallen bekam 73. AC:Unity schaffte es auf 70, Far Cry4 sitzt auf 80 Punkten. Watch Dogs bekam 77.

Mal aus dem Kopf AMDs Spieleportfolio aus 2014 und 2015 dagegen:
Alien Isolation hat 81, Civ:Beyond Earth liegt bei 81, Sniper Elite 3 bekam 71, Thief (2014) nimmt 70 mit, Murdered Soul Suspect wurden 59 gegeben, Dragon Age hat 85 und Lichdom steht bei 69, PvZ hat 78.

Im Schnitt 78 gegen 74. Also ziemlich ausgeglichen...

Als ob es nicht genug berechtige Kritikpunkte geben würde und sich nicht schon namhafte Industriegrößen sehr negativ zu Gameworks geäußert hätten. Das traurige ist eher, das sowas dann trotzdem noch verteidigt wird von den NV-Fans. Das die Konkurrenz auf solche Missstände hinweist ist wohl das mindeste.

Die einzigen, die sich "negativ äußern", sind bei der Konkurrenz angestellt oder befinden sich im Bezahlprogramm. Wieso sollte die Meinung eines Johan Andersson mehr gewicht haben als die Meinung eines mir nicht bekannten Entwicklers von CD Projekt, der sich für Hairworks entschieden hat?

Kartenlehrling
2015-08-02, 13:53:06
Das problem ist @fondness es sind Vermutunge und in einigen Punkte kann es einfach nur schlampig programiert sein oder das problem wurde einfach nicht erkannt.
Wie gesagt die Entwickler die ein Mantle-API eingefügt haben, schreiben doch von selbst das sowas in 2 Monaten von 2-4 Leute machbar wäre.
Es kann nicht sein das Nvidia ein Personalstand von 300 Leute für Gameworks hat und AMD nicht mal 10 Leute für Mantle oder AMD-DX12 abstellen können.

Lurtz
2015-08-02, 13:54:23
Als ob es nicht genug berechtige Kritikpunkte geben würde und sich nicht schon namhafte Industriegrößen sehr negativ zu Gameworks geäußert hätten. Das traurige ist eher, das sowas dann trotzdem noch verteidigt wird von den NV-Fans. Das die Konkurrenz auf solche Missstände hinweist ist wohl das mindeste.
Auch wenn man kein Gameworksfan ist, daran rumzukritisieren ohne bessere Alternativen zu haben, wie AMD es seit Jahren macht, bringt offensichtlich nichts.

Dann muss AMD eben sein eigenes Programm auffahren, kann ja auch offener gestaltet sein, und kleinere Entwickler einbinden, wie Grestorn meinte. Wieso nicht? Warum kann AMD keinerlei Vorteile aus ihrer Hardware in den Konsolen ziehen?
So wie es momentan ist, wird es nicht mehr lange gut gehen.

Dabei ist es ja nichtmal so als wäre Gameworks unangreifbar, im Gegenteil habe ich viele Gameworksspiele als technisch katastrophal in Erinnerung. Das mag nicht an Gameworks liegen, vielleicht nehmen gerade Entwickler, die keine vernünftigen PC-Versionen hinkriegen, Gameworks gerne mit weil es ja offensichtlich als Werbemittel funktioniert.
Ja, ich schaue euch an, Ubisoft und Warner Brothers!

Lieber habe ich technisch saubere Spiele als grottige laufende Konsolenportierungen, die mit irgendwelchen mehr oder weniger sinnvollen Gameworkseffekten aufgemotzt sind :rolleyes:

fondness
2015-08-02, 14:11:30
Tja, die traurige Wahrheit ist eben, das man zumindest zurzeit nicht das Budget hat um sich bei Spielen einzukaufen. Effekte und Code werden eh angeboten und kann jeder runter laden. Wobei ich die Praxis eh generell hinterfragenswert finden, denn wie du schon selbst sagtest, viel mehr wie verbuggte Spielen kommen bei den Gameworks-Zeug eh nicht rum. Und generell sollten der Kontent von den Spielerherstellern gemacht werden und nicht von den Hardwareherstellern, wo natürlich ein eindeutiger Interessenskonflikt vorliegt die Konkurrenz betreffend. Aber leider bekommen die Publisher eben auch zunehmend Probleme Gewinn mit PC-Spielen zu machen, sodass man für solcherlei Praxis natürlich empfänglich ist, gerade wenn man dann noch ein paar Spielelizenzen abgenommen werden.

Grestorn
2015-08-02, 14:23:26
...und wieder Schmutz über nVidia.

Allein die Behauptung, man würde sich in "Spiele einkaufen". Seufz.

Mancko
2015-08-02, 14:30:18
Wobei man auch ganz klar sagen muss, dass es eine Katastrophe ist, wenn AMD weiter so ins Hintertreffen gerät.



Ich bin da recht entspannt. Die Wirtschaft im Allgemeinen hat schon immer auf dem Prinzip der Auslese basiert. Erfolgreiche Unternehmen überleben. Dauerhaft nicht erfolgreiche Unternehmen verschwinden in der Versenkung. Auch nach einem Ableben von AMD kann Nvidia nicht wahllos agieren. Beispielsweise würde ein extremes Anziehen der Preise auch nur dazu führen, dass die Leute ihre Produkte länger behalten. Zudem gibt es Konkurrenzdruck von anderen Seiten. Steigen die Preise zu sehr wird es auch für andere attraktiv mitzumischen, zumal ich sowieso davon ausgehe, dass in 5 Jahren auf beliebig vielen Geräten gespielt werden kann. Und dann gibt es ja auch immer Beispiele wie Nokia & Co die auch mal sehr erfolgreich waren und sich dann ausgeruht haben. Am Ende des Tages hat die Konkurrenz und der sich ändernde Markt die einfach weggefegt.

Insofern kann auch Nvidia nicht in den Schlafmodus verfallen. Ich bin von daher was das Thema angeht sehr entspannt. Ein Konkurrent der dauerhaft erfolglos ist, muss eben irgendwann verschwinden und Platz für andere machen. Das ist der Lauf der Dinge. Es sind schon so viele Unternehmen die mal eine Größe waren verschwunden. Da gehört AMD m.E. eher zu den kleinen Fischen.


Was mich dabei so sehr nervt ist, dass man nicht müde wird, den Fehler bei den Konkurrenz zu suchen, auf diese mit übelster Rhetorik einprügelt (und die Fans da nur zu gerne mitmachen), statt dass man die eigenen Defizite erkennt und beseitigt.

Auch wenn AMD das kleinere Budget hat: Kleinere Entwicklunsabteilungen sind in der Regel flexibler und neuen Ideen aufgeschlossener als große, schwerfällige Teams und Companies. Das wäre etwas, wo AMD seine Stärken ausspielen könnte.

Aber nein, man kippt lieber Schmutzkampagnen über nVidia aus und macht sich damit (in meinen Augen) nur noch unbeliebter.

Generell gebe ich Dir Recht, dass kleinere Unternehmen agilier und flexibler sind. AMD hat aber noch nie dazu gehört. Das was Du sagst trifft auf Start-Ups etc. und junge stark wachsende Unternehmen zu. AMD kommt genau aus der anderen Richtung. Die waren mal verhältnismäßig groß und schon lange kein agiles Unternehmen mehr. Nvidia war schon immer das agilere Unternehmen, ganz einfach auf Grund der anderen Firmengeschichte. ATI war in sich würde ich sagen vergleichbar mit Nvidia, wenn auch leicht lethargischer. ATI gab es halt auch länger. Nach der Übernahme hat aber ATI, wie es bei Übernahmen häufig der Fall ist, den monolithischen AMD Apparat übergestülpt bekommen und da war es aus mit der Agilität und Flexibilität. Wenn man sich AMDs aufgeblasenen Wasserkopf samt Board of Directors ansieht, dann weiß man was los ist. Der Fisch fängt immer vom Kopf an zu stinken.

fondness
2015-08-02, 14:33:06
Allein die Behauptung, man würde sich in "Spiele einkaufen". Seufz.

Alleine schon die Leugnung dieses offensichtlichen Sachverhaltes. Seufz. Ich sehe keine Grund Industrieveteranen wie Demirug nicht zu glauben, nur weil du gerne alles abstreitest.

Ansonsten gilt sowieso die einfache Regel das nvida (durch einen Marketingdeal) dafür bezahlt hat das ihre Kunden in einem Spiel zusätzliche Effekte bekommen. Oder eben gleich das ganze Spiel. Dieses Spielchen ist so alt wie es spezielle Grafikkarten gibt. Schon damals wurden Entwickler dafür bezahlt eben eine spezielle Version von einem Spiel zu erstellen.

Mancko
2015-08-02, 14:33:45
Es kann nicht sein das Nvidia ein Personalstand von 300 Leute für Gameworks hat und AMD nicht mal 10 Leute für Mantle oder AMD-DX12 abstellen können.

Doch kann sein. Denn die Miswirtschaft bei AMD in den letzten 5 bis 6 Jahren tritt nun deutlich zu Tage. Ich sehe hier aber keinen Grund für besondere Schutzbedürftigkeit. Im Endeffekt muss der erfolglose eben auch für die Erfolglosigkeit bestraft werden. Sonst würde unser ganzes Wirtschaftssystem nicht funktionieren und es gäbe nur noch "Griechenland like" Unternehmen.

Arcanoxer
2015-08-02, 14:37:26
http://www.pcr-online.biz/news/read/amd-slams-tragic-nvidia-gameworks-it-even-typically-damages-the-performance-on-nvidia-hardware/036660

Huddy gehen offenbar die Ideen aus...
"Owners of AMD graphics cards have complained of poor performance when running GameWorks titles, such as Project Cars, on their machines."

self owned ;D

Mancko
2015-08-02, 14:39:25
Tja, die traurige Wahrheit ist eben, das man zumindest zurzeit nicht das Budget hat um sich bei Spielen einzukaufen. Effekte und Code werden eh angeboten und kann jeder runter laden. Wobei ich die Praxis eh generell hinterfragenswert finden, denn wie du schon selbst sagtest, viel mehr wie verbuggte Spielen kommen bei den Gameworks-Zeug eh nicht rum. Und generell sollten der Kontent von den Spielerherstellern gemacht werden und nicht von den Hardwareherstellern, wo natürlich ein eindeutiger Interessenskonflikt vorliegt die Konkurrenz betreffend. Aber leider bekommen die Publisher eben auch zunehmend Probleme Gewinn mit PC-Spielen zu machen, sodass man für solcherlei Praxis natürlich empfänglich ist, gerade wenn man dann noch ein paar Spielelizenzen abgenommen werden.

Ich sehe nicht ein wieso Hardwarehersteller sich aus der Content Entwicklung heraushalten sollen, während andere wie Sony, M$ und Nintendo genau das machen. Apple im übrigen auch. Es ist das verdammte Recht und m.E. sogar die Pflicht von Nvidia genau hier anzusetzen. Jedes Unternehmen in diesem Umfeld, dass dieses Thema nicht in Angriff nimmt wird über kurz oder lang verschwinden. Wir haben nicht mehr die 90er und anfänglichen 2000er Jahre. Die Zeiten haben sich geändert und der PC wie der früher mal war wird so nicht überleben. So simpel und einfach ist das.

-/\-CruNcher-/\-
2015-08-02, 14:44:19
Alleine schon die Leugnung dieses offensichtlichen Sachverhaltes. Seufz. Ich sehe keine Grund Industrieveteranen wie Demirug nicht zu glauben, nur weil du gerne alles abstreitest.

Richtig und diese Spezielen Versionen kommen jetzt Reihenweise auf der Konsole dennoch juckt es den Nvidia treiber + Hardware teils nicht die Bohne beim PC (Port oder nicht) Release und GCN hat keine sichtbaren Vorteile eher das Gegenteil ;)

Natürlich kann Nvidia es nicht zulassen das die Titel die durchkommen gänzlich besser auf AMD laufen das währe das Ende deswegen kreieren sie eine Balance mit ihrer R&D Power und schaffen zusätzliche Anreize das es nicht soweit kommt das AMD alles dominiert (Konsole,PC) und zum Teil optimieren sie die Arbeit der Entwickler wenn die dazu nicht in der Lage sind mit sehr ordentlichem Erfolg auf ihre Hardware Ansprüche ohne selbst deren Code direkt anzufassen (erst beim user) ;)
Wenn man Nvidias vorgehen hier Kritisiert ist das genauso abwegig wie AMDs vorgehen zu Kritisieren es geht rein um die Balance und zu überleben.

AMD fühlt sich seit dem Konsolen Win wie der König und dachten sie haben Gewonnen (Preise Explodierten) ;)

Nvidia erweitert ihr eigenes Ökosystem und bastelt zusätzlich an ihrer eigenen Konsolenplatform um auch das Wissen für Später zu schaffen inerhalb dieses Ökosystems besser kann man es nicht kompensieren als Wettbewerber.

Zudem haben sie die meisten Nachteile ihrer Hardware nach dem Konsolen lose überdacht und daran gearbeitet das die Einbrüche minimiert werden dazu eine sehr Wirtschaftliche und Preislich ordentliche Lösung entwickelt,das nennt man verauschauendes handeln.

Leider müssen die Kepler user jetzt einige dieser Fehlentscheidungen im Design ausbaden aber das war schon immer so, wichtig ist das man mit Maxwell wieder eine gute Balance erreicht hat gegen GCN :)

AMD versucht genau dort (Huddy) den Keil reinzujagen "Sie verlangsamen ihre eigenen User" ;)

Ein guter Entwickler passt sich diesem Umstand an und liefert Lösungen die keinen wirklich benachteiligen wenn möglich, dabei hört er auf keinen dieser schreienden personen sondern verlässt sich auf sein Wissen und Erfahrung und wenn möglich dann beweist er dies auch mit sichtbaren taten ;)

Gameworks ist noch nichts total festes man kann es jederzeit abschalten und auf die Entwickler implementationen zurückgreifen man wird zu nichts gezwungen es ist eine Option die man selbst nach seinen Systemvorausetzungen in Anspruch nehmen kann oder nicht (Mehrwert).

Wenn mehr und mehr Gameworks abschalten werden müssen eben aus diesen Performancegründen und vermehrt bemerken das ein TressFX titel besser läuft dann wird sich das ganze eh von selbst erledigen entweder diese User verdammen Nvidia und werden AMD user oder aber sie akzeptieren die sichtbaren Ergebnisse von TressFX Titeln ;)
Natürlich wird Nvidia erstmal versuchen alles zu optimieren was geht wie bei (Tomb Raider 2013) noch auf Kepler.

Aber man muss einfach Realistisch bezüglich der Hardware sein und Gameworks es sind sachen die Fordern alles ab und im Verbund sind sie teils erdrückend.

Grestorn
2015-08-02, 15:15:51
Alleine schon die Leugnung dieses offensichtlichen Sachverhaltes. Seufz. Ich sehe keine Grund Industrieveteranen wie Demirug nicht zu glauben, nur weil du gerne alles abstreitest.

Der "Deal" den Demirug meint, ist ganz einfach: Programmer-Manpower + KnowHow für das Logo und Marketing.

Ich nenne das nicht "in das Spiel einkaufen". Das wäre, wenn nVidia dafür bezahlen würde, Gameworks + Logo einsetzen zu dürfen. Und das wird immer wieder von allen Beteiligten - auch den Insidern - verneint.

captain_drink
2015-08-02, 15:28:27
Weil ich kürzlich drübergestolpert bin und es ganz gut passt: http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vb4ZbfmwSUk

HDAO (AMD-Tech) in Far Cry 3, das auf NV deutlich langsamer läuft als auf AMD. HBAO (NV-Tech) performt hingegen faktisch identisch zu SSAO (vendor-unspezifisch). Ein alter Schinken, aber Huddy hält ja das vier Jahre alte Crysis 2 ebenfalls für eine gute Grundlage für aktuelle Anschuldigungen. Als "Chief Gaming Scientist" könnte man jetzt natürlich fabulieren, dass AMD mit HDAO sogar seine eigene Performance sabotiert, um NV zu schaden...

fondness
2015-08-02, 15:28:49
Der "Deal" den Demirug meint, ist ganz einfach: Programmer-Manpower + KnowHow für das Logo und Marketing.

Ich nenne das nicht "in das Spiel einkaufen". Das wäre, wenn nVidia dafür bezahlen würde, Gameworks + Logo einsetzen zu dürfen. Und das wird immer wieder von allen Beteiligten - auch den Insidern - verneint.

Er spricht eindeutig von Geld und das nicht nur einmal:

Ich habe doch geschrieben das auch nvidia letzten Endes die Entwickler dafür bezahlt das sie etwas tun was in nvidias Interesse ist.

AMD -> Geld dafür das man ihre API nutzt damit es auf AMD Hardware besser als mit DX läuft .

nvidia -> Geld dafür das man Effekte einbaut die auf nvidia Hardware besser als bei der Konkurrenz laufen.

Was habe ich als Kunde davon? Wenn ich die "richtige" Hardware zum Spiel habe mehr oder weniger das was der IHV erreichen wollte. Bessere Performances bzw mehr Effekte. Habe ich die "falsche" Hardware habe ich von Mantle erst mal gar nichts. Bei Gameworks habe ich zwar die Effekte aber muss sie möglicherweise abschalten weil es zu langsam wird. In beiden Fällen muss ich dann auf das Treiberteam "meines" IHVs hoffen.

Du kannst das gerne noch hunderte male Kleinreden, deshalb wird es auch nicht besser. Und selbst wenn es nur Manpower wäre, ist es letztlich auch nichts anderes als Geld das man sich dadurch erspart.

Grestorn
2015-08-02, 15:34:02
Er spricht eindeutig von Geld und das nicht nur einmal:

Du kannst das gerne noch hunderte male Kleinreden, deshalb wird es auch nicht besser. Und selbst wenn es nur Manpower wäre, ist es letztlich auch nichts anderes als Geld das man sich dadurch erspart.

Was heißt "letzten Endes"? Klar ist Manpower auch eine Art von Bezahlung. Trotzdem ist es nicht sich "ins Spiel einkaufen". Abgesehen davon: Wenn es nV macht ist es natürlich übel, bei AMD ist es absolut ok, stimmt's? Siehe auch Dein Quote von Demirug.

fondness
2015-08-02, 15:35:41
Was heißt "letzten Endes"? Klar ist Manpower auch eine Art von Bezahlung. Trotzdem ist es nicht sich "ins Spiel einkaufen".


Nenne es wie du willst, letztlich ist es nichts anderes.


Abgesehen davon: Wenn es nV macht ist es natürlich übel, bei AMD ist es absolut ok, stimmt's? Siehe auch Dein Quote von Demirug.

Was für ein Blödsinn, das habe ich nirgends behauptet. Ich habe nur wenige Beiträge weiter hinten sogar selbst gesagt, dass AMD das nötige Kleingeld fehlt um sich in Spiele einzukaufen.

Grestorn
2015-08-02, 15:43:07
Was für ein Blödsinn, das habe ich nirgends behauptet. Ich habe nur wenige Beiträge weiter hinten sogar selbst gesagt, dass AMD das nötige Kleingeld fehlt um sich in Spiele einzukaufen.

Ah, klar, das macht es natürlich um so schlimmer, verstehe.

fondness
2015-08-02, 15:45:51
Ah, klar, das macht es natürlich um so schlimmer, verstehe.

War der Beitrag jetzt wirklich noch nötig? Aber war klar, das du es wie immer nicht schaffst ohne Gehässigkeit.

Grestorn
2015-08-02, 15:48:53
Deine Art einseitig gegen nVidia zu agitieren nervt einfach unglaublich. Würdest Du das unterlassen, gäbe es auch keine Gehässigkeit von mir.

fondness
2015-08-02, 15:51:01
Deine Art einseitig gegen nVidia zu agitieren nervt einfach unglaublich. Würdest Du das unterlassen, gäbe es auch keine Gehässigkeit von mir.

Ja ich weiß schon dass du jegliche Kritik an Nvidia grundsätzlich persönlich nehmen musst...warum auch immer.

-/\-CruNcher-/\-
2015-08-02, 15:51:01
Weil ich kürzlich drübergestolpert bin und es ganz gut passt: http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vb4ZbfmwSUk

HDAO (AMD-Tech) in Far Cry 3, das auf NV deutlich langsamer läuft als auf AMD. HBAO (NV-Tech) performt hingegen faktisch identisch zu SSAO (vendor-unspezifisch). Ein alter Schinken, aber Huddy hält ja das vier Jahre alte Crysis 2 ebenfalls für eine gute Grundlage für aktuelle Anschuldigungen. Als "Chief Gaming Scientist" könnte man jetzt natürlich fabulieren, dass AMD mit HDAO sogar seine eigene Performance sabotiert, um NV zu schaden...

Das selbe wirst du bei Bioshock Infinite feststellen auf Kepler als AMD Titel ;)

Darfst aber nicht vergessen HDAO nutzt Direct Compute HBAO nicht HBAO+ ist Compute ;)

RoughNeck
2015-08-02, 16:00:19
Ja ich weiß schon dass du jegliche Kritik an Nvidia grundsätzlich persönlich nehmen musst...warum auch immer.

Das meiste was Huddy da absondert ist Mimimi.
Wir werden da benachteiligt, NVIDIA kauft sich dort ein, das Game hat NVIDIA manipuliert, bla bla bla.
AMD sollte mal vor der eigenen Haustür kehren bevor man dem Wettbewerb Manipulation vorwirft.

Grestorn
2015-08-02, 16:00:48
Ja ich weiß schon dass du jegliche Kritik an Nvidia grundsätzlich persönlich nehmen musst...warum auch immer.

Ich nehme unsachliche Kritik krum. Weil sie mich nervt. Kritik ist oft angebracht, wenn sie sachlich ist. Da gibt es auch genügend bei nVidia zu kritisieren.

Das inzwischen unsägliche Control Panel. Die armselige 3DVision Unterstützung (die Community zeigt, wie es geht). Das Auftreten auf den "Press conferences". Und sicher vieles andere, was mir gerade nicht einfällt.

Was Huddy z.B. treibt ist dagegen schlicht und einfach nur armselig. Und schade, dass so viele darauf anspringen.

Mancko
2015-08-02, 16:02:50
Der "Deal" den Demirug meint, ist ganz einfach: Programmer-Manpower + KnowHow für das Logo und Marketing.

Ich nenne das nicht "in das Spiel einkaufen". Das wäre, wenn nVidia dafür bezahlen würde, Gameworks + Logo einsetzen zu dürfen. Und das wird immer wieder von allen Beteiligten - auch den Insidern - verneint.

Naja gut, ob nun Manpower oder direkt Geld bezahlen. Ich persönlich sehe da keinen Unterschied und ich störe mich auch an keiner von beiden Varianten. Beides ist in irgendeiner Form Bereitstellung von Resourcen. Nvidia kann auch ganz einfach eine Cashback Aktion oder ähnliches machen. Das ist alles im Bereich des legalen und ihr absolutes Recht. Nichts in der Welt der Wirtschaft ist für umsonst. Es muss sich immer irgendwo positiv auswirken und lohnen und für Nvidia lohnt es sich m.E. extrem weiter auf Gameworks zu setzen und noch weiter Einfluss auf die Content Entwicklung zu nehmen und das Ganze lohnt sich m.E. eben nicht nur wegen den eigenen PC Aktivitäten, sondern eben auch wegen den Android Aktivitäten.

Am Ende des Tages muss sich Huddy letztlich die Frage gefallen lassen, was er an Ergebnissen für das eigene Unternehmen (AMD) erzielt. Bisher ist das mehr als dürftig und seine Interviews und Posts in den letzten Monaten sind nichts weiter als "Mimimi". Als Unbeteiligter gibt mir alleine schon zu denken, wie sehr Huddy und Roy Taylor sich genötigt sehen über die Konkurrenz statt die eigenen Produkte zu reden. Dagegen muss ich sagen ist Nvidia eher stumm oder fokussiert sich mehr auf die eigenen Produkte. Auch das ist wiederum ein markantes Zeichen für erfolgreiches und eben ein chronisch erfolgloses Unternehmen. Insbesondere in den Interviews von Huddy sehe ich die Verzweiflung durchscheinen. Das klingt immer mehr nach letztem Aufbäumen. M.E. wird er damit keinen Erfolg haben und insbesondere AMD muss in den nächsten 2 bis 3 Quartalen eine brutale Wende hinlegen, ansonsten kommt das dann m.E. wohl verdiente Ende.

RoughNeck
2015-08-02, 16:09:47
Die armselige 3DVision Unterstützung (die Community zeigt, wie es geht).

Ich weiß es ist OT aber was wird aus 3D Vision?
Kaum ein aktuelleres Game läuft noch gut oder akzeptabel damit.

Troyan
2015-08-02, 16:15:48
Weil ich kürzlich drübergestolpert bin und es ganz gut passt: http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vb4ZbfmwSUk

HDAO (AMD-Tech) in Far Cry 3, das auf NV deutlich langsamer läuft als auf AMD. HBAO (NV-Tech) performt hingegen faktisch identisch zu SSAO (vendor-unspezifisch). Ein alter Schinken, aber Huddy hält ja das vier Jahre alte Crysis 2 ebenfalls für eine gute Grundlage für aktuelle Anschuldigungen. Als "Chief Gaming Scientist" könnte man jetzt natürlich fabulieren, dass AMD mit HDAO sogar seine eigene Performance sabotiert, um NV zu schaden...

Vor Allem hat Crysis 2 mit Gameworks überhaupt nichts am Hut. Dort stammen alle Assets von Crytek. Die Tessellation-Implementierung stammt von Crytek. nVidia hat vielleicht geholfen, aber die IP gehört ihnen nicht.

Aber ist auch bekanntes Vorgehen von AMD: HAWX 2 von Ubisoft und Batman:AO von WB Montreal sind weitere Beispiel, wo AMD den Entwickler öffentlich angreift.

Soviel zu einer Firma, die "offene Standards" propagiert und dann in der Öffentlichkeit genau diese "offenen Standards" als "wettbewerbsverzerrend" betitelt.

Grestorn
2015-08-02, 16:15:51
Ich weiß es ist OT aber was wird aus 3D Vision?
Kaum ein aktuelleres Game läuft noch gut oder akzeptabel damit.

Das meine ich. Die Community beweist, dass der Treiber mit etwas mehr Engagement durchaus einiges rausholen könnte, wenn nVidia nur bereit wäre, Ressourcen zu investieren. Und auch die Tatsache, dass bei nVidia-Supported (fondness würde sagen "nVidia-Sponsored") Games 3DVision so gut wie gar nicht mehr vorkommt, ist ein Zeichen, dass nVidia 3DVision leider inzwischen hat fallen lassen.

Aus einem wirtschaftlichem Standpunkt vielleicht nachvollziehbar, mit 3D lässt sich wohl leider kein Geld mehr generieren. Aber wenn nVidia da einen etwas längeren Atem gehabt hätten und noch mehr Spiele besser hätte platzieren können, wäre es vlt. etwas geworden. Zumal alle 3DVision Spiele ja quasi ootB schon auch prinzipiell VR-fähig wären. Diese Management-Entscheidung, das so schnell wieder aufzugeben, kreide ich nVidia massiv an.

fondness
2015-08-02, 16:18:15
Das meiste was Huddy da absondert ist Mimimi.
Wir werden da benachteiligt, NVIDIA kauft sich dort ein, das Game hat NVIDIA manipuliert, bla bla bla.
AMD sollte mal vor der eigenen Haustür kehren bevor man dem Wettbewerb Manipulation vorwirft.

Es ist das gute Recht von AMD, auf solche Missstände hinzuweisen. Kann ja nicht sein, dass z.B. jedes Feature zwangsweise mit Tesslation ertränkt wird, womit die Leistung völlig absäuft, nur weil AMD noch mehr Leistung verliert. Wem das egal ist und wer ein Monopol will, der soll das eben unterstützen und weiter NV kaufen, aber darauf hinweisen ist ja wohl das mindeste. Das hat auch nichts mit Mimimi zu tun, wenn sich selbst schon einige Entwickler auch hier sehr kritisch geäußert haben braucht man das nicht kleinzureden.

Exxtreme
2015-08-02, 16:19:10
Naja gut, ob nun Manpower oder direkt Geld bezahlen. Ich persönlich sehe da keinen Unterschied und ich störe mich auch an keiner von beiden Varianten.

Also in Deutschland bzw. in der EU kann bei sowas das Kartellamt aktiv werden wenn man bestimmte Marktteilnehmer subventioniert zum Nachteil anderer Marktteilnehmer.

Digidi
2015-08-02, 16:21:42
@Troyan

Crisis ist leider nur das einzige Beispiel das AMD nenne kann weil,es eben nicht unter Vertrag von Gameworks steht wo aber die Hanschrift von Nvidia mit der Übertesselierung klar zu erkennen ist? Eine Fläche Fläche mit 10.000 Triangels darzustellen ist einfach Schwachsinn 20-30 langen da auch!

Und bei der Steilvorlage die die Entwickler liefern ist klar das AMD darauf hinweist. Ich frage mich das die Entwickler nicht mal drüber nachdenken das Ihnen Gameworks eigentlich nur negativepresse gebracht hat.

Troyan
2015-08-02, 16:25:38
Die Assets stammen von Crytek. Tessellation ist eine Spezifikation der API.

Das hat alles nichts mit nVidia zu tun. Außer, dass nVidia einfach bessere Hardware für diesen Teil der API baut.

Kartenlehrling
2015-08-02, 16:25:44
Aber ist auch bekanntes Vorgehen von AMD: HAWX 2 von Ubisoft und Batman:AO von WB Montreal sind weitere Beispiel, wo AMD den Entwickler öffentlich angreift.

Soviel zu einer Firma, die "offene Standards" propagiert und dann in der Öffentlichkeit genau diese "offenen Standards" als "wettbewerbsverzerrend" betitelt.


Bei diesen beiden Spielen geht es ja nichtmal um PhsyX und co. sondern um inflationären einsetzten von Tesslation,
wo es einfach nicht nötig wär, bei HAWX wird Geländer berechnen was man nicht sieht und so fein das es aber keinen Mehrwert fürs Optische hat.
Und bei BM:AO sind die berühmten Schneespuren das gleich.

Digidi
2015-08-02, 16:26:59
@troyan
Und auf welchem Druck glaubst du ist die Tesselation ins Spiel gekommen?
http://www.gameswelt.de/crysis/news/kraeftige-unterstuetzung-fuer-crytek-vom-hardware-hersteller,88164

5.500 Stunden. Das heißt dort Arbeiteten über 1 Jahr 3 Mitarbeiter als Festanstellung. 1 Mitarbeiter kostet gut 200.000 Euro im Jahr!
Also hat Crytek ca. 600.000 Euro dafür bekommen!

fondness
2015-08-02, 16:27:55
Also in Deutschland bzw. in der EU kann bei sowas das Kartellamt aktiv werden wenn man bestimmte Marktteilnehmer subventioniert zum Nachteil anderer Marktteilnehmer.

Es hat schon seinen Grund, warum das alles maximal intransparent abläuft. Kommt natürlich unabhängig davon auch nicht gut, wenn man öffentlich zugeben müsste, das man sich in Spiele einkauft um die Konkurrenz zu benachteiligen.

Elite_Warrior
2015-08-02, 16:28:51
@Digidi: Das sind aber auch so Sachen die ich eher der Spieleschmiede ankreide als Nvidia. Denn die haben dafür zu sorgen dass ihre Spiele einwandfrei laufen! Solange es da kein Knebelverträge oder ähnliches mit Nvidia gibt rechne ich das den Spieleschmieden persönlich an. Ein guter Entwickler müsse auch Alternativen zu den Vendor spezifischen Sachen bieten.

Wenn die EntwicklerPublisher aber auf Gameworks aufspringen nur weil sie gerne kostenlos Resourcen mitnehmen wollen dann wundert mich dieser Bug/Performance-misst am Ende überhaupt nicht.

-/\-CruNcher-/\-
2015-08-02, 16:33:05
Das meine ich. Die Community beweist, dass der Treiber mit etwas mehr Engagement durchaus einiges rausholen könnte, wenn nVidia nur bereit wäre, Ressourcen zu investieren. Und auch die Tatsache, dass bei nVidia-Supported (fondness würde sagen "nVidia-Sponsored") Games 3DVision so gut wie gar nicht mehr vorkommt, ist ein Zeichen, dass nVidia 3DVision leider inzwischen hat fallen lassen.

Aus einem wirtschaftlichem Standpunkt vielleicht nachvollziehbar, mit 3D lässt sich wohl leider kein Geld mehr generieren. Aber wenn nVidia da einen etwas längeren Atem gehabt hätten und noch mehr Spiele besser hätte platzieren können, wäre es vlt. etwas geworden. Zumal alle 3DVision Spiele ja quasi ootB schon auch prinzipiell VR-fähig wären. Diese Management-Entscheidung, das so schnell wieder aufzugeben, kreide ich nVidia massiv an.

Weil 3D Vision im Zuge von VR nicht mehr relevant ist ausser das Entwicklungen die dort gemacht wurden weiter genutzt werden wird dort nicht mehr viel passieren, es währen verschwendete resourcen dort noch zu investieren im Consumer berreich.

Digidi
2015-08-02, 16:33:57
Die Finanzielle Seite von Nvidia ist einfach zu verlockend! Da können Kosten in mehrere Millonenhöhe eingespart werden!

captain_drink
2015-08-02, 16:35:15
Bei diesen beiden Spielen geht es ja nichtmal um PhsyX und co. sondern um inflationären einsetzten von Tesslation,
wo es einfach nicht nötig wär, bei HAWX wird Geländer berechnen was man nicht sieht und so fein das es aber keinen Mehrwert fürs Optische hat.
Und bei BM:AO sind die berühmten Schneespuren das gleich.

Und bei Far Cry 3 und Bioshock Infinite wird das Compute-HDAO verwendet, das auf Kepler deutlich schlechter lief als auf GCN, anstelle von HBAO, das keine solche Einschränkung hat. War es unbedingt nötig, auf Compute zu setzen, um NV schlechter aussehen zu lassen, ohne dass sich die technische Qualität gg. HBAO merklich erhöht?

Es sollte doch jedem auffallen, wie lächerlich diese Aufrechnungen bei jahrealten Spielen sind. AMD hat ebenfalls eine Historie von Titeln, wo man genug eigene Tech unterbringt, die auf der Konkurrenz schlechter läuft. Schizophren wird es, wenn man im Jahr 2015 der Konkurrenz Sachen von vor vier Jahren ankreidet, die man selbst ähnlich betrieben hat.

RoughNeck
2015-08-02, 16:36:11
Es ist das gute Recht von AMD, auf solche Missstände hinzuweisen. Kann ja nicht sein, dass z.B. jedes Feature zwangsweise mit Tesslation ertränkt wird, womit die Leistung völlig absäuft, nur weil AMD noch mehr Leistung verliert. Wem das egal ist und wer ein Monopol will, der soll das eben unterstützen und weiter NV kaufen, aber darauf hinweisen ist ja wohl das mindeste. Das hat auch nichts mit Mimimi zu tun, wenn sich selbst schon einige Entwickler auch hier sehr kritisch geäußert haben braucht man das nicht kleinzureden.

Auf einen Missstand hinweisen oder etwas aufzubauschen sind 2 vollkommen unterschiedliche Dinge.
Wenn sich Entwickler kritisch äußern ist natürlich nicht gut, aber man sollte den Grund genau hinterfragen.
AMD kontert aber nur noch mit irgendwelchen lächerlichen Postings als mit Produkten die der Firma was bringen, ergo Mimimimi

Troyan
2015-08-02, 16:36:40
@troyan
Und auf welchem Druck glaubst du ist die Tesselation ins Spiel gekommen?
http://www.gameswelt.de/crysis/news/kraeftige-unterstuetzung-fuer-crytek-vom-hardware-hersteller,88164

nVidia und AMD bezahlen Entwickler Techniken einzubauen, die deren Hardware besser liegt. In Dirt:Showdown bricht die Leistung mit Advanced Lightning um mehr als 50% auf nVidia Hardware ein. Das stört weder dich, fondness oder Huddy. :freak:

Bei diesen beiden Spielen geht es ja nichtmal um PhsyX und co. sondern um inflationären einsetzten von Tesslation,
wo es einfach nicht nötig wär, bei HAWX wird Geländer berechnen was man nicht sieht und so fein das es aber keinen Mehrwert fürs Optische hat.
Und bei BM:AO sind die berühmten Schneespuren das gleich.

Es wird nichts berechnet, was man nicht sieht. Woher kommen diese falschen Behauptungen? Wireframe? :rolleyes:

Nochmal: Alle diese Assets gehören dem Spieleentwickler. Das hat mit Gameworks nichts zu tun.

Irgendwie sollte man sich hier auch mal entscheiden: Gameworks wäre schlecht, weil der Quellcode nicht offen ist. Spieleentwickler sind doof, weil die ihre eigenen Techniken entwickeln und somit kompletten Zugriff auf den Quellcode haben. ;D

Achja, der Schnee in Batman:AO ist bis heute unerreicht: https://www.youtube.com/watch?v=iMbsXfnOpFc
Schade, dass solch ein technischer Effekt madig geredet wird, weil der eigene Lieblingshersteller Propaganda betreibt.

-/\-CruNcher-/\-
2015-08-02, 16:38:47
Und bei Far Cry 3 und Bioshock Infinite wird das Compute-HDAO verwendet, das auf Kepler deutlich schlechter lief als auf GCN, anstelle von HBAO, das keine solche Einschränkung hat. War es unbedingt nötig, auf Compute zu setzen, um NV schlechter aussehen zu lassen, ohne dass sich die technische Qualität gg. HBAO merklich erhöht?

Es sollte doch jedem auffallen, wie lächerlich diese Aufrechnungen bei jahrealten Spielen sind. AMD hat ebenfalls eine Historie von Titeln, wo man genug eigene Tech unterbringt, die auf der Konkurrenz schlechter läuft. Schizophren wird es, wenn man im Jahr 2015 der Konkurrenz Sachen von vor vier Jahren ankreidet, die man selbst ähnlich betrieben hat.

So ist unser Huddy *liebdrück* Schwarzer Englischer Humor ;)

AMD's Chief Gaming Scientist - and President and CEO of Code Mafia Ltd

Digidi
2015-08-02, 16:41:27
Ist Hdao und Hbao Open Source?

arcanum
2015-08-02, 16:43:22
ich finde die diskussion reichlich überflüssig. ich sehe in sämtlichen aktuellen AAA titeln gameworks als optional an. wenn die performance nicht reicht, hat man immer eine fast gleichwertige alternative zur auswahl und wenn nicht wäre eine gleichwertige implementierung zu aufwendig. da kann AMD ja liefern wenn sie bereit sind resourcen zu investieren.

ich finde es mies den mehraufwand zu kritisieren, den nvidia betreibt anstatt selbst die lücke zu schließen. wenn nvidia gameworks fallen lässt, ist der konsument jedenfalls nicht der gewinner.