PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

y33H@
2014-06-30, 10:32:57
Ausführliches Interview mit Huddy: http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html

4Fighting
2014-06-30, 10:40:16
Nur ist der Unterschied:
Das eine ist rein optional und eine eigene API.
Das andere ist NICHT optional sondern ein Effektwerk für DirectX...

Das ändert immer noch nichts daran, dass wenn der Kunde das bestmögliche sucht, um seine Hardware zu pushen, er von beiden Seiten (vermeintlich) "beschnitten" wird.

Aber nichtsdestotrotz: die Gameworks Effekte können doch auch deaktiviert werden.

Schnoesel
2014-06-30, 10:57:58
Ausführliches Interview mit Huddy: http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html

Danke sehr interessant vor allem das hier: "An diesem Punkt widerspricht Nvidia jedoch im Interview von PC Games Hardware: Es soll demnach auch ein Lizenzmodell geben, das Einblick in den Code erlaubt - Huddy zufolge hat sich AMD schon seit längerem erfolglos bemüht, diese Lizenz zu erwerben"

Wie man das auch noch gutheißen kann dem ist nicht mehr zu helfen. Es führt nur zu eins: Die Hersteller werden sich nach und nach Spiele einkaufen und sich damit noch mehr von der Konkurrenz abschotten. Wenn das mal kein Bumerang wird der auf Nvidia zurückkommt, schließlich hat AMD die Konsolen im Rücken, das heißt es muss einigermaßen vernünftig auf AMDs laufen.

Genauso kann ich AMD nachvollziehen wenn diese keine Daten bezüglich Mantle an Intel/NV herausgeben.

Intel wird doch nach der Beta den Code bekommen, wurde doch von AMD bereits bestätigt und ein SDK soll auch noch diese Jahr kommen.

Loeschzwerg
2014-06-30, 11:29:18
Nur ist der Unterschied:
Das eine ist rein optional und eine eigene API.
Das andere ist NICHT optional sondern ein Effektwerk für DirectX...

Die Effekte sind ebenso Optional, aber darum geht es auch nicht, es geht hier um Lizenzmanagement und das ist völlig legitim, ob das einem nun persönlich schmeckt oder nicht. (Mir passt das ja auch nicht)

Intel wird doch nach der Beta den Code bekommen, wurde doch von AMD bereits bestätigt und ein SDK soll auch noch diese Jahr kommen.

Und dann kann man ja super schnell darauf reagieren und von heute auf morgen einen Treiber rausklatschen bzw. sogar nötigenfalls die HW anpassen ;) Optimal ist das Vorgehen garantiert auch nicht.

kruemelmonster
2014-06-30, 20:16:36
Supi, AMD wird aber never ever! eine Lizenz bekommen, um sich den Code an zu schauen, und damit die Optimierungen für ihre Hardware durchzuführen. So müssen Sie halt mit einer Blackbox optimieren, und bei JEDER! Änderung im Zweifel komplett von vorne anfangen.

Meinst du denn AMD würde bspw ihre Eyefinity IP an NV lizensieren? Oder XDMA zum OpenStandard erklären? Muss Intel jetzt x86 für alle und jedermann freigeben?

Mir ist absolut schleierhaft mit welchem Anrecht AMD von NV die Offenlegung der Betriebsgeheimnisse fordert. Die Wortwahl AMDs, im Grunde bestehend aus "hätte, könnte, möglicherweise und Potenzial", zeigt ja dass offenbar außer Mutmaßungen und Unterstellungen nichts dran ist.

Aber gut, gehen wir dem Gedanken einmal nach: nehmen wir tatsächlich an (mit der Stimme von Harald Lesch: nur mal für Spaß) NV besticht die Publisher um GW in die Spiele reinzudrücken und mit den BlackBox-DLLs die Radeons absichtlich auszubremsen.
Publisher sind auch nur Erbsenzähler, d.h. die Bestechungssumme müsste höher ausfallen als er zu erwartende Umsatzverlust durch verprellte Radeonbesitzer und noch eine Kompensation für den Imageverlust der Spielemarke enthalten.
Bei gewünschten ~5 Mio Verkäufen pro Titel und 30% Radeonanteil auf Steam würde das Jahr für Jahr ne schöne Summe ausmachen die NV dann für "Extraaufwendungen" ausgeben müsste...und das ist dann noch niemandem aufgefallen, weder interessierten Journalisten noch den amerikanischen oder europäischen Steuer/Finanz/Wettbewerbsbehörden? Und selbst wenn es denen nicht aufgefallen ist, warum gibt AMD dann nicht einen Hinweis bzw erhebt Klage?

Vllt ist es auch einfach so: AMD war stinkig weil sie ihre GPUs auf Intel-CPUs vorstellen müssen da ihre eigenen viel zuwenig IPC haben. Die eigenen CPUs massiv beschleunigen geht kurz- bis mittelfristig nicht, also muss mit dem gearbeitet werden was da ist: die Breite der CPU. D3D skaliert aber schlecht mit vielen Kernen, also stampft man für/mit DICE Mantle aus dem Boden, der Marketingeffekt ist beachtlich, die eigenen CPUs wieder konkurrenzfähig und die GPUs gewinnen auch.
Nun lässt sich NV ungern die Butter vom Brot nehmen, holt aus dem D3D-Treiber noch ne ganze Menge raus wodurch einmal AMDs D3D Treiber schlecht aussehen, und zusätzlich durch die DX12 Ankündigung Mantle nicht mehr ganz so wichtig wirkt wie das Marketing einem vorher Glauben machen wollte.
Nun ist AMD wieder stinkig, und da "was machen" auch was kostet (Geld & Personal, was grad ungünstig ist da man gerade mit DX12 & Mantle & neuen OpenGL-Treiber für Linux alle Hände voll zu tun hat) während Jammern gratis ist wählt AMD zweite Option, streut fleißig FUD und beschwert sich dass NV als der direkte Konkurrent nicht seine Blaupausen rüberfaxt. :freak:

N0Thing
2014-06-30, 20:30:35
Bei gewünschten ~5 Mio Verkäufen pro Titel und 30% Radeonanteil auf Steam würde das Jahr für Jahr ne schöne Summe ausmachen die NV dann für "Extraaufwendungen" ausgeben müsste...und das ist dann noch niemandem aufgefallen, weder interessierten Journalisten noch den amerikanischen oder europäischen Steuer/Finanz/Wettbewerbsbehörden? Und selbst wenn es denen nicht aufgefallen ist, warum gibt AMD dann nicht einen Hinweis bzw erhebt Klage?

Es ist reichlich utopisch anzunehmen, daß alle potentiellen Spielekäufer mit AMD-Grafik überhaupt wüßten, daß etwas manipuliert wurde. Am Ende würde es für sie einfach so aussehen, als ob die Spiele dank besserer Treiberentwicklung auf Nvidia besser laufen würden. Also wird die nächste Karte ein Nvidia. Das ist es, was AMD befürchtet und was durch die angebliche Geschäftspraxis Nvidia möglich erscheint.
Illegal wäre das seitens Nvidia ja auch nicht, also kein Grund für eine Behörde einzuschreiten.

Da AMD nichts beweisen kann (kein Zugriff auf den Quellcode und die Entwickler dürfen auch nichts rausgeben), können sie nur das weitergeben was ihnen gesagt wurde und es wohl aus rechtlichen Gründen nur im Konjunktiv formulieren.

Ob sich AMD mit der Jammertaktik einen Gefallen tut, wage ich zu bezweifeln. Sie müßten wohl eher entsprechende Effekte selber entwickeln und dann kostenlos und offen anbieten, Nur damit zahlen sie einfach drauf und haben abgesehen vom Imagegewinn bei einigen Insidern wohl wenig gewonnen.

Knuddelbearli
2014-06-30, 20:32:52
was fpr ein spiel ( nichtmal bei Assasins Creed wüsste ich das und da hat NV einfach mal so Dx10.1 rückwirkend nach erscheinen gelöscht ) hatte eine Bevorteilung eines Herstellern eine entscheidende Auswirkung?

Vor allem NV hat die Marktmacht mit 2/3 da kann man davon ausgehen das mehr Leute es deshalb kaufen weill es mit nv besser geht als AMD Leute darauf verzichten.

Und genau deshalb muss man da immer sehr aufpassen sonst geht es wie mit AMD und Intel. nächstesmal kaufen dann die enttäuschten AMD Besitzer auch NV NV bekommt noch mehr Marktmacht usw. AMD muss seine F+E kosten immer mit geringeren Stückzahlen bezahlen und bekommt bei TSMC immer weniger Rabatt gegenüber NV usw.

Einfach gesagt solche Aktionen sind einfach Mist und schädigen am Ende allen.

fondness
2014-06-30, 21:59:11
Ausführliches Interview mit Huddy: http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html

Wenn auch der Spieleentwickler angeblich Einblick bekommt dann ist der einzige Sinn hinten den DLLs ganz offensichtlich das AMD nicht optimieren kann. Und dafür zahlt NV auch gerne eine "ausreichende" Summe an das Management wie schon ziemlich deutlich von Witcher 3 Lead Designer bestätigt.

Meinst du denn AMD würde bspw ihre Eyefinity IP an NV lizensieren? Oder XDMA zum OpenStandard erklären? Muss Intel jetzt x86 für alle und jedermann freigeben?


AMD gibt den Code auch frei, MS auch, Qualcomm auch, etc. Alle tun es, selbst NV tat es bis zu Gameworks. Aber man kann sich natürlich auch dumm stellen.

kruemelmonster
2014-06-30, 22:20:54
AMD gibt den Code auch frei, MS auch, Qualcomm auch, etc. Alle tun es, selbst NV tat es bis zu Gameworks. Aber man kann sich natürlich auch dumm stellen.

Mittlerweile ist GameWorks auch zugänglich, das Argument also hinfällig.

Aber ich frage gern nochmal welches Recht AMD zu haben meint um eine GW Sourcecodelizenz verlangen zu können.

Solange AMD nicht mehr in der Hand hat als "es besteht Missbrauchspotenzial" haben sie imho auch kein Recht auf Einsicht, und NV auch keine Verpflichtung dem Konkurrenten irgendwas zugänglich zu machen.

/e:

Es ist reichlich utopisch anzunehmen, daß alle potentiellen Spielekäufer mit AMD-Grafik überhaupt wüßten, daß etwas manipuliert wurde.

Diese Annahme hab ich nie getroffen, bitte mir nichts in den Mund legen.

fondness
2014-06-30, 22:23:22
Was verstehst du unter zugänglich? LOL.

Du wärst vermutlich der erste der sich aufregen würde wenn AMD genau so verkehren würde, dann bräuchte man nämlich bald wirklich 2 Karten um jedes Spiel vernünftig spielen zu können.

kruemelmonster
2014-06-30, 23:00:11
Was verstehst du unter zugänglich? LOL.

Man kann eine Sourcecodelizenz beantragen, und der Lizenzinhaber entscheidet dann ob man Zugang erhält. Für Partner wird die Wahrscheinlichkeit des Zugangs wohl eher hoch, für Konkurrenten wohl eher niedrig sein.
Was ist daran LOL?


Du wärst vermutlich der erste der sich aufregen würde wenn AMD genau so verkehren würde, dann bräuchte man nämlich bald wirklich 2 Karten um jedes Spiel vernünftig spielen zu können.

AMD nimmt doch seit einiger Zeit schon Einfluß auf Spielecode, siehe Bioshock Infinite oder Dirt Showdown. Und dort muss ich dann halt auch die tolle erweiterte Beleuchtung deaktivieren weil sie auf der GeForce abartig viel fps frisst, siehe Spoiler.
Dagegen läuft NVs HBAO+ auch auf Radeons vergleichbar schnell...

i7 2600k @ 4,4 ghz, gtx 670 @ konstant 1189/3506 (temp. limit), win8.1 fw340.43

1920x1200 4xmsaa ingame erweitert auf 4xsgssaa, ingame alles auf max

min avg

54,96 68,22
54,95 68,46

+adv lighting

38,12 50,38
37,98 50,58

+gi

25,85 36,43
27,10 35,79

Knuddelbearli
2014-06-30, 23:25:09
und wo ist im spoiler der Beweis das es es nur auf NV soviel Leistung kostet?
Nicht das ich es anzweifeln will oder so aber wenn du schon daten lieferst dann bitte auch komplette die mit deiner Behauptung übereinstimmen

kruemelmonster
2014-06-30, 23:29:59
Da Dirt Showndown Teil unseres aktuellen Grafikkarten-Parcours ist (siehe Test der Geforce GTX 660 Ti), haben wir uns die erweiterte Beleuchtung, bestehend aus Forward Plus sowie Global Illumination, anhand der Geforce GTX 680 und der Radeon HD 7970 näher angeschaut. Abseits unseres üblichen Testsystems nutzen wir eine Auflösung von 2.560 x 1.600 Pixeln, ohne die erweiterte Beleuchtung sind beide Grafikkarten praktisch gleichflott unterwegs. Die Aktivierung von Forward Plus jedoch kostet auf der Radeon nur 10 Prozent Fps, im Falle der Geforce sind es gleich 30 Prozent. Das weitere Zuschalten der Option Globale Beleuchtung (Global Illumination) bewirkt auf beiden einen jeweils ähnlichen, prozentualen Verlust - ausgehend von aktivem "Forward+". Der Leistungsunterschied bei maximalen Details lässt sich also hauptsächlich auf das Forward+-Renderverfahren zurückführen, für dessen Entwicklung AMD verantwortlich zeichnet.

Quelle (http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/) inkl. Benchmarks.

...und so kann (nicht muss, das hab ich nicht gesagt!) es aussehen wenn sich NV den Quellcode vor Release nochmal anguckt:
http://abload.de/thumb/twimtbpqquhr.jpg (http://abload.de/image.php?img=twimtbpqquhr.jpg)

N0Thing
2014-07-01, 01:32:07
Diese Annahme hab ich nie getroffen, bitte mir nichts in den Mund legen.

Ich bezog mich, wie zitiert, auf diese Aussage:


Bei gewünschten ~5 Mio Verkäufen pro Titel und 30% Radeonanteil auf Steam würde das Jahr für Jahr ne schöne Summe ausmachen die NV dann für "Extraaufwendungen" ausgeben müsste..

Falls ich dich missverstanden haben sollte: Was wolltest du mit diesem Beispiel ausdrücken, wenn nicht geringere Absatzzahlen, die NV mit Extraauswendungen ausgleichen müßte?



Man kann eine Sourcecodelizenz beantragen, und der Lizenzinhaber entscheidet dann ob man Zugang erhält. Für Partner wird die Wahrscheinlichkeit des Zugangs wohl eher hoch, für Konkurrenten wohl eher niedrig sein.
Was ist daran LOL?

Daß die Wahrscheinlichkeit für AMD gegen null tendiert? Und somit der Wert der Aussage, der Sourcecode würde jedem offen stehen ebenfalls gegen null tendiert?

Dieses Verhalten ist meiner Meinung nach absolut verständlich. Den Eindruck zu erwecken, es sei anders aber lächerlich.

CountDoku
2014-07-01, 01:49:30
Meinst du denn AMD würde bspw ihre Eyefinity IP an NV lizensieren? Oder XDMA zum OpenStandard erklären? Muss Intel jetzt x86 für alle und jedermann freigeben?

Mir ist absolut schleierhaft mit welchem Anrecht AMD von NV die Offenlegung der Betriebsgeheimnisse fordert. Die Wortwahl AMDs, im Grunde bestehend aus "hätte, könnte, möglicherweise und Potenzial", zeigt ja dass offenbar außer Mutmaßungen und Unterstellungen nichts dran ist.

Aber gut, gehen wir dem Gedanken einmal nach: nehmen wir tatsächlich an (mit der Stimme von Harald Lesch: nur mal für Spaß) NV besticht die Publisher um GW in die Spiele reinzudrücken und mit den BlackBox-DLLs die Radeons absichtlich auszubremsen.
Publisher sind auch nur Erbsenzähler, d.h. die Bestechungssumme müsste höher ausfallen als er zu erwartende Umsatzverlust durch verprellte Radeonbesitzer und noch eine Kompensation für den Imageverlust der Spielemarke enthalten.
Bei gewünschten ~5 Mio Verkäufen pro Titel und 30% Radeonanteil auf Steam würde das Jahr für Jahr ne schöne Summe ausmachen die NV dann für "Extraaufwendungen" ausgeben müsste...und das ist dann noch niemandem aufgefallen, weder interessierten Journalisten noch den amerikanischen oder europäischen Steuer/Finanz/Wettbewerbsbehörden? Und selbst wenn es denen nicht aufgefallen ist, warum gibt AMD dann nicht einen Hinweis bzw erhebt Klage?

Vllt ist es auch einfach so: AMD war stinkig weil sie ihre GPUs auf Intel-CPUs vorstellen müssen da ihre eigenen viel zuwenig IPC haben. Die eigenen CPUs massiv beschleunigen geht kurz- bis mittelfristig nicht, also muss mit dem gearbeitet werden was da ist: die Breite der CPU. D3D skaliert aber schlecht mit vielen Kernen, also stampft man für/mit DICE Mantle aus dem Boden, der Marketingeffekt ist beachtlich, die eigenen CPUs wieder konkurrenzfähig und die GPUs gewinnen auch.
Nun lässt sich NV ungern die Butter vom Brot nehmen, holt aus dem D3D-Treiber noch ne ganze Menge raus wodurch einmal AMDs D3D Treiber schlecht aussehen, und zusätzlich durch die DX12 Ankündigung Mantle nicht mehr ganz so wichtig wirkt wie das Marketing einem vorher Glauben machen wollte.
Nun ist AMD wieder stinkig, und da "was machen" auch was kostet (Geld & Personal, was grad ungünstig ist da man gerade mit DX12 & Mantle & neuen OpenGL-Treiber für Linux alle Hände voll zu tun hat) während Jammern gratis ist wählt AMD zweite Option, streut fleißig FUD und beschwert sich dass NV als der direkte Konkurrent nicht seine Blaupausen rüberfaxt. :freak:

Klingt schlüssig. AMD fehlen Ressourcen und hat zuviele Baustellen offen. Jetzt wird ein Nebenkriegsschauplatz eröffnet um vom eigenen Versagen abzulenken.:smile:

Maxwell (der mittlere) steht auch schon vor der Tür und bei AMD hört man garnichts konkretes. Der Arsch geht denen auf Grundeis!

Das Schlimme ist das immer was hängen bleibt obwohl es absoluter FUD ist was AMD da im Selbsterhaltungstrieb in die Welt setzt!

kruemelmonster
2014-07-01, 11:53:39
Falls ich dich missverstanden haben sollte: Was wolltest du mit diesem Beispiel ausdrücken, wenn nicht geringere Absatzzahlen, die NV mit Extraauswendungen ausgleichen müßte?

Du hast glaub ich mehr verstanden als ich gesagt hab. ;)
Das Beispiel steht im Kontext der unbewiesenen Theorie dass Geld von NV in Richtung Publisher fließen würde um AMD absichtlich einen reinzuwürgen. Natürlich würden nicht alle Radeon Besitzer davon erfahren und Konsequenzen ziehen, das wäre in der Tat utopisch und das hab ich auch nie gesagt. Ich selber hab mir auch AMD-Spiele wie Dirt Showdown und Bioshock Infinite geholt obwohl AMD die Finger deutlich im Teig hatte, so what.
Die gewünschten Sales wie auch der Marktanteil sind die einzig bekannten Werte und sollten nur zur Einschätzung der Größenordnung dienen, nicht zum direkten Verrechnen.


Daß die Wahrscheinlichkeit für AMD gegen null tendiert? Und somit der Wert der Aussage, der Sourcecode würde jedem offen stehen ebenfalls gegen null tendiert?

Natürlich geht die Wahrscheinlichkeit für AMD ganz hart gegen Null, als ob das jemals zur Diskussion stand. Nichtsdestotrotz können Entwicklungsstudios den Sourcecode bekommen.

StefanV
2014-07-01, 12:05:51
Nichtsdestotrotz können Entwicklungsstudios den Sourcecode bekommen.
Ist denn schon bekannt, ob das jemals passiert ist? Oder ob die Studios den Code auch ändern können?
Und was ist mit der Einsicht??

Es ist ja auch nicht auszuschließen, dass das ganze dann zu Konditionen geschiet, die völlig realitätsfremd sind, oder?!

Blediator16
2014-07-01, 13:37:00
Setzt Grid Autosport auch auf Gameworks?

aufkrawall
2014-07-01, 14:25:00
Das setzt auf Forward+ von AMD.

Loeschzwerg
2014-07-01, 14:25:10
Setzt Grid Autosport auch auf Gameworks?

Nope. Grid 2 war ja Gaming Evolved. Grid Autosport ist dies zwar nicht mehr, die Engine ist aber meines Wissens nach identisch.

Die EGO Engine unterstützt auch Forward+, das lag doch damals besonders den AMD Karten.

Edit: Mr. Krawall ein paar Sekunden schneller ^^

fondness
2014-07-01, 16:34:56
Das setzt auf Forward+ von AMD.

Auf das NV dank öffentlichen Sourcecode^^ inzwischen sehr gut optimieren konnte. Das lief nämlich auch lange auf NV alles andere als gut, vermutlich wird sogar der gesamte Code ausgetauscht.

Nichtsdestotrotz können Entwicklungsstudios den Sourcecode bekommen.

NV sagt viel wenn der Tag lange ist, da wurde schon mehrmals ganz offensichtlich gelogen.

aufkrawall
2014-07-01, 16:41:02
Auf das NV dank öffentlichen Sourcecode^^ inzwischen sehr gut optimieren konnte. Das lief nämlich auch lange auf NV alles andere als gut, vermutlich wird sogar der gesamte Code ausgetauscht.

Den SC hatten sie offenbar auch nicht vorher und Dirt:SD läuft immer noch komisch langsamer als Grid 2 oder Autosport.

fondness
2014-07-01, 16:41:48
Den SC hatten sie offenbar auch nicht vorher und Dirt:SD läuft immer noch komisch langsamer als Grid 2 oder Autosport.

Der Sourcecode steht seit einer halben Ewigkeit auf der AMD Seite online und selbst wenn sie ihn nicht vorher hatten so hatten sie ihn immerhin nachher zum optimieren.

aufkrawall
2014-07-01, 16:50:51
Dirt: SD ist von Mai 2012, den F+ SC gibts seit Januar 2013 auf der AMD-Seite. Dürfte in etwa der Zeitpunkt sein, wo es reingepatcht wurde.
Es gibt also keine Indizien, dass NV den Code vorher gehabt hat.

Mal abgesehen davon, dass sich kein Spielhersteller auf so eine fundamentale Rendertechnik als Blackbox einlassen würde. Wenn AMD wollte, dass die Technik genutzt wird, hatten sie da wahrscheinlich gar keine Wahl, es nicht OS zu machen.

Wie Demirug im Interview bei PCGH anklingen lässt, kann das bei einzelnen Features wie Haarsimulation anders sein.

Und trotzdem läuft das F+ von späteren Spielen mit der Engine besser als das, wo AMD noch Sponsor war (und wahrscheinlich der Code kaum auf Nicht-GCN optimiert war).

So wie AMD eine Packung bei Autosport bekommt, erscheint es aus betriebswirtschaftlicher Sicht auch nicht mehr klug mit dem OS.

fondness
2014-07-01, 17:00:42
Wie Demirug im Interview bei PCGH anklingen lässt, kann das bei einzelnen Features wie Haarsimulation anders sein.


Wie der Witcher 3 Lead Designer im Interview bei PCGH anklingen lässt gibt es da auch noch andere Gründe.

So wie AMD eine Packung bei Autosport bekommt, erscheint es aus betriebswirtschaftlicher Sicht auch nicht mehr klug mit dem OS.

Solange es jeder so macht ist es gerecht und alle profitiert, vorallem der Kunde. Deshalb liefen die meisten Spiele auch auf beiden Herstellern zumindest nach Treiberoptimiereungen gut bis sehr gut. Wie schon hinten erwähnt hätten wir ohne den MLAA Sourcecode von AMD heute bsw. kein SMAA in der Form. Da NV das ganze jetzt einseitig beendet wird man sich was überlegen müssen, gerade da ein Großteil der Kunden offenbar auch nicht in der Lage ist das zu begreifen oder auch noch toll findet.

-/\-CruNcher-/\-
2014-07-02, 06:35:04
So wird es zumindest von AMD & Dice dargestellt.

Spätestestens als ich glaube es war sogar Huddy Damals angefangen hat auf der DICE von wir müssen zurück zu Low Level und weg von APIs zu sprechen wusste jeder was los ist, gab ja nicht umsonst ein große diskussion ;)

Aus dem nichts kommt das alles nicht für wirklich niemanden.

Und wie gesagt wir brauchen diese balance AMD darf unter keinen umständen beides dominieren PC und Konsole zumal es so aussieht als könnten die nächsten Konsolen wieder zu Nvidia kippen sie haben ja ihre Nachteile seit damals gut aufgeholt (spätestens mit dem nächsten Performance Maxwell sollte das sichtbar werden) und Pascal ist ja so gesehen eine sehr Effiziente und Atraktive Platform auch für die Next Next Gen Konsolen :)


Bei Ubisoft fällt mir etwas extrem auf ihr eigenes AA scheint durchweg sehr viele problem zu haben vor allem was Thin Geometry Ergebnisse angeht, könnte mir vorstellen das TXAA hier linderung schaft aber 100% Sicher bin ich mir da nicht wenn ich die Render outputs sehe.

Siehe AC4 und Watch_Dogs

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10263772&postcount=2686

Skysnake
2014-07-02, 07:30:39
Was hat sich denn bei nVidia geändert?

Die haben noch immer keinen auch nur ansatzweise interessanten SOC im Angebot, und da sich Project Denver wohl offenkunding erledigt hat, besteht auch kein Grund mehr zu der Annahme, dass sich das noch mal in naher Zukunft ändern wird.

Mancko
2014-07-02, 10:04:32
NV sagt viel wenn der Tag lange ist, da wurde schon mehrmals ganz offensichtlich gelogen.

AMD auch! Da gibts keinen Unterschied. Ich sage nur Anisotrope Filterung, Halbwahrheiten wie Mantle = Open Source und die ganzen Lügeninterviews vom Huddy.


Was hat sich denn bei nVidia geändert?

Die haben noch immer keinen auch nur ansatzweise interessanten SOC im Angebot, und da sich Project Denver wohl offenkunding erledigt hat, besteht auch kein Grund mehr zu der Annahme, dass sich das noch mal in naher Zukunft ändern wird.


Die kommende Konsolengeneration - bis dahin dauerts ja noch eine ganze Weile - ist völlig offen. Da beginnt das Spiel ganz von Neuen. Es ist nicht gesagt, dass die Hersteller zwingend einen SoC einsetzen wollen. Zudem lizensiert Nvidia auch Grafik-IP. Es ist also denkbar, dass bei einer kommenden x86 Konsole eine Intel/Nvidia Kombination zum Einsatz kommt. Auch andere Varianten basiert auf Linux oder der ARM Architektur sind denkbar. Es kann auch wieder eine normale x86 CPU + GPU Kombination zum Einsatz kommen.

Aktuell denke ich fährt zumindest Microsoft nicht so besonders gut mit ihrer Konsole. Daneben streben andere hoch die mit mitschen wollen. Ich glaube sowieso nicht, dass es bei dem Zweiergespann (M$ und Sony + Nintendo) bleiben wird. Die nächste Generation wird sehr viel mehr Anbieter zu Tage bringen. Insofern hat aus meiner Sicht Nvidia dort wieder die gleichen Chancen wie davor auch. Ich würde gerade in diesem Umfeld nichts für gesetzt annehmen. Das ist das gleiche wie mit Apple. Wer bei Apple als Lieferant an Board ist, ist im Grunde das genau für dieses eine Produkt. Danach wird wieder neu ausgesucht.

Um zum Thema zurückzukommen. Wir können das hier abkürzen. Es ist Nvidia's gutes Recht ein Gegengewicht zu Mantle und AMD's aktueller Vertretung in Konsolen zu bilden und als Kunde begrüße ich das ausdrücklich und es ist mir auch egal wie sie es machen. Hauptsache Mantle setzt sich nicht durch und Punkt. Das sich Gameworks komplett durchsetzt, ist denke ich mehr als Unwahrscheinlich. Insofern ist dieses Gegengewicht mir persönlich sehr willkommen und irgendwann ist dann M$ aus dem Mußtopf gekommen und das Thema hat sich wieder erledigt. Außerdem schadet Konkurrenz nicht. Es gibt immer wieder Spiele wo sich ein IHV einkauft und ein eigenes Süppchen kocht. Das ist auch Teil des Wettbewerbs. Sonst wärs ja langweilig. Flächendeckend Probleme macht das aber nicht.

StefanV
2014-07-02, 10:55:49
Es ist nicht gesagt, dass die Hersteller zwingend einen SoC einsetzen wollen.
Doch, ist es, weil wesentlich billiger als 2 Diskrete Chips.

Und, wenn du dich an die XBox erinnerst, dort war nVidia (und Intel) Hardware drin. Und mit dem Haufen ist M$ auch nciht wirklich gut gefahren...


Die Wahrscheinlichkeit, dass in den nächsten Konsolen wieder AMD Hardware drin ist, ist sehr groß. Eben weil AMD das ganze nach Vorgaben der Konsolen Hersteller erledigen kann und wird...

occ-kh@Mirko
2014-07-02, 16:23:54
Klingt schlüssig....
Nee, der letzte Teil leider nicht. Eine CPU Entwicklung beginnt schon sehr früh und weit vor Erscheinen lieferbarer Margen. Dann hätte man schon früh wissen müssen das es mit der FX Reihe nicht klappt. Dann würde aber niemand ein neues Cpu-Design auflegen, auch nicht AMD selbst wenn es keine Alternativen gäbe.

Das sich niemand der Mehrkernperformance der FX Reihe bedient ist zuweilen traurig, denn in Crysis 3 konnte der 8350 beweisen dass er in bestimmten Benchmarkszenen gut mithalten kann.

Auch wenn ich die Beiträge von @kruemelmonster sonst sehr gut geschrieben finde, liegt er hier falsch. Das die FX Serie zuweilen so lahm ist liegt an der Übermacht von Intel und nicht an dem Design und an M$ Versagen an DX mal richtig Hand anzulegen.

Die Architektur mag ihre Eigenheiten und Schwächen haben aber sie wird auch ausgegrenzt, und darum geht es hier im Kern, um nix anderes.

Im Rückschluss muss man mal die Frage stellen, warum wollen die mich zwingen Intel und Nvidia zu kaufen. Warum?

AMD haben sogesehen auch noch die Preise entsprechend gesenkt und angepasst, wer tut das noch? Das passt den anderen nicht, wenn unter diesem Preisdruck die Gewinne schwinden.

Sogesehen haben die anderen Mitschuld das Mantle existiert...man kann daher die Hardware nur schlechter aussehen lassen als sie ist, zu einem begründet man damit seinen Preisansatz, zum anderen gewinnt man Zeit.

Bestes Bsp. die R9 295x2...

ShadowXX
2014-07-02, 16:32:00
Sogesehen haben die anderen Mitschuld das Mantle existiert...
Genau:freak:
Intel und nVidia sind schuld das AMD Hardware nicht richtig von den Devs ausgenutzt wird:eek:
Die geben unsummen an Schwarzgeldern an die Devs um AMD-Hardware mal so richtig schlecht aussehen zu lassen.....:rolleyes:

occ-kh@Mirko
2014-07-02, 17:02:25
Nun das hast du geschlussfolgert und geschrieben. Mit einem PhysX Mod und Zusatzkarte ist AMD zuweilen schneller als Nvidia....in PhysX basierenden Spielen, da haben sich schon viele gefragt, was wäre wenn?

Obs bei Intel eher an Subventionen für den eigenen Architekturansatz liegt oder an Devs, sei dir freigestellt. Stammt trotzdem nur von Dir...

Mancko
2014-07-02, 18:41:45
Doch, ist es, weil wesentlich billiger als 2 Diskrete Chips.


Auch das ist eine Mär. Ich kann auch zwei günstige Chips bauen (CPU und GPU) die dann am Ende trotzdem mehr Leistung zu Tage bringen als die APU. AMDs Problem werden zunehmend ohnehin die thermalen Eigenschaften von den Dingern werden. Außerdem kann auch Intel eine CPU bauen und eine GPU lizensiert von Nvidia integrieren oder aber Intel und Nvidia kaufen sich einfach ein mit günstigen Preisen und anderen Goodies.

Es gibt so viele Parameter an denen man schrauben kann. Ich würde nicht davon ausgehen, dass AMD automatisch mehr Chancen hat als die anderen. Sie sind aktuell in der Konsolengeneration vertreten. Mit der nächsten werden die Karten neu gemischt.


Und, wenn du dich an die XBox erinnerst, dort war nVidia (und Intel) Hardware drin. Und mit dem Haufen ist M$ auch nciht wirklich gut gefahren...


Das ist gar nicht vergleichbar. Ersten war es M$ erste Konsole und damit der Markteintritt in das Segment - heute ist die Position eine andere. Und zweitens hat Nvidia damals einfach sehr gut verhandelt, was die Sache für M$ über die Dauer teuer gemacht hat. So ein Lizenzmodell wie es Nvidia damals hatte bekommt keiner mehr auch nicht Nvidia. Insofern werden die Karten beim nächsten mal wieder neu gemischt.


Die Wahrscheinlichkeit, dass in den nächsten Konsolen wieder AMD Hardware drin ist, ist sehr groß. Eben weil AMD das ganze nach Vorgaben der Konsolen Hersteller erledigen kann und wird...

Das können andere genauso gut und zudem wird es auch bei der nächsten Generation sehr viel mehr Varianten und Konsolen geben. Es wird nicht bei den 3en bleiben. Das Segment wird zunehmend segmentiert werden und das ist doch eine hervorragende Nachricht für alle :)

Unicous
2014-07-02, 21:52:28
Ich kann auch zwei günstige Chips bauen (CPU und GPU) die dann am Ende trotzdem mehr Leistung zu Tage bringen als die APU.

Du und welche Ar... welcher Fertiger?
:rolleyes:


Immer diese hochtrabenden Behauptungen die auf nichts als der eigenen Meinung fußen.

Falls du es noch nicht gehört hast: Sowohl IBM (Cell) als auch Intel waren im Gespräch für den CPU-Part. Und Nvidia für den GPU-Part.

IBM is nicht ausm Knick gekommen, daher hat man das schnell fallen gelassen und Intel und Nvidia waren einfach viel zu teuer. Deine Mär von zwei separaten Chips die mehr leisten und genausoviel kosten möchte ich von daher mal mit harten Fakten bewiesen haben.

Integration bedeutet auch (so gut wie) immer weniger Kosten und weniger Leistungsaufnahme. Hinzu kommt bei mehreren Chips höhere Komplexität auf dem Board, weil das alles wieder mit einander verschaltet werden muss.

Es wird bei Konsolen keine Zwei-Chip Lösung mehr geben. Das sage ich dir jetzt so knallhart. Entweder Nvidia haut was raus mit fetten ARM-Kernen und dazu ne Geforce 3550Ti, oder Intel haut ne dicken Chip raus. Aber dann gibt es immer noch AMD, die jahrelange Erfahrung damit haben und dazu das Ganze auch noch für'n Appel und 'n Ei anbieten.

Und weder Intel noch Nvidia haben Bock sich die gross margin zu versauen.

Ich könnte mir eher vorstellen, dass dann ImgTec o.ä. in die Bresche schlagen, als dass sich Nvidia nochmal bequemt, oder Intel mal vom hohen Margenthron heruntersteigt.:freak:


Was war eigentlich noch einmal das Thema?

robbitop
2014-07-03, 09:33:21
Für den Preis und die Leistung pro Leistungsaufnahme ist der AMD SoC der PS4 absolut unschlagbar gewesen.

Die Empfindungen haben sich einfach nur in den letzten 10 Jahren verschoben. Zur X360 Zeit war eine GPU mit 250-300 sqmm und 100 W absolutes High End. Heute sind es 250 W und 550 sqmm. Das geht in einem Konsolen Formfaktor halt nicht. Wenn man die PS4 aber an dem misst, wie man die X360 gemessen hat. Ist die HW gar nicht so schlecht.

Auch wenn man sie am Preis misst. Für 300 € gibt's HW mit der aktuelle Spiele unter FullHD flüssig laufen. Das wird bei einem PC schwer.

Kriton
2014-07-03, 23:47:19
Und wie gesagt wir brauchen diese balance AMD darf unter keinen umständen beides dominieren PC und Konsole

Lassen wir doch erst einmal die Dominanz von Nvidia mit im PC-Bereich brechen, dann können wir uns darüber unterhalten wie wir mit einer theoretischen, künftigen von AMD umgehen:

http://store.steampowered.com/hwsurvey/

http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-ersten-quartal-2014

Kriton
2014-07-04, 00:00:03
Halbwahrheiten wie Mantle = Open Source und die ganzen Lügeninterviews vom Huddy.

Komisch, ich finde nichts zu mantle = open source. Nur Mantle API und open source.

Huddy said that Mantle is an open-source API.
http://www.pcworld.com/article/2364760/amd-wants-to-improve-gaming-in-linux-and-steam-boxes-with-its-mantle-tools.html

In meinem (zugegebenermaßen laienhaften) Verständnis ist das ein bedeutender Unterschied.
Und ja, mir ist auch klar, dass auch die API noch nicht veröffentlicht ist. Ändert aber nichts daran, dass ich keinen Beleg für Deine Aussage finden kann (wäre ja auch zu schön bei Behauptungen wie "Lüge" mal selbst den Beweis zu führen :rolleyes:).


Hauptsache Mantle setzt sich nicht durch und Punkt.

Ja, das böse Mantle. Schrecklich diese zusätzlichen, völlig optionalen Möglichkeiten.

Komisch, dass Du nicht auch gegen PhysX wetterst, aber das stammt ja auch nicht von AMD.

Generell muss ich mal sagen, dass ich es erschreckend finde wie immer Mantle mit GW verglichen wird. Die unterschiedlichen konzeptionellen Ansätze und jeweiligen Auswirkungen unterscheiden sich doch deutlich, da Mantle keine unmittelbaren Auswirkungen auf die Berechnung auf Nvidia-Karten hat - im Gegensatz zu GW (womit ich nicht sage, dass dies von Nvidia ausgenutzt wird, mir geht es insoweit nur um die mangelnde Vergleichbarkeit beider Ansätze).

PhysX scheint mir ein besserer Kandidat um es seiner Art nach mit Mantle zu vergleichen.

GameWorks läuft eben sowohl auf AMD als auch auf Nvidia, macht es AMD aber schwer bis unmöglich, die eigene Performance in Ordnung zu bringen, weil nur Nvidia aber nicht AMD weiß was die Module genau tun. Mantle tut nichts dergleichen, es läuft nur auf AMD aber beeinflusst nicht Nvidias Softwareumgebung.

QFT

In diesem Zusammenhang muss man auch noch mal erwähnen, dass es keiner (zusätzlichen) gesonderten Benachteiligung durch Nvidia bedarf. Allein der black box Ansatz benachteiligt bereits AMD.

-/\-CruNcher-/\-
2014-07-04, 11:51:30
Lassen wir doch erst einmal die Dominanz von Nvidia mit im PC-Bereich brechen, dann können wir uns darüber unterhalten wie wir mit einer theoretischen, künftigen von AMD umgehen:

http://store.steampowered.com/hwsurvey/

http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-ersten-quartal-2014

Wie gesagt ich hab nichts dagegen und da ist AMD ja auf einem guten Weg Marktanteile zu sichern :)
Das kann Nvidia auch nicht mit Gameworks verhindern würde sagen nichtmal verlangsamen ;)

Der Kampf im Mobile bereich gibt guten aufschluss über die Effizienz nicht umsonst fliest hier viel R&D aus diesem bereich mit in den Desktop mit ein was ich sehr begrüsse und Maxwell ist da ein großer Sprung in der Tegra GPU Entwicklung :)
Wobei ich klar Intel dort noch vor Nvidia und AMD sehe was effizienz auf Raum/Leistung/Verbrauch (Balance) angeht AMD holt aber auf und der Push mit den Konsolen gibt ihnen Resourcenverteilungsmöglichkeiten ;)

Knuddelbearli
2014-07-04, 14:50:18
Siehst du andere statistiken als ich? ich sehe da nur das AMD Marktanteile seit Ewigkeiten langsam langsam konstant schrumpfen, in einem eh schon insgesamt schrumpfenden Markt und das trotz IGPs

Mancko
2014-07-05, 17:47:13
Siehst du andere statistiken als ich? ich sehe da nur das AMD Marktanteile seit Ewigkeiten langsam langsam konstant schrumpfen, in einem eh schon insgesamt schrumpfenden Markt und das trotz IGPs

AMD hat seit Erscheinen von Kepler im AddIn GPU Bereich (Desktop wie Laptop) Marktanteile abgegeben. Das brauchen wir nicht erneut diskutieren. Dazu gibt es unzählige Reports, Erhebungen und letztlich kannst das auch in den Quartalszahlen ablesen, wenn Du diese vergleichst.

Knuddelbearli
2014-07-05, 18:06:33
sag ich ja

-/\-CruNcher-/\-
2014-07-06, 16:09:47
Naja ziel war es mit der Konsolenkonvergenz und Mantle Marktanteile zu sichern , die subjektive Zunahme der AMD GPU User hier im Forum Zeigt das dies auch teilweise gelang bei Release von Hawai zumindestens, was zeigt die letzte Steam Analyse hier im vergleich zur Analyse davor ?

Momentan wichtig für AMD ist wie sie sich gegen Intel bei x86 Win 8.1 Tablets schlagen werden sprich Mullins vs Baytrail, Cherrytrail und Willowtrail :)

von der Balance her haben sie aber eigentlich garkeine Chance Cherrytrail ist schon round about 2x so schnell wie Baytrail bei der GPU bei selben verbrauch auf den 14 nm die Intel anpeilt, Mantle Ergebnisse auf Mulins wären allerdings interessant :)

Mancko
2014-07-08, 11:27:45
sag ich ja

Sorry ich hatte den falschen Post zitiert. Du warst nicht gemeint sondern Dein Vorredner :)


Naja ziel war es mit der Konsolenkonvergenz und Mantle Marktanteile zu sichern , die subjektive Zunahme der AMD GPU User hier im Forum Zeigt das dies auch teilweise gelang bei Release von Hawai zumindestens, was zeigt die letzte Steam Analyse hier im vergleich zur Analyse davor ?


Dieses Forum hier ist nun wirklich alles andere als repräsentativ. Hier ist ohnehin eine doch eher überdurchschnittliche AMD Zuneigung der Mitglieder im Vergleich zum Marktdurchschnitt festzustellen. Das war auch schon in Zeiten so, wo AMD klar unterlegen war. Da gibt es aber keinen Zusammenhang zum allgemeinen Markt für AddIn GPUs. Die letzte Runde der AddIn GPUs ging ganz klar an Nvidia ohne wenn und aber. Genügend JPR Reports dazu gibt es ja und wenn Du die Umsatzzahlen der letzten 1,5 Jahre mit Bezug auf AddIn GPUs vergleichst, dann bestätigt das eindeutig das, was JPR & Co auch melden. Die prozentuale Verteilung nach Marktanteile lässt sich da auch gut an der prozentualen Umsatzverteilung ablesen.

Insofern muss AMD mit der nächsten Runde erst wieder zeigen ob sie sich dauerhaft Marktanteile zurückholen können. Wie gesagt Nvidia's durchschlagender Erfolg mit Kepler ist keine automatische Garantie für einen Erfolg mit Maxwell. Die nächste Runde beginnt wieder von vorn. Genauso kann aber im Augenblick bei AMD überhaupt nicht die Rede davon sein, dass sie sich auf einem guten Weg befinden Marktanteile zurückzuholen. Das wird sich genauso erst mit der neuen Runde zeigen. Im Augenblick zeigt sich da in dieser Richtung gar nichts.

CountDoku
2014-07-11, 21:49:18
Das hier könnte man sehr gut in Spiele einbauen. Ich verlinke mal von PCGH hierhin. Es ist sehenswert. http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/Nvidia-Flameworks-Feuerdemo-im-Video-1128331/ schauts euch einfach mal an. So viele Möglichkeiten tun sich da auf!

Kartenlehrling
2014-07-11, 23:56:52
Naja dieses Nvidia Flameworks werden wir bestimmt in Witcher3 sehen im Februar2015,
aber mit Dragon Age: Inquisition würde jetzt schon zur E3-2014 sehr schöne Flammenanimation gezeigt, das Flammenschwert ist mal richtig Klasse und die Lampen und Fackeln in DA:I sowieso,
und der gezeigt Drache hinterlässt auch schöne verbrannte Erde, zwar weniger Rauch aber es müssen ja noch bezahlbare FPS rauskommen.

https://www.youtube.com/watch?v=FfGTtyYeO8E
ab 3:30min Dragon Age: Inquisition Gameplay Demo - IGN Live: E3 2014

occ-kh@Mirko
2014-07-12, 01:14:50
Der Drache ja gelungen, könnte ruhig etwas mehr Widerstand leisten...aber Gerald ist auch nicht ohne...

https://www.youtube.com/watch?v=KAyxuE8y5g8
https://www.youtube.com/watch?v=BivVXw-NLTw

Blediator16
2014-07-12, 01:20:38
Man könnte glatt meinen der Witcher hätte TressFX Haare.

occ-kh@Mirko
2014-07-12, 01:22:57
Lief auf der One!

HOT
2014-07-12, 10:35:27
AMD hat seit Erscheinen von Kepler im AddIn GPU Bereich (Desktop wie Laptop) Marktanteile abgegeben. Das brauchen wir nicht erneut diskutieren. Dazu gibt es unzählige Reports, Erhebungen und letztlich kannst das auch in den Quartalszahlen ablesen, wenn Du diese vergleichst.
Das ist korrekt. Aber ich glaube, das hat andere Gründe als du denkst. Ich denke eher, dass dies den Konsolenchips geschuldet ist. Da AMD die ja für M$ und Sony herstellen muss aufgrund der x86-Lizenz wird das zu Lasten der Kontingente für Jaguar und den Grafikchips bei TSMC gehen, denn die Konsolen liefen ja gut und Engpässe kann sich AMD hier absolut nicht leisen. Das heißt, dass die Konsolenchips immer absolute Top-Priorität haben. Dann kam Hawaii. Der verschärfte die Situation, da er ja doch recht groß ist, aber Gewinnträchtiger als viele kleine Chips. Da man ja nur beschränkt produzieren kann, brechen natürlich die quanitativen Absatzzahlen massiv ein, aber eben nicht unbedingt qualitativ. AMD verkauft lieber 290er als 250er. Zudem gibt es da noch Lieferverträge mit OEMs, was die Auswahl noch weiter einschränkt. AMD achtet hier auf jeden mm², das sieht man auch daran, dass AMD z.Z. 6 Grafikchips hat, die da vom Band laufen. Tahiti und embedded Jaguar laufen jetzt aus, um Platz zu schaffen bei der TSMC-Produktion. Ersetzt werden diese duch die GloFo Chips Beema/Mullins und Tonga. AMD versucht weitere Entspannung reinzubringen, indem man den XB1-chip ebenfalls bei GloFo produziert. Beim PS4-Chip gibts da Gerüchte, langfristig wird der denke ich auch bei beiden Foundries vom Band laufen.
Man sollte hier nicht 1000 Sachen durcheinanderschmeissen. Es wird eben genau an den Herstellungszahlen und der Konzentration auf die lukrativeren Marktsegmente liegen, dass AMD weniger absetzt z.Z. Es dauert ja auch immer eine Weile, bis das wirklich am Chipmarkt ankommt. Jetzt da einen Zusammenhang mit NVs "Wundertreiber" zu suchen oder zu schwadronieren, dass Mantle nichts bringt, ist in dem Zusammenhang schlicht irrelevant.

Mantle ist glaube ich ein Phänomen, weil es nicht AMD selbst initiiert hat, sondern, weil es tatsächlich eine sehr große Nachfrage seitens der Spielehersteller gibt. Anders ist diese virusartige Verbreitung nicht zu erklären. Es ist ja schon ein Hammer, wenn eine Schnittstelle, die grad vom Alpha in die Betaphase geht, schon bei so vielen Spielen in praktischen Einsatz gebracht wird. Und das wird weitergehen. Die Enginehersteller werden das mMn alle mittelfristig implementieren, wenn Intel mit an Bord ist. Ich glaube, Mantle ist schon deshalb bei den Entwicklern so hoch im Kurs, trotz der Ankündigung von DX12, weil Mantle auf allen möglichen OS und Architekturen zur Verfügung stehen soll. Wird gerne vergessen.
Es ist nicht vergleichbar mit Gameworks, da Gameworks einen beschränkten Einsatzzweck hat, Mantle aber vollständig universell gehalten ist. Das eine ist halt ne DLL-Sammlung und Entwicklungsumgebung, das andere eine API...

-/\-CruNcher-/\-
2014-07-12, 11:42:31
Man könnte glatt meinen der Witcher hätte TressFX Haare.

Vieleicht nutzen sie Tressfx für die Konsole und Hairworks für den PC aber ich würde eher sagen Nvidia hat der Hairworks Nutzung auf AMD Hardware zugesagt zumindestens für die Konsole.

Naja dieses Nvidia Flameworks werden wir bestimmt in Witcher3 sehen im Februar2015,
aber mit Dragon Age: Inquisition würde jetzt schon zur E3-2014 sehr schöne Flammenanimation gezeigt, das Flammenschwert ist mal richtig Klasse und die Lampen und Fackeln in DA:I sowieso,
und der gezeigt Drache hinterlässt auch schöne verbrannte Erde, zwar weniger Rauch aber es müssen ja noch bezahlbare FPS rauskommen.

https://www.youtube.com/watch?v=FfGTtyYeO8E
ab 3:30min Dragon Age: Inquisition Gameplay Demo - IGN Live: E3 2014

Wenn Flameworks genutzt werden würde hätte Nvidia das sicherlich angekündigt

Kartenlehrling
2014-07-12, 12:55:29
Man könnte glatt meinen der Witcher hätte TressFX Haare.

Ein AMD Entwickler hat noch vor ca.1 Jahr gesagt das Nvidia zu damaligen Zeit mit ihren HairWorks auf dem Stand von TressFX1.0 sind,
und das Video von vor einem halben Jahr bestätig es (http://video.golem.de/games/12145/witcher-3.html).
Man kann zb. bei 1:00min sehen wie seine Haar eine Gummizugeffekt hat, sowas soll beim neuen AMD TressFX2.0 der Vergangenheit angehören.

Auf jedenfall werden die Feuer und Flammeneffekte in den neuen Spiele wie "DA:I", "Lord of Fallen" und "Witcher3" soo gut aussehen wie schon lange nicht mehr.

Ich habe nur Angst das Nvidia Gras-Physik genauso ein Stolperstein für AMD wird wie die Schneepuren in "Batman: Origin".
Und dann sind wir wieder von unnötiger hohe Tesslation Berechnung.

Im einem anderen Thread wurde ja schon festgestellt das bis zu einen Faktor10 AMD in Tesslation Nvidia wegrennt oder wenigsten mithält.

occ-kh@Mirko
2014-07-12, 13:35:58
Also ich finde für den derzeitigen Stand, sieht es schon recht gut aus. Wenn man mal auf die NPCs schaut oder z.B. das Pferd betrachtet, sieht man das es auch mit dem Haaren klappt. Zudem sprechen wir hier von Mainstreamhardware...egal wie hardwarenah programmiert werden kann.

Bei einer riesigen Welt wie z.B. in W3 (wenn es denn tatsächlich so wird wie angekündigt) wird es lange dauern bis Bugs gefixt sind, lass das Spiel erstmal kommen. Ich freu mich drauf.:-)

dildo4u
2014-07-27, 13:06:44
Nvidia Responds to AMD's Cheating Allegations

http://youtu.be/aG2kIUerD4c

Blediator16
2014-07-27, 14:03:46
Die Sache ist und war vollig übertrieben gewesen. GW hat bis jetzt nichts gebracht und niemandem geschadet. Watchdogs läuft nirgends ehreblich besser nicht AMD nicht NV. Allerdings sagten die beiden nichts anderes als "haha niemand kann was beweisen wäre NDA brucht" und "amd lügt entwickler haben source code aber amd wird ihn nie bekommen". Sie bestätigen im Grunde was AMD sagt. Entwickler bekommen es durch Lizenzen AMD wird nie etwas zu Gesicht bekommen. Auf der einen Seite sagen sie dann Mantle bringt nichts und auf der anderen Seite sagen sie später DX12 wird der shit und zählen Dinge auf, die Mantle macht

Kartenlehrling
2014-07-27, 15:59:06
Das Problem ist auch das AMD immer alles halbwarm aufgreift aber es nicht wirklich zum Kochen bringt und abschmeckt, sondern lieber unbewacht anbrennen läst.

Zb. VCE .... 3 Jahre ? brauchen sie um es einigermassen funktionfähig zu bringen und dann auch noch nach Nvidias nvenc?
Um Mantle und freesync habe ich schon Angst, das alles viel zu lange brauch.

-/\-CruNcher-/\-
2014-07-27, 16:06:22
Wenn du von NVenc ausgehst dann musst du aber eingestehen das Intel hier der Führer mit Quicksync ist weder Nvidia noch AMD können es beaten.

Und auch das Shield Tablet seh ich sehr Skeptisch ein schönes Produkt keine Frage vor allem die komplett integration auf Software ebene und Linux Gaming wird sicherlich weiter wachsen.

Auch der Preis scheint in Ordnung aber für den Preis bekomm ich auch ein volles Windows 8.1 Tablet 22 nm nicht RT von Intel im selben Formfaktor und demnächst AMD allerdings nicht im selben Formfaktor ;)

Peterson sagte es aber sehr schön bei Nvidia bezahlt man das riesiege Ökosystem das sie mit der G80/G92 Angefangen haben aufzubauen Gameworks ist nur eine Erweiterung davon und verschiebt einen der R&D Kosten parts zu Nvidia und entlastet die Studios.

Ui Ui Ui

Petersen: He's a Smart Guy he just should know better, das ging an Huddy die Tesselation issues haben sie als Bug begründet (so einfach) ;)

Blediator16
2014-07-27, 16:27:03
Gameworks ist wie gesagt aktuell kein Problem. AMD hat das Problem von "Unterklassesoftware". Man brauch da nicht zu Diskutieren AMD muss an der Softwarefront was tun. Leider kann ich allerdings noch nichts erkennen, wo sie sich bemühen. Bis auf Mantle kam von AMD in den letzten Jahren nichts, woran ich mich erinnern kann.

Was ich abartig finde in dem Interview ist das schlechtreden von Mantle. Ignorante Wi''ser sind das mehr nicht. Das selbe mit gsync freesync. Reden scheisse über freesync noch nicht da usw. aber DX12 wird sowieso besser als Mantle wenn es mal in 2 Jahren da ist.

fondness
2014-07-27, 16:37:16
Was für ein arroganter Haufen, Mantle bringt also laut Nvidia keinen Mehrwert, mit AMD wollen sie auch bei FreeSync nicht zusammen arbeiten. Hochmut kommt vor dem Fall.

Hübie
2014-07-27, 16:53:02
Okay das Argument der Langzeitkompatiblität bei Mantle kann ich nachvollziehen, aber freesync macht doch dass gleiche wie g-sync und dass mit weniger Kosten.
Ich seh das mit gameworks ähnlich wie die Herren. Man investiert nicht Millionen um der Konkurrenz einen Vorteil zu verschaffen. Also durchaus nachvollziehbar dass man AMD nicht den code gibt. Man müsste jetzt mal an ein paar Entwickler herantreten und diese dazu befragen. Spannend wären codemasters, ubischrott, epic und crytek.

-/\-CruNcher-/\-
2014-07-27, 16:54:37
Gameworks ist wie gesagt aktuell kein Problem. AMD hat das Problem von "Unterklassesoftware". Man brauch da nicht zu Diskutieren AMD muss an der Softwarefront was tun. Leider kann ich allerdings noch nichts erkennen, wo sie sich bemühen. Bis auf Mantle kam von AMD in den letzten Jahren nichts, woran ich mich erinnern kann.

Was ich abartig finde in dem Interview ist das schlechtreden von Mantle. Ignorante Wi''ser sind das mehr nicht. Das selbe mit gsync freesync. Reden scheisse über freesync noch nicht da usw. aber DX12 wird sowieso besser als Mantle wenn es mal in 2 Jahren da ist.

Würde ich nicht so stehen lassen auch AMD betreibt R&D und schaft Mehrwerte für ihre Hardware sicherlich nicht mit dem großen Tam Tam wie Nvidia aber denoch bei AO haben sie ihre solutions beim Deffered Rendering bei der Haar Simulation beim Skin Rendering sie sind nicht untätig nur haben halt auch zum Teil nicht den Bekanntheitsgrad gerade mit den Konsolen könnte sich das ja jetzt schlagartig ändern mit der richtigen Strategie könnten sie Nvidia aus der Bahn werfen.
Zum teil haben sie immernoch einen Vorsprung beim OIT wobei Nvidia den gerade dabei ist in Luft aufzulösen, aber auch hier hat Intel wieder pole position.

@Fondness

So gesehen haben sie recht Mantle alleine bringt nicht den Mehrwert das was dann auf Mantle schlussendlich umgesetzt wird bringt ihn so wie Nvidias R&D eben den visuellen mehrwert schaffen optimiert auf ihre Hardware Architektur :)

Blediator16
2014-07-27, 16:56:41
Sie lassen aber aus, wie sogut wie alle, dass man für den visuellen Mehrwert am besten Highend SLI nehmen sollte, weils sonst einfach nicht gescheit läuft. Im selben Interview sagen sie aber selbst, dass diese Userbase einfach mal maximal 1% von den Usern sind. Ich mit meinem Mittelklasse PC 2500k und 660oc kann Physx quasi fast ganz vergessen.

Die PR Leute von NV wollen im Grunde nur hervorbringen, dass sie von Software leben und das stimmt eben. AMD muss endlich was machen ansonsten werden sie weiterhin die Gammelbude bleiben wie sie aktuell empfunden wird.

fondness
2014-07-27, 17:07:09
Ich seh das mit gameworks ähnlich wie die Herren. Man investiert nicht Millionen um der Konkurrenz einen Vorteil zu verschaffen. Also durchaus nachvollziehbar dass man AMD nicht den code gibt.

Dann sind AMD und alle anderen wohl blöd das zu tun.


Man müsste jetzt mal an ein paar Entwickler herantreten und diese dazu befragen. Spannend wären codemasters, ubischrott, epic und crytek.

Gibt ja schon ein vielsagendes Interview des Witcher Lead Designers.

Blediator16
2014-07-27, 17:11:00
Man kann sich aufregen wenn W3 dann da ist und AMD wieder nichts machen kann. Dann darf man sich aufregen. Ich kenne bis jetzt nur WD mit GW und es läuft im Allgemeinen nicht besonders toll.

-/\-CruNcher-/\-
2014-07-27, 17:12:01
Sie lassen aber aus, wie sogut wie alle, dass man für den visuellen Mehrwert am besten Highend SLI nehmen sollte, weils sonst einfach nicht gescheit läuft. Im selben Interview sagen sie aber selbst, dass diese Userbase einfach mal maximal 1% von den Usern sind. Ich mit meinem Mittelklasse PC 2500k und 660oc kann Physx quasi fast ganz vergessen.

Die PR Leute von NV wollen im Grunde nur hervorbringen, dass sie von Software leben und das stimmt eben. AMD muss endlich was machen ansonsten werden sie weiterhin die Gammelbude bleiben wie sie aktuell empfunden wird.

Naja mag bei Physix sein aber z.b HBAO+ läuft ziemlich resourcenschonend im direkten Vergleich zu z.b Ubisofts MHBAO solution in Watch_Dogs schon sehr nice Integriert, aber Visueller Mehrwert ist eine sache die Schwer zu erfassen wird an der Grenze :)

Und wie gesagt mit Nvidia GI Works wird es richtig Spannend vs Mantle und GI implementationen :)

Mancko
2014-07-27, 18:14:30
Dann sind AMD und alle anderen wohl blöd das zu tun.

AMD gibt die Kontrolle über Mantle ja auch nicht ab. Werben statt dessen mit fadenscheinigem Open Source Gehabe. Lächerlich. Wenn alle da mitmachen würden, könnte AMD irgendwann einfach die Spielregeln zu seinen eigenen Gunsten abändern.

So wie es ist, ist es in Ordnung und auch eine klare Ansage ohne so ein Rumgeeier wie man es von AMD kennt. Developer unterschreiben einen Lizenzvertrag dessen größter Part die Geheimhaltung sein wird und implementieren das Zeug. Und AMD weiß genau, dass sie sich selber um ihren Part kümmern müssen, wenn sie mehr als Standard DX wollen.
Nvidia ist für seine Userbase und Hardware zuständig und AMD für seine und M$ eben für beide. Es muss ja auch noch Differenzierungsmöglichkeiten vom Wettbewerb geben, sonst bräuchte man keinen Wettbewerb. Der Entwickler kann jederzeit dafür sorgen, dass das GW Zeug bei AMD Hardware umgangen wird und implementiert halt dann den Standardweg, den er ansonsten ja auch gewählt hätte. Nvidia kümmert sich an der Stelle schlicht um die User Experience der eigenen Kunden und ehrlich gesagt ist das auch meine Erwartungshaltung. Wieso soll ich bei den Produkten anteilig dafür bezahlen, dass sich die User Experience von AMD Kunden verbessert? Interessiert mich überhaupt nicht.

Und ich finde das Interview sehr gut und mal eine Ansage an AMD. Ist genau die passende Antwort auf die Heulsuse Huddy. Ist ja nicht so als ob die zwei Herren Huddy nicht kennen würden aus gemeinsamen Tagen.

fondness
2014-07-27, 18:19:57
AMD gibt die Kontrolle über Mantle ja auch nicht ab. Werben statt dessen mit fadenscheinigem Open Source Gehabe. Lächerlich. Wenn alle da mitmachen würden, könnte AMD irgendwann einfach die Spielregeln zu seinen eigenen Gunsten abändern.

Wir wärs wenn du Apples mit Apples vergleichen würdest? Die entsprechenden Codesamples sind bei AMD alle open-source und waren es auch bei NV bis vor kurzem.


So wie es ist, ist es in Ordnung. Nvidia ist für seine Userbase und Hardware zuständig und AMD für seine und M$ eben für beide. Es muss ja auch noch Differenzierungsmöglichkeiten vom Wettbewerb geben, sonst bräuchte man keinen Wettbewerb. Der Entwickler kann jederzeit dafür sorgen, dass das GW Zeug bei AMD Hardware umgangen wird und implementiert halt dann den Standardweg, den er ansonsten ja auch gewählt hätte. Nvidia kümmert sich an der Stelle schlicht um die User Experience der eigenen Kunden und ehrlich gesagt ist das auch meine Erwartungshaltung. Wieso soll ich bei den Produkten anteilig dafür bezahlen, dass sich die User Experience von AMD Kunden verbessert? Interessiert mich überhaupt nicht.

Dir ist schon bewusst das es wenn dann einen Zusatzaufwand bedeutet den Code vor AMD und den Entwicklers zu "sperren"? Daher ergibt deine Aussagen null Sinn. Ganz davon abgesehen das NV deswegen viele Entwickler für den Einsatz bezahlen muss. Wenn dann bezahlt du dafür die "User Experience von AMD Kunden" nicht zu verbessern.

hasebaer
2014-07-27, 18:41:26
Dir ist schon bewusst das es wenn dann einen Zusatzaufwand bedeutet den Code vor AMD und den Entwicklers zu "sperren"?

Die Entwickler haben den Code.

fondness
2014-07-27, 18:45:53
Die Entwickler haben den Code.

Ja genau deshalb weiß auch nicht mal der Witcher-Lead Designer wie der Code am Schluss genau aussieht...LOL. Vielleicht, aber nur vielleicht darf er ihn sehen, adaptiert werden darf er aber offenbar nicht (dann bringt ihm das "sehen" des Codes aber nicht viel). Kein Vergleich zu Open-Source, wo ich mir nehme was ich brauchen kann, dieses adaptiere wie es mir gefällt und den Rest eben weg lasse.

Mancko
2014-07-27, 20:58:07
Was für ein arroganter Haufen, Mantle bringt also laut Nvidia keinen Mehrwert, mit AMD wollen sie auch bei FreeSync nicht zusammen arbeiten. Hochmut kommt vor dem Fall.

Muss hier nochmal was nachtragen, weil ich mir die Zeit genommen habe das Ganze teil anzuhören. Also nirgends in diesem Gespräch zu fünft ist irgendwer arrogant. Im Gegenteil Nvidia äußert sich nur sehr dürftig zur Konkurrenz und sagt das auch mehrfach.

Bei dem von Dir angesprochenen Satz hast Du entweder nicht voll zugehört oder ihn nicht verstanden. Es war die Rede davon, dass Mantle im ersten Moment erstmal keinen visuellen Mehrwert bringt. Es geht tendenziell erstmal mehr um das Herausholen von Mehrperformance. Die kann man zwar dann in höhere Settings umsetzen aber um neue visuelle Effekte geht es dabei erstmal nicht und hier unterscheidet sich Mantle schon von Gameworks.

Auch die Hinweise auf den Support vieler Generationen von GPUs finde ich wichtig. Das muss sich bei Mantle erstmal zeigen, ob das über die Jahre und alle GPUs so darstellen lässt. Es ist einfach zu sagen DX oder OpenGL taugt nichts - nehmt Mantle. Es wird daber nur vergessen, dass DX und OpenGL Generationen von GPUs aller Hersteller supporten und bei Erscheinen neuer Generationen von GPUs in der Regel nicht irrsinnig riesige Entwicklungsaufwände notwendig sind um diese via Treiber zum Laufen zu bringen.

Im Grunde ist Nvidia's Argumentation doch ganz simpel. Sie investieren um den Markt voranzutreiben und die Experience ihrer Kunden. Nun das ist ihr gutes Recht. Es kann ja nun keiner ernsthaft verlangen von einem Unternehmen alles was sie tun der Konkurrenz offen zu legen. Verlangt in anderen Märkten auch keiner. Ich bringe ja selber immer gern den Autobauer. Nun in dem Gespräch kam ja auch das BMW Beispiel und BMW ist ein sehr gutes Beispiel. Die investieren seit Jahren extrem viel in Carbon Technologie und haben sich fett bei SGL Carbon eingekauft. Das ist eine freie unternehmerische Entscheidung mit entsprechendem Risiko. Man hofft, dass es sich irgendwann auszahlt wie überall im Wirtschaftsleben. Es kann keiner ernsthaft von BMW verlangen das Ganze an andere wie Mercedes einfach so abzutreten. Sie hatten die Kosten und sie haben das Risiko. Sollte sich die Sache durchsetzen, dann ist es BMWs gutes Recht davon zu profitieren. Und nicht anders ist es bei GPUs.

Nur weil das ein Segment an dem viele Jugendliche, Kinder und andere gern teilnehmen gibt es noch lange kein Forderungsrecht darauf, dass simple Gesetze der Marktwirtschaft ausgehebelt werden.

qu3x^
2014-07-27, 21:13:13
Ohne diese 41 seitige Klagemauer komplett gelesen zu haben geht es wieder erneut drumm dass das leidgeplagte rote Lager sich so bemindert fühlt und das grüne Lager wieder ins falsche Licht rückt.

Es ist egal ob die eigene Hardware zumeist günster gekauft wurde, das diese am Papier und im luftleeren Raum sogar schneller rechnen sollte als das teurere Produkt des Anderen. Abgesehen von TruForm und TressFX ist mir kein Marketingbegriff mehr in Erinnerung geblieben, was AMD bahnbrechendes an Verbesserung des visuellen Spieleerlebnisses auf den Markt geworfen hat? Da jeder Developer für sich entscheiden kann welche Libs er nutzen möchte stellt sich mir die Frage warum den wirklich nichts aus dem OpenSource Baukasten. Warum muss es immer Middleware sein sei es Havok oder PhysX? Weil es oft einfacher ist auf etwas aufzubauen was erprobt wurde und schon jahrelangen Bestand in anderen Entwicklungen ist. Nvidia hat sogesehen mit PhysX angefangen und wurde zu Beginn belächelt. Wer brauch das schon warum muss man sehen wie Geröll ewig gleich zerbröckelt. Und es wurde daran gearbeitet bis die Akzeptanz am Markt vorhanden war.

Nun wird über eine Marketingstrategie hergeweint bei der Nvidia schon ein jahrzentelangen Headstart hatte. Sowohl die Eier hatte es durchzuziehen und den Weitblick zu haben das eine Grafikkarte nicht nur eine reine Pixelschleuder ist. Wenn ich dem KD dadurch einen Mehrwert mitsuggeriere und die Bereitschaft der Käuferschicht auch da ist genau deswegen gleiche Hardware zum höhren Preis einzusacken wo ist das Problem? AMD ist dafür bekannt softwareseitig hinterher zu sein. Das war auch mein Beweggrund warum ich nach Jahren aus ATI Karten wieder gewechselt habe. Die Treiber waren unter aller Sau und der gebotene Hardwarepreis war kein Lockruf mehr sondern eine Hinweis dafür das deren Ingenieure nur bis zur Karte selbst denken. Jetzt zu behaupten dass mit den Anstrengungen zu TressFX und Mantel der Arbeitsaufwand der selbe ist wage ich zu bezweifeln.

GF2MX>GF2GTSPRO>9700Pro>X800XT>X850XTX>X1900XT>X1900CF>X2900PRO>X2900CF>GTX280>GTX580

Mancko
2014-07-27, 21:19:05
Wir wärs wenn du Apples mit Apples vergleichen würdest? Die entsprechenden Codesamples sind bei AMD alle open-source und waren es auch bei NV bis vor kurzem.


Nochmal. AMD möchte Mantle verbreiten aber die Fäden in der Hand behalten. Warum wollen sie das? Ganz einfach. Würde Mantle von Nvidia supported werden wie es AMD möchte, dann sind sie in Zukunft davon abhängig was AMD für Design Entscheidungen trifft. Es ist logisch, dass sie das nicht möchten. Sie haben in dem Interview sehr klar auf diese Open Source Thematik hingewiesen. Mantle ist und bleibt nicht Open Source und Basta. Wenn AMD es an ein Gremium abtritt können wir darüber reden. Das AMD den Codesamples zur Verfügung stellt ist doch klar. Sie wollen das Thema verbreiten und hoffen das andere dabei mithelfen. Nvidia geht einen anderen Weg. Sie investieren lieber selber und warten nicht auf andere. Die schicken ihre Entwickler dahin um die Dinge zu ermöglichen.


Dir ist schon bewusst das es wenn dann einen Zusatzaufwand bedeutet den Code vor AMD und den Entwicklers zu "sperren"?


Der Zusatzaufwand ist doch total vernachlässigbar. Der Entwickler implementiert eine normale DX Lösung. Nvidia schickt seine Leute um bestimmte Teile für Nvidia GPUs zu verbessen und zwar nicht nur Performance sondern vor allem visuell.


Daher ergibt deine Aussagen null Sinn. Ganz davon abgesehen das NV deswegen viele Entwickler für den Einsatz bezahlen muss. Wenn dann bezahlt du dafür die "User Experience von AMD Kunden" nicht zu verbessern.

Deine Aussage ergibt Null Sinn. Wenn man sich das Interview anhört, insbesondere den Teil wo Nvidia über seine Software Investments redet, dann reden die da doch totalen Klartext.

Nvidia ist primär eine Company die im Gaming Segment unterwegs ist. High End Hardware verkauft sich nun mal mit entsprechender Software. Entwickler haben weder das Budget noch das Interesse großartig immer die neuesten Features einzubauen. Nvidia dagegen schon. Also investieren sie hier und nehmen den Entwicklern Arbeit ab und die erhalten auf der anderen Seite zusätzliche Dinge in ihrem Game oder ihrer Gameengine die das Ganze dann visuell noch ein bisschen aufwerten, auch wenn es nicht überall nutzbar ist. Irgendwann über die Jahre wird das ein oder andere Thema ganz normaler Mainstream werden. Es ist also auch ein Investment in die Zukunft.

AMD kann jederzeit und wann immer sie möchten die gleichen Investments tätigen. Das Problem hier nur ist AMD will das gar nicht und es ist auch klar wieso. AMD wäre es doch am liebsten, wenn überall der Einheitsbrei heraus käme und jeder nur noch eine jämmerliche APU benötigen würde. Das Nvidia nun nicht die gleichen Interessen hat ist doch vollkommen klar. Nvidia will genau das Gegenteil, nämlich das Games visuell immer spektakulärer und natürlich auch Hardware bedürftiger werden.

Im Endeffekt bringt es Scott Peterson auf den Punkt. Beide Unternehmen verfolgen unterschiedliche Geschäftsstrategien und Ansätze. Wieso zum Henker müssen die identisch sein? Niemand verlangt von BMW die gleichen Autos mit den gleichen Features wie Mercedes oder VW zu bauen. AMD hofft tendenziell mehr drauf, dass andere irgend etwas voran bringen und Nvidia dagegen nimmt lieber Geld in die Hand um Dinge selber voranzutreiben. CUDA war hier auch ein sehr schönes Beispiel. Das ist mit Risiken verbunden und natürlich will man - wenn sich das Thema durchsetzt - davon auch profitieren. AMD möchte ja auch nicht das Risiko abfedern, wenn sich mal etwas nicht durchsetzt. Auch das hat Peterson gesagt. Noch nie hat sich einer darüber beschwert, dass Nvidia in Dinge investiert die dann am Ende halt nichts gebracht haben. Das ist schon eigenartig. Bei Erfolgen wollen alle partizipieren aber bei Misserfolgen nicht :).

Knuddelbearli
2014-07-27, 22:45:30
Abgesehen von TruForm und TressFX ist mir kein Marketingbegriff mehr in Erinnerung geblieben, was AMD bahnbrechendes an Verbesserung des visuellen Spieleerlebnisses auf den Markt geworfen hat?

Das mit abstand wichtigste hast du vergessen

Schnelle Adaption jedes DX Standards

Blediator16
2014-07-27, 22:56:36
Fehlt nur noch dass er das aufgekaufte physx als bahnbrechend und innovativ erwähnt.

StefanV
2014-07-27, 23:14:59
Nochmal. AMD möchte Mantle verbreiten aber die Fäden in der Hand behalten. Warum wollen sie das? Ganz einfach.
Ja, weil sie keinen Bock auf solch einen Haufen wie die Khronos Gruppe haben.

Und genau DAS wird letztendlich passieren, wenn man es 'wirklich öffnen' wollen würde. Denn da gehts z.T. auch nicht darum die Schnittstelle voran zu bringen sondern eigene Features auf eigene Art und Weise zu implementieren und ggF. auch 'den anderen' zu schaden. Darauf hat AMD wohl keinen Bock...

Auch hat Huddy angekündigt, dass sie sich jetzt auch besser austoben können, was die Integration von neuen Funktionen der Grafikkarte betrifft. Da brauchen sie nicht mehr auf M$ und andere zu warten sondern können das ganze dann auch sofort implementieren.

Die R300 wurde ja zum Beispiel schon vorgestellt, bevor es DirectX 9 gab...

-/\-CruNcher-/\-
2014-07-27, 23:58:16
Fehlt nur noch dass er das aufgekaufte physx als bahnbrechend und innovativ erwähnt.

Naja die Weiterentwicklung wurde ja von Nvidia Finanziert wieso sollte er das dann nicht tun dürfen ;)

Wurde Ageia zum Verkauf gezwungen ?

Blediator16
2014-07-28, 00:28:29
Naja die Weiterentwicklung wurde ja von Nvidia Finanziert wieso sollte er das dann nicht tun dürfen ;)

Wurde Ageia zum Verkauf gezwungen ?

nein, aber amd wird vorgeworfen auf den lorbeeren anderer auszuruhen bzw. einfach abwarten bis jemand etwas gemacht hat und dann quasi klauen und nie selbst innovative sachen bringen

qu3x^
2014-07-28, 01:14:20
Das mit abstand wichtigste hast du vergessen

Schnelle Adaption jedes DX Standards
Realistisch gesehn bringt diese Entwicklung dem Endverbraucher was?

nein, aber amd wird vorgeworfen auf den lorbeeren anderer auszuruhen bzw. einfach abwarten bis jemand etwas gemacht hat und dann quasi klauen und nie selbst innovative sachen bringen
Wo im Posting liest du heraus das ich von klauen rede? Es ging darum das eine gute Palette aus Grafikeffekten bereitsteht und auch aktiv genutzt wird. Nun ist NV der/das Böse weil sie keinen Sources ihrer Investitionen wie ein Samarita verteilt. Von klauen ist da nirgendwo die Rede. AMD kann man nur vorwerfen dass sie raunzen und nix anbringen was vom breiten Markt akzeptiert wird.

Und weil ja Ageia eigenständig am Markt überlebt hätte habe Sie sich breittreten lassen dass Sie verkauften. :freak:
Wer war den anno 2008 mit einer PhysX Karte unterwegs und hat damit angegeben? Ich denke das besagte Karten im Promillebereich verkauft wurden wenn wir das auf den jetzigen PC Markt ummünzen würde. NV hat hier einen guten Schachzug gemacht und mit Ageia gutes Knowhow eingekauft deren Früchte wir heute sehen.

Ätznatron
2014-07-28, 08:03:57
NV hat hier einen guten Schachzug gemacht und mit Ageia gutes Knowhow eingekauft deren Früchte wir heute sehen.

Ich übersetze das dann mal:

Heute tendiert die Unterstützung für PhysX auch gegen Null.

Ageia hat nur Glück gehabt und vor dem Marktaustritt (Pleite) einen gierigen Dummen gefunden.

Mancko
2014-07-28, 08:41:31
Ja, weil sie keinen Bock auf solch einen Haufen wie die Khronos Gruppe haben.


Muss ja nicht die Khronos Gruppe sein. Es würde ja reichen das Ganze an ein Gremium bestehend aus Nvidia, Intel und AMD abzutreten, ggf. noch IMG.

Aber selbst das würden sie nicht wollen. Sie wollen schön die Kontrolle behalten und fordern über die Heulsuse Huddy das alle anderen doch gefälligst mitmachen sollen. So läuft das nun mal nicht. Mit den Konsolen im Rücken wäre letzteres ein riesen Wettbewerbsnachteil insbesondere für Nvidia. Die würden ihre Zukunft in AMDs Hände begeben. Ich denke nicht dass sie das wollen und jeder normal denkende Mensch wird das auch so erkennen und das Ganze weder als Open Source noch etwas ähnliches betrachten. Es ist der Versuch den Markt in die eigene Richtung zu lenken. Ich bin aber überzeugt davon, dass dies nicht gelingen wird. Zum einen wird DX12 wenn es da ist das Thema m.E. sowieso beerdigen und zum anderen wird AMD nichts anderes übrig bleiben als große Mengen Geld hin die Hand zu nehmen um das Thema am Leben zu erhalten und über die Generationen zu supporten.

So wie es Nvidia macht ist es genau richtig. Sie gehen jetzt die Entwickler noch mehr verstärkt direkt an und werden das Ganze durch eigene Investments zum einen verhindert und zum anderen werden sie sich weiter von AMD im Gesamtpaket unterscheiden. Ich bezweifel nämlich dass AMD den gleichen Weg gehen wird. Sie wollen weiterhin am liebsten Einheitsbrei und niedrige Hardwarepreise. Das war schon immer AMDs Strategie. Über den Preis Produkte verkaufen. Nvidia wird es genau anders herum machen. Höhere Preise nehmen und dafür eben zunehmend ein ECO System liefern, bei dem eigene Kunden direkt profitieren und wo nicht auf irgendjemand gewartet werden muss.

Arcanoxer
2014-07-28, 09:40:24
No BS Podcast #229: Nvidia Responds to AMD's Allegations (and Shows off Shield Tablet) (http://www.maximumpc.com/no_bs_podcast_229_nvidia_responds_amds_allegations_and_shows_shield_tablet)

qu3x^
2014-07-28, 11:19:54
Heute tendiert die Unterstützung für PhysX auch gegen Null.

Dann müßte das Geraunze von AMD deiner Meinung nach ja völlig unbegründet sein, wenn so eine Entwicklung tendenziell eh nicht aufgeht.


Ageia hat nur Glück gehabt und vor dem Marktaustritt (Pleite) einen gierigen Dummen gefunden.
Fraglich nur warum du dich so süffisant ggü dem Verkauf verhältst wenn NV sein Geld eh nur verbrennt.

Wenn ich im Umkehrschluß meine Bedenken äußere dass alle CurrentGen Konsolen nun AMD Hardware verwenden kann ich auch behaupten dass es in den nächsten 5 Jahre düster für NV aussehen könnte. Aber ich will mich ja von Rot nicht steinigen lassen müssen...

Ätznatron
2014-07-28, 11:50:46
Dann müßte das Geraunze von AMD deiner Meinung nach ja völlig unbegründet sein, wenn so eine Entwicklung tendenziell eh nicht aufgeht.

Si.


Fraglich nur warum du dich so süffisant ggü dem Verkauf verhältst wenn NV sein Geld eh nur verbrennt.

Ich habe nur die Realität beschrieben, und die ist niemals süffisant.

Wenn ich im Umkehrschluß meine Bedenken äußere dass alle CurrentGen Konsolen nun AMD Hardware verwenden kann ich auch behaupten dass es in den nächsten 5 Jahre düster für NV aussehen könnte. Aber ich will mich ja von Rot nicht steinigen lassen müssen...

Du kannst deine Bedenken gerne äußern, und in dem Fall sogar mit einigem Recht. NVs Zukunft steht keinesfalls auf unzerstörbarem Fundament.

fondness
2014-07-28, 12:28:17
Auch die Hinweise auf den Support vieler Generationen von GPUs finde ich wichtig. Das muss sich bei Mantle erstmal zeigen, ob das über die Jahre und alle GPUs so darstellen lässt. Es ist einfach zu sagen DX oder OpenGL taugt nichts - nehmt Mantle. Es wird daber nur vergessen, dass DX und OpenGL Generationen von GPUs aller Hersteller supporten und bei Erscheinen neuer Generationen von GPUs in der Regel nicht irrsinnig riesige Entwicklungsaufwände notwendig sind um diese via Treiber zum Laufen zu bringen.

Einen solchen Aussage kann man nur bringen wenn man entweder keine Ahnung hat wie Mantle aufgebaut ist (glaube ich nicht), oder einfach nur ein bisschen Marketing blabla anbringen will weil man keine bessere Begründung hat. Ansonsten können man exakt dasselbe Argument auch für DX12 oder Metal von Apple bringe. Mantle ist keineswegs so lowlevel wie du vielleicht glaubst.


Im Grunde ist Nvidia's Argumentation doch ganz simpel. Sie investieren um den Markt voranzutreiben und die Experience ihrer Kunden. Nun das ist ihr gutes Recht. Es kann ja nun keiner ernsthaft verlangen von einem Unternehmen alles was sie tun der Konkurrenz offen zu legen. Verlangt in anderen Märkten auch keiner. Ich bringe ja selber immer gern den Autobauer. Nun in dem Gespräch kam ja auch das BMW Beispiel und BMW ist ein sehr gutes Beispiel. Die investieren seit Jahren extrem viel in Carbon Technologie und haben sich fett bei SGL Carbon eingekauft. Das ist eine freie unternehmerische Entscheidung mit entsprechendem Risiko. Man hofft, dass es sich irgendwann auszahlt wie überall im Wirtschaftsleben. Es kann keiner ernsthaft von BMW verlangen das Ganze an andere wie Mercedes einfach so abzutreten. Sie hatten die Kosten und sie haben das Risiko. Sollte sich die Sache durchsetzen, dann ist es BMWs gutes Recht davon zu profitieren. Und nicht anders ist es bei GPUs.

Nur weil das ein Segment an dem viele Jugendliche, Kinder und andere gern teilnehmen gibt es noch lange kein Forderungsrecht darauf, dass simple Gesetze der Marktwirtschaft ausgehebelt werden.

Du ignorierst weiterhin völlig das AMD, MS, Qualcomm und bis vor kurzem auch NV ihre Sourcen ebenfalls frei zur Verfügung stellen um den Markt voran zu bringen. Weiterhin ignorierst du das nur dadurch echte Innovationen am Markt möglich sind. Wenn ich immer nur exakt den Effekt von NV nehmen kann dann sehen alle Flammen und jeder Rauch in allen Spielen in Zukunft eben gleich aus, wenn du das toll findest bitte. Dann gibt es eben in Zukunft kein SMAA, etc. mehr, da niemand mehr den Sourcecode hat um sowas zu basteln.

hasebaer
2014-07-28, 12:41:19
Heute tendiert die Unterstützung für PhysX auch gegen Null.

Die beiden am häufigsten verwendeten Spielengines benutzen PhysX. :freak:
http://de.wikipedia.org/wiki/Unreal_Engine
http://de.wikipedia.org/wiki/Unity_%28Spiel-Engine%29

HOT
2014-07-28, 12:42:45
Ich glaube nicht, dass AMD hier ein echtes Interesse an Mantle als propertiäre Schnittstelle hat. Man weiss auch bei AMD genau, dass diese sich in der Form niemals durchsetzen wird. Es wird bis zu einem bestimmten Punkt propertiär bleiben und dann geöffnet werden.
Der Vorteil ist, dass es dann eine Spieleschnittstelle für alle Plattformen gibt - das ist das eigentliche Ziel. Man verbessert das Marktumfeld für die eigenen Produkte, es wird für alle Hersteller billiger. Zudem kann man mit Mantle, dass man später öffnet, einen kleinen Vorteil "erschummeln", indem man Einfluss auf die Zukunft der Hardware nimmt. Dafür hatte man aber auch Arbeit damit. Ich finds fair.
Für Linux-Gaming wär Mantle sicherlich ne echte Bereicherung für die Spielehersteller.

Blediator16
2014-07-28, 12:49:27
Die beiden am häufigsten verwendeten Spielengines benutzen PhysX. :freak:
http://de.wikipedia.org/wiki/Unreal_Engine
http://de.wikipedia.org/wiki/Unity_%28Spiel-Engine%29

Wie immer ist damit gpu physx gemeint.

Ätznatron
2014-07-28, 12:52:51
Die beiden am häufigsten verwendeten Spielengines benutzen PhysX. :freak:
http://de.wikipedia.org/wiki/Unreal_Engine
http://de.wikipedia.org/wiki/Unity_%28Spiel-Engine%29

Und wieviel nennenwerte Spiele gibt's mit GPU-PhysX?

20? 30?

Wenn überhaupt....

http://physxinfo.com/index.php?p=gam&f=gpu

fondness
2014-07-28, 12:52:53
Nochmal. AMD möchte Mantle verbreiten aber die Fäden in der Hand behalten. Warum wollen sie das? Ganz einfach. Würde Mantle von Nvidia supported werden wie es AMD möchte, dann sind sie in Zukunft davon abhängig was AMD für Design Entscheidungen trifft. Es ist logisch, dass sie das nicht möchten. Sie haben in dem Interview sehr klar auf diese Open Source Thematik hingewiesen. Mantle ist und bleibt nicht Open Source und Basta. Wenn AMD es an ein Gremium abtritt können wir darüber reden. Das AMD den Codesamples zur Verfügung stellt ist doch klar. Sie wollen das Thema verbreiten und hoffen das andere dabei mithelfen. Nvidia geht einen anderen Weg. Sie investieren lieber selber und warten nicht auf andere. Die schicken ihre Entwickler dahin um die Dinge zu ermöglichen.


Ich finde es interessant das du wiederholt mit Mantle kommst obwohl ich davon nicht mal gesprochen haben in der von dir zitierten Passagen. Und nein das ist nicht dasselbe.


Deine Aussage ergibt Null Sinn. Wenn man sich das Interview anhört, insbesondere den Teil wo Nvidia über seine Software Investments redet, dann reden die da doch totalen Klartext.

Nvidia ist primär eine Company die im Gaming Segment unterwegs ist. High End Hardware verkauft sich nun mal mit entsprechender Software. Entwickler haben weder das Budget noch das Interesse großartig immer die neuesten Features einzubauen. Nvidia dagegen schon. Also investieren sie hier und nehmen den Entwicklern Arbeit ab und die erhalten auf der anderen Seite zusätzliche Dinge in ihrem Game oder ihrer Gameengine die das Ganze dann visuell noch ein bisschen aufwerten, auch wenn es nicht überall nutzbar ist. Irgendwann über die Jahre wird das ein oder andere Thema ganz normaler Mainstream werden. Es ist also auch ein Investment in die Zukunft.

AMD kann jederzeit und wann immer sie möchten die gleichen Investments tätigen. Das Problem hier nur ist AMD will das gar nicht und es ist auch klar wieso. AMD wäre es doch am liebsten, wenn überall der Einheitsbrei heraus käme und jeder nur noch eine jämmerliche APU benötigen würde. Das Nvidia nun nicht die gleichen Interessen hat ist doch vollkommen klar. Nvidia will genau das Gegenteil, nämlich das Games visuell immer spektakulärer und natürlich auch Hardware bedürftiger werden.

Im Endeffekt bringt es Scott Peterson auf den Punkt. Beide Unternehmen verfolgen unterschiedliche Geschäftsstrategien und Ansätze. Wieso zum Henker müssen die identisch sein? Niemand verlangt von BMW die gleichen Autos mit den gleichen Features wie Mercedes oder VW zu bauen. AMD hofft tendenziell mehr drauf, dass andere irgend etwas voran bringen und Nvidia dagegen nimmt lieber Geld in die Hand um Dinge selber voranzutreiben. CUDA war hier auch ein sehr schönes Beispiel. Das ist mit Risiken verbunden und natürlich will man - wenn sich das Thema durchsetzt - davon auch profitieren. AMD möchte ja auch nicht das Risiko abfedern, wenn sich mal etwas nicht durchsetzt. Auch das hat Peterson gesagt. Noch nie hat sich einer darüber beschwert, dass Nvidia in Dinge investiert die dann am Ende halt nichts gebracht haben. Das ist schon eigenartig. Bei Erfolgen wollen alle partizipieren aber bei Misserfolgen nicht :).

Ja das ist das wie NV es gerne hätte das es die Leute sehen. Im Endeffekt muss man aber schon verdammt blind sein, um nicht zu sehen, dass AMD mit diversen Open-Source-Effekte, Mantle, dem Gaming Evolved Programm ebenfalls in der Software-front deutlich aufrüstet. Was kommt denn von NV noch großes? Hin und wieder kauft man sich mit ein paar PhysX-Effekte ein, ganz großes Kino. Der Rest an Ressourcen wir Richtung Tegra gepumpt.

Mancko
2014-07-28, 12:53:14
Ich glaube nicht, dass AMD hier ein echtes Interesse an Mantle als propertiäre Schnittstelle hat. Man weiss auch bei AMD genau, dass diese sich in der Form niemals durchsetzen wird. Es wird bis zu einem bestimmten Punkt propertiär bleiben und dann geöffnet werden.
Der Vorteil ist, dass es dann eine Spieleschnittstelle für alle Plattformen gibt - das ist das eigentliche Ziel. Man verbessert das Marktumfeld für die eigenen Produkte, es wird für alle Hersteller billiger. Zudem kann man mit Mantle, dass man später öffnet, einen kleinen Vorteil "erschummeln", indem man Einfluss auf die Zukunft der Hardware nimmt. Dafür hatte man aber auch Arbeit damit. Ich finds fair.
Für Linux-Gaming wär Mantle sicherlich ne echte Bereicherung für die Spielehersteller.

Wie stellst Du Dir dann die Zusammenarbeit mit anderen Herstellern vor? Sie sollen AMD bei der Verbreitung helfen von etwas wo im Zweifelsfall AMD einen Vorteil hat? Kann ja wohl kein ernsthaft normal denkender Mensch erwarten. Im GPU als auch CPU Segment entscheiden manchmal winzige Prozentpünktchen in Performance Charts darüber ob die Kundschaft eher das eine oder das andere Produkt bevorzugt. Ist doch völlig klar, dass Nvidia von sowas Abstand nimmt. Und ob AMD ein echtes Interesse an einer OpenSource Lösung hat oder nicht, kann Nvidia gar nicht beurteilen. Das einzige was sie beurteilen können ist, dass es nun mal nicht OpenSource ist und auch nicht durch ein drittes Gremium in dem alle gleichberechtigt beteiligt sind verwaltet wird. Also wird man an dem Thema auch nicht mitarbeiten. Sich auf Versprechen von Unternehmen zu verlassen ist ein ganz ganz schlechter Ratgeber im Geschäftsleben. Da zählen nur Fakten und rechtlich 100% wasserdichte Verträge.

Du sagst ja selber, dass es ok ist wenn AMD einen kleinen Vorteil behält. Sie hatten die Arbeit damit. Das ist genau Nvidia's Argumentation. Sie haben die Arbeit und die Kosten mit ihren Investments und sie wollen davon profitieren, wenn das Ganze signifikant etwas bringt und vom Markt angenommen wird. Das ist legitim. Sie sagen im übrigen in dem Interview selber, dass AMD die Vorteile durch Mantle oder andere eigene Investments auch AMD zustehen. Sie hatten die Kosten. Aber genau anders herum kann AMD dann eben auch nicht einfordern, dass sie an Dingen beteiligt werden, bei denen Nvidia die Kosten hatte.

Mancko
2014-07-28, 13:01:22
Einen solchen Aussage kann man nur bringen wenn man entweder keine Ahnung hat wie Mantle aufgebaut ist (glaube ich nicht), oder einfach nur ein bisschen Marketing blabla anbringen will weil man keine bessere Begründung hat. Ansonsten können man exakt dasselbe Argument auch für DX12 oder Metal von Apple bringe. Mantle ist keineswegs so lowlevel wie du vielleicht glaubst.


Mantle muss es beweisen. Du träumst von irgendwas, dass eventuell der Fall ist. Mich interessieren nur Fakten und OpenGL und DirectX liefern diese Fakten seid Jahren. Mantle kann diese Fakten erstmal in ein paar Jahren liefern. Bis dahin ist das nun mal ein Risiko das aus heutiger Sicht nicht belastbar aus dem Weg zu räumen ist.

Mancko
2014-07-28, 13:04:20
Du ignorierst weiterhin völlig das AMD, MS, Qualcomm und bis vor kurzem auch NV ihre Sourcen ebenfalls frei zur Verfügung stellen um den Markt voran zu bringen. Weiterhin ignorierst du das nur dadurch echte Innovationen am Markt möglich sind. Wenn ich immer nur exakt den Effekt von NV nehmen kann dann sehen alle Flammen und jeder Rauch in allen Spielen in Zukunft eben gleich aus, wenn du das toll findest bitte. Dann gibt es eben in Zukunft kein SMAA, etc. mehr, da niemand mehr den Sourcecode hat um sowas zu basteln.

Du solltest Nvidia zuhören. Sie sagen selber, dass nach wie vor viele Themen bei denen sie Geld investieren nicht immer direkt nur ihnen Vorteile bringen und das ist auch so. Sie arbeiten ja auch weiterhin an OpenGl und an DirectX mit und auch das ein oder andere Gameworksthema wird irgendwann simpler Mainstream sein. Sie behalten sich aber auch das Recht vor bestimmte Dinge zu gewissen Zeitpunkten exklusiv zu vermarkten. Das ist nun mal absolut legitim. Es ist aber keinesfalls so, dass sie sich vollständig aus der Weiterentwicklung der gängigen APIs zurückziehen. Das wäre auch dumm. Gerade für ihre Bemühungen im Android Segment brauchen sie auch das vorankommen von Standards.

fondness
2014-07-28, 13:05:16
Mantle muss es beweisen. Du träumst von irgendwas, dass eventuell der Fall ist. Mich interessieren nur Fakten und OpenGL und DirectX liefern diese Fakten seid Jahren. Mantle kann diese Fakten erstmal in ein paar Jahren liefern. Bis dahin ist das nun mal ein Risiko das aus heutiger Sicht nicht belastbar aus dem Weg zu räumen ist.

Wenn du auf einem solchen Niveau diskutieren willst bitte. NV würde aus verständlichen gründen niemals eine AMD-API unterstützten, und das soll man auch zugeben und fertig. Hier mit irgend welchen Vorgeschobenen Argumenten zu kommen ist lächerlich.

Mancko
2014-07-28, 13:10:56
Wenn du auf einem solchen Niveau diskutieren willst bitte. NV würde aus verständlichen gründen niemals eine AMD-API unterstützten, und das soll man auch zugeben und fertig. Hier mit irgend welchen Vorgeschobenen Argumenten zu kommen ist lächerlich.

Würde AMD andersherum doch genauso wenig oder glaubst Du die hätten darauf Lust, z.B. CuDa zu unterstützen. So nach dem Mott seht her: Hier könnt ihr Eure Treiber anpassen. Ggf. ändern wir aber irgendwann den Designansatz ein wenig und es wird dauern bis Ihr Euch angepasst habt bzw. werden wir immer Vorteile Euch gegenüber haben.

Wir können die Diskussion an der Stelle sowieso beenden. Es sind unterschiedliche Unternehmen mit unterschiedlichen Geschäftsstrategien und selbstverständlich mit entsprechenden Eigeninteressen. Zudem sind sie direkte Wettbewerber. Keiner wird dem anderen Helfen besser dazustehen und das ist auch ok. Das einzige gemeinsame Interesse wäre vielelicht noch PC Gaming voranzubringen aber auch da kann man bei AMD skeptisch sein. Mit den Konsolen im Rücken hätten sie lieber weniger PC Gaming. Und Nvidia will es genau anders herum. Mehr PC Gaming mit noch mehr Hardwareanforderungen und Spezieleffekten + ein wachsender Markt an Android Gaming.

fondness
2014-07-28, 13:13:53
Würde AMD andersherum doch genauso wenig oder glaubst Du die hätten darauf Lust, z.B. CuDa zu unterstützen. So nach dem Mott seht her: Hier könnt ihr Eure Treiber anpassen. Ggf. ändern wir aber irgendwann den Designansatz ein wenig und es wird dauern bis Ihr Euch angepasst habt bzw. werden wir immer Vorteile Euch gegenüber haben.

Das habe ich auch nicht behauptet.


Wir können die Diskussion an der Stelle sowieso beenden. Es sind unterschiedliche Unternehmen mit unterschiedlichen Geschäftsstrategien und selbstverständlich mit entsprechenden Eigeninteressen. Zudem sind sie direkte Wettbewerber. Keiner wird dem anderen Helfen besser dazustehen und das ist auch ok. Das einzige gemeinsame Interesse wäre vielelicht noch PC Gaming voranzubringen aber auch da kann man bei AMD skeptisch sein. Mit den Konsolen im Rücken hätten sie lieber weniger PC Gaming. Und Nvidia will es genau anders herum. Mehr PC Gaming mit noch mehr Hardwareanforderungen und Spezieleffekten + ein wachsender Markt an Android Gaming.

Da sind die Synergien zwischen Konsolen und PC wohl wesentlich größer als zwischen Android und PC. Dementsprechend versucht AMD natürlich das PC Gaming zu pushen, wer das nicht bemerkt der muss schon verdammt blind sein.

Bei NV sieht es da schon anders aus, denn auch wenn du es nicht wahr haben willst, zahlen tust du die überteuerten Preise bei NV schon lange nicht mehr fürs PC-Gaming, sondern für Tegra ;)

hasebaer
2014-07-28, 13:17:52
Und wieviel nennenwerte Spiele gibt's mit GPU-PhysX?

Wenige, aber das ändert ja nichts daran das Nvidia PhysX weiterentwickelt hat zur erfolgreichsten Physik Engine und das ganz offenbar ohne direktes geldwertes Interesse,
wenn es auch mit Intel, AMD und IBM CPUs läuft und nicht nur mit ARM.

GPU PhysX ist auf dem PC ohnehin nur für Beiwerk gut, weil die Latenzen über PCIe und RAM einfach zu groß sind, für spielentscheidende Effekte.

Arcanoxer
2014-07-28, 13:33:40
NV würde aus verständlichen gründen niemals eine AMD-API unterstützten, und das soll man auch zugeben und fertig.
NVidia hat schon mehrfach gesagt das sie kein Interesse daran haben Mantle zu supporten.

Ätznatron
2014-07-28, 13:41:41
Wenige, aber das ändert ja nichts daran das Nvidia PhysX weiterentwickelt hat zur erfolgreichsten Physik Engine und das ganz offenbar ohne direktes geldwertes Interesse,
wenn es auch mit Intel, AMD und IBM CPUs läuft und nicht nur mit ARM.

GPU PhysX ist auf dem PC ohnehin nur für Beiwerk gut, weil die Latenzen über PCIe und RAM einfach zu groß sind, für spielentscheidende Effekte.

Nur GPU PhysX ist interessant.

Physikeffekte in Software kann jeder, dazu braucht man nVidia gar nicht zu fragen.

Zwischen der Software- und der Hardwarelösung gibt es einen gewaltigen Unterschied:

GPU-PhysX ist schnell - Latenzen hin oder her -, der Softwarekrempel ist lahm, egal, ob SoftwarephyX von nVidia kommt oder einem x-beliebigen anderen.

hasebaer
2014-07-28, 15:01:52
Nur GPU PhysX ist interessant.
Wenn man sich an etwas hochziehen will ohne die technischen Limits zuhinterfragen, dann ja.


Physikeffekte in Software kann jeder, dazu braucht man nVidia gar nicht zu fragen.

Und doch wird Nvidia gefragt, siehe Unreal und Unity Engine.

Kartenlehrling
2014-07-28, 15:21:10
Und doch wird Nvidia gefragt, siehe Unreal und Unity Engine.

Und gerade diese beiden Engine sehen ihr grösstes Geschäft in Mobil und TVapp Spiele, dort sind keine gtx780 verbaut.
Ausserdem ist im moment nur noch Turbulenz und Flex GPUonly.

hasebaer
2014-07-28, 16:19:55
@Kartenlehrling

Es ging nicht um GPUs.

Ätznatron
2014-07-28, 17:04:57
Wenn man sich an etwas hochziehen will ohne die technischen Limits zuhinterfragen, dann ja.





Du möchtest hier also ernsthaft glauben machen, Softwarelösungen seien besser als Hardwareverdrahtungen?

hasebaer
2014-07-28, 17:29:37
Du möchtest hier also ernsthaft glauben machen, Softwarelösungen seien besser als Hardwareverdrahtungen?

Fixed Function hatten wir zuletzt bei HW T&L anno 1999.
Weder auf einer CPU noch auf einer GPU läuft PhysX "in Hardware".

Mancko
2014-07-28, 18:25:38
Das habe ich auch nicht behauptet.
Bei NV sieht es da schon anders aus, denn auch wenn du es nicht wahr haben willst, zahlen tust du die überteuerten Preise bei NV schon lange nicht mehr fürs PC-Gaming, sondern für Tegra ;)

Das ich bei Nvidia für mehr als die reine GPU bezahle ist mir vollkommen klar. Das ist aber nicht nur Tegra. Das ist das gesamte Eco System und das wird in 5 Jahren vollständig zusammengewachsen sein und zunehmend auch Partner wie Valve (Steam) und Google involvieren. Würde ich für Tegra mitbezahlen, würde mich das auch nicht weiter stören. Ich finde Tegra gut. Mir hat zwar nicht jede Version gefallen aber am K1 gibt es m.E. derzeit wenig auszusetzen. Gut fehlen noch ein paar mehr unabhängige Tests aber das Teil sieht bisher doch sehr gut aus. Ansonsten finde ich es nicht ungewöhnlich für eine Premium Marke entsprechend zu bezahlen und so leids mir tut aber gegenüber AMD ist Nvidia Premium. Ich zahle auch für meinen Audi A5 entsprechend Asche. Mit einem Skoda Octavia wäre es wahrscheinlich günstiger. Skoda ist aber nun mal nicht Premium und als Geschäftskunde werde ich dort mit Sicherheit auch nicht so gehätschelt wie bei Audi.

Bei AMD kannst ja genauso dagegen halten, dass die GPU Abteilung derzeit in Summe die CPU Abteilung am Leben halten müsste und ohne Geldgeber wären doch bei AMD schon lange die Lichter ausgegangen. Man könnte auch sagen ihr Geschäftsmodell taugt bisher nur begrenzt um auf eigenen Füßen zu stehen.

-/\-CruNcher-/\-
2014-07-28, 20:13:37
Fixed Function hatten wir zuletzt bei HW T&L anno 1999.
Weder auf einer CPU noch auf einer GPU läuft PhysX "in Hardware".

Physx läuft über Compute über die Shader und da ist ja auch das problem die zeit die resourcen die für Physx gebraucht werden gehen für die Grafik verloren aber nichts destotrotz ist das immernoch effizienter mit 1000 enden von cores parallel als wie auf der CPU die Grafik API und komplexe Physik auf 4 oder 8 cores zu drücken ;)

Wenn jetzt noch Nvidias GI works mit Optix dazu kommt wird es ja noch krasser, das man an Pascal arbeitet wundert da nicht wirklich.

Skysnake
2014-07-28, 21:05:05
Ich glaube nicht, dass AMD hier ein echtes Interesse an Mantle als propertiäre Schnittstelle hat. Man weiss auch bei AMD genau, dass diese sich in der Form niemals durchsetzen wird. Es wird bis zu einem bestimmten Punkt propertiär bleiben und dann geöffnet werden.
Der Vorteil ist, dass es dann eine Spieleschnittstelle für alle Plattformen gibt - das ist das eigentliche Ziel. Man verbessert das Marktumfeld für die eigenen Produkte, es wird für alle Hersteller billiger. Zudem kann man mit Mantle, dass man später öffnet, einen kleinen Vorteil "erschummeln", indem man Einfluss auf die Zukunft der Hardware nimmt. Dafür hatte man aber auch Arbeit damit. Ich finds fair.
Für Linux-Gaming wär Mantle sicherlich ne echte Bereicherung für die Spielehersteller.
Also AMD sollte an sich ein großes Interesse daran haben, Mantle "openSource" zu machen, also zumindest fett Support bei anderen Herstellern einzuwerben. Das passt nämlich sehr sehr gut in ihre HSA pläne. Wenn Mantle HSA pusht, bzw HSA Mantle, dann ist das eine Win-Win Situation, und AMD hat ein sehr sehr sehr großes Interesse daran, das HSA ein Erfolg wird, denn wenn nicht, siehts ziemlich düster aus gegen Intel.

Mit Intels Waffen kann AMD Intel nicht schlagen.

Würde AMD andersherum doch genauso wenig oder glaubst Du die hätten darauf Lust, z.B. CuDa zu unterstützen. So nach dem Mott seht her: Hier könnt ihr Eure Treiber anpassen. Ggf. ändern wir aber irgendwann den Designansatz ein wenig und es wird dauern bis Ihr Euch angepasst habt bzw. werden wir immer Vorteile Euch gegenüber haben.

Wir können die Diskussion an der Stelle sowieso beenden. Es sind unterschiedliche Unternehmen mit unterschiedlichen Geschäftsstrategien und selbstverständlich mit entsprechenden Eigeninteressen. Zudem sind sie direkte Wettbewerber. Keiner wird dem anderen Helfen besser dazustehen und das ist auch ok. Das einzige gemeinsame Interesse wäre vielelicht noch PC Gaming voranzubringen aber auch da kann man bei AMD skeptisch sein. Mit den Konsolen im Rücken hätten sie lieber weniger PC Gaming. Und Nvidia will es genau anders herum. Mehr PC Gaming mit noch mehr Hardwareanforderungen und Spezieleffekten + ein wachsender Markt an Android Gaming.
Wie verblendet muss man bitte sein, zu denken, das AMD kein Interesse daran hätte, das sich PC-Gaming gut entwickelt :freak:

Dir sollte hoffentlich klar sein, das ziemlich sicher lieber ne R9 290x verkauft, als nen PS4/XBone chip. Da werden Sie sehr sicher nämlich mehr dran verdienen.

-/\-CruNcher-/\-
2014-07-28, 21:09:28
Anfangs hatte ich nie das Gefühl das AMD jemals Intel irgendwie schlagen wollte sie wollten einfach nur mitschwimmen und sich dahinter positionieren aber in der tat seit Fusion kommt es einem eher wie ein Wettlauf vor ;)

Ich bin mir sicher der PC wird sich den Konsolen angleichen so wie sich die Konsolen dem PC angeglichen haben, wir brauchen die kürzeren wege und Latenzoptimierungen, die Software immer weiter zu verbessern reicht doch nicht auch wenn Bill Gates ja sagte Software is the Key was auf Nvidia und Gameworks ja durchaus zutrifft momentan :D

Und Nvidia sagt ja sie sind Platform Provider alter ich bin echt gespannt ob Nvidia ihre eigene Konsolen Platform pushen wird mit Pascal (im verdacht hab ich es schon seit dem damaligen anouncement), aber das würde sie in direkte konkurenz zu Sony bringen was pokert Huang da nur rum ;)

Nvidia Shield Tablet
Nvidia Shield Portable

nun was fehlt noch ?

Nvidia Shield Console vielleicht ;)

Es kann auch nichts genialeres geben bei Nvidia als an der zu Arbeiten und alles zusammenzuffasen und zu integrieren was man bisher entwickelt hat :)

Knuddelbearli
2014-08-06, 19:20:08
http://www.tweakpc.de/news/32187/nvidia-schaltet-physx-nutzung-bei-amd-zweitgrafikkarte-ab/

Mit dem aktuellen GeForce 340.52 Treiber von Nvidia lassen sich PhysX-Effekte nicht mehr auf der GPU rendern, wenn eine AMD-Grafikkarte im Rechner steckt. Dies gilt allerdings auch bei einem Misch-Betrieb mit internen Grafikeinheiten von APUs, was derzeit für Frust bei vielen Spielern sorgt.
Die komplette Deaktivierung von Berechnungen bei dem erkennen einer AMD-Grafikkarte im System scheint allerdings nicht beabsichtigt, weshalb Nvidia an dem Problem arbeitet.


Wers glaubt ...

Loeschzwerg
2014-08-06, 19:40:45
Hm naja, die Kombination AMD/Intel APU und NV Graka sollte schon funktionieren, dürfte auch im Interesse von NV sein.

Da haben die halt einen Bock geschossen bei ihrem "Sicherheitssystem", denn im Grunde will man Grafik und Physik zusammen nur auf NV Hardware berechnet sehen.

Skysnake
2014-08-06, 19:41:53
Sowas kommt halt davon, wenn man künstlich Funktionen deaktiviert. Da passiert auch mal nen Fehler, und man deaktiviert auch mehr als man will.

Ob es Absicht ist oder nicht, spielt dabei gar keine Rolle. Allein schon, das es überhaupt passiert, zeigt, das so ein System einfach Mist ist.

EDIT:
Von Intel steht da aber nichts oder?

Loeschzwerg
2014-08-06, 19:44:48
EDIT:
Von Intel steht da aber nichts oder?

Nachdem ja geschrieben wird "was derzeit für Frust bei vielen Spielern sorgt" müssen eigentlich auch Gamer mit aktuellen Intel CPUs betroffen sein.

Wer nimmt schon eine langsame AMD APU und steckt da ne dedizierte NV Karte dazu :freak:

Edit:
NVIDIA GPU PhysX acceleration is not available if there is a non-NVIDIA graphics processor in the system, even if it is not used for rendering.

Aus den Release-Notes -.-

Da fällt einem nichts mehr dazu ein und irgendwie beißt sich die Aussage bei tweakpc mit der in den Release-Notes.

Kartenlehrling
2014-08-16, 15:59:58
Die Schweizer haben Nvidia Gameworks aus ihren Simulationen rausgeworfen :)

http://www.golem.de/news/landwirtschafts-simulator-15-xml-dateien-und-forstwirtschaft-1408-108627.html
Landwirtschafts-Simulator 15 Gamescom 2014

Grafik und Ingame-Physik sind neu, die nahezu perfekte Unterstützung für Modder bleibt: Golem.de hat mit den Entwicklern des nächsten Landwirtschafts-Simulators im Video gesprochen.

Neu ist nach Angaben der Entwickler ein System zur Berechnung von Physik in der Spielewelt.
Im Vorgänger kommen die Physics-Algorithmen von Nvidia zum Einsatz, die allerdings eher für Shooter ausgelegt sind.
Ein Problem ist das vor allem bei der Berechnung der physikalischen Kräfte von Joints, etwa eine Anhängerkupplung zwischen Traktor und Anhänger.
Giants Software hat dafür nun ein eigenes System entwickelt.
Das sorgt unter anderem dafür, dass die Kräfte beim Herunterfahren von einem Berg tatsächlich für den Spieler spürbar sein sollen.

Unicous
2014-08-16, 16:27:03
Und was ist daran jetzt so bemerkenswert?:confused:

PhysX hat nicht zu ihrem Konzept gepasst, also haben sie es ersetzt. Ein umgefallener Sack Reis in Nordkorea verdient mE mehr Aufmerksamkeit.

Kartenlehrling
2014-08-16, 17:10:33
Was heiss den nicht ins Konzept gepasst?
Fakt ist was eine Masse hat rollt den Berg runter, ausser es ist leichter als die Schwerkraft.
Nachdem sich die Splitter in MetroLL Bergauf bewegten wie Waldameisen an einer Perlenschnur wundert mich das sowieso nicht.

Es ist halt verwunderlich das es von Nvidia jahrelang als die echte und Rechner schonende Physikberechung beworben wird und
nun soll es ungenügen sein um einen Anhängergewicht zu berechnen, gerade noch für Shooter geeignet und konzipiert?

Unicous
2014-08-16, 17:15:43
Und dennoch ist es für das Thema uninteressant. Dass PhysX, wie auch Havok oder Bullet, momentan keine realistische Physik darstellen kann/will und dadurch eher ein nettes Gimmick ist, und sich der Traktor eher vielleicht eher wie eine Ragdoll bewegt, ist für das Thema unerheblich.

Kartenlehrling
2014-08-16, 17:32:22
Und dennoch ist es für das Thema uninteressant.

Anscheinen hat das "GameWorks" nicht genug Freiheiten gelassen für eine realische Simulation, noch viel näher kann man nicht am Thema sein.

ndrs
2014-08-16, 17:56:37
Ein umgefallener Sack Reis in Nordkorea verdient mE mehr Aufmerksamkeit.
Dann schreib doch ne News dazu.

Eine Info mehr zum Thema schadet niemandem. Kein Grund gleich den Post schlechtzureden. Wenn es dich nicht interessiert überlies es doch einfach.

Unicous
2014-08-16, 17:59:13
Es ist keine Info zum Thema.


In dem Artikel wird weder PhysX noch GameWorks erwähnt.

aufkrawall
2014-08-16, 18:02:11
Anscheinen hat das "GameWorks" nicht genug Freiheiten gelassen für eine realische Simulation, noch viel näher kann man nicht am Thema sein.
PhysX, nicht GameWorks generell. Ein kleiner Unterschied.

hasebaer
2014-08-16, 19:16:15
Wenn Entwickler, eigene, bessere Lösungen entwickeln können, ist das doch gut.
Die vorgefertigten Effekte von Gameworks/PhysX sind ja dazu da, Entwicklern unter die Arme zugreifen, die nicht über die Mittel, Erfahrung oder die Zeit verfügen für ähnliche Resultate.

Askingar
2014-08-16, 19:18:18
ausser es ist leichter als die Schwerkraft.
Was sollte das sein?

Kriton
2014-08-16, 19:32:12
Was heiss den nicht ins Konzept gepasst?
Fakt ist was eine Masse hat rollt den Berg runter, ausser es ist leichter als die Schwerkraft.
Nachdem sich die Splitter in MetroLL Bergauf bewegten wie Waldameisen an einer Perlenschnur wundert mich das sowieso nicht.

Es ist halt verwunderlich das es von Nvidia jahrelang als die echte und Rechner schonende Physikberechung beworben wird und
nun soll es ungenügen sein um einen Anhängergewicht zu berechnen, gerade noch für Shooter geeignet und konzipiert?

AFAIK ist PhysX doch nur Grafik-Physik und nichts was Gameplay beeinflusst?

AffenJack
2014-08-16, 19:34:40
Nein, Gpu-PhysX ist glaube nur Grafik-Physik, aber der CPU-Teil kann auch den Rest.

ndrs
2014-08-16, 20:09:44
In dem Artikel wird weder PhysX [...] erwähnt.
Im Vorgänger kommen die Physics-Algorithmen von Nvidia zum Einsatz, die allerdings eher für Shooter ausgelegt sind.
Sollte damit nicht oben genanntes gemeint sein?

Askingar
2014-08-17, 08:58:57
Bei Anwendung von PhysX hängt das Ergebnis stark von dem optimalen Verhältnisausgleich von CPU zu GPU ab, so kann ein CPU Update PhysX stark beschleunigen, soweit eine CPU im Verhältnis zur GPU ggf. unterdimensioniert ist und umgekehrt.

Grundsätzlich werden dabei wohl die besten Ergenisse erzielt, wenn Teile auf der CPU und GPU ausgeführt werden, dass Stichwort liegt dabei beim "heterogenen skalieren".

N0Thing
2014-08-17, 21:25:04
Nein, Gpu-PhysX ist glaube nur Grafik-Physik, aber der CPU-Teil kann auch den Rest.

Genau. PhysX ist eine z.B. mit Havok vergleichbare Physik-Engine, die für klassische Dinge wie ragdoll, body dynamics, vehicle dynamics, particles, usw. benutzt wird.
Darüber hinaus bietet Nvidia zusätzliche (optische) Effekte an, die in der Regel nur auf einer GPU schnell genug berechnet werden können, wie man es aus Batman, Metro und weiteren Spielen kennt.

HOT
2014-08-19, 13:02:53
Gameworx Paradefall.
http://www.pcgameshardware.de/Metro-2033-PC-143440/Specials/Technik-Test-1131855/
Halte ich für ein Indiz, dass die AMD-Anschuldigungen nicht so ganz aus der Luft gegriffen sind.

Hübie
2014-08-19, 13:20:30
Du meinst wegen den Benchmarks? Warten wir mal eins, zwei Treiberversionen ab.
Ist zumindest ein Indiz dass AMD das Spiel nicht zum testen da hatte.

Unicous
2014-08-19, 13:30:08
Wollt ihr mich eigentlich auf den Arm nehmen? Ich komme hier in den Thread rein um was Neues über GameWorks zu erfahren, anstattdessen kommt ihr mit Metro Redux und Kuhscheißesimulator XI.

Außer PhysX hat doch Metro gar nichts an Board, soweit ich weiß und das war auch schon vor Redux der Fall. Mysteriös ist der exorbitante Leistungsanstieg der Phantom, aber was hat das konkret mit GameWorks zu tun. U.U. ist in den Benchmarks nicht einmal PhysX an.

ndrs
2014-08-19, 15:44:49
Du meinst wegen den Benchmarks? Warten wir mal eins, zwei Treiberversionen ab.

Genau. Steht sogar im Text:
Die Benchmarks für Metro Redux zeigen ein für die Reihe und AMD-Grafikkarten fast schon typisches Bild: Sie bleiben recht weit hinter ihren Geforce-Pendants zurück. Doch das muss nicht so bleiben, denn sowohl in Metro Last Light als auch Metro 2033 konnten sie nach einigen Optimierungen zu den Nvidia-GPUs aufschließen oder sie gar übertrumpfen.

Raff
2014-08-19, 22:23:46
In Last Light sehen AMD-GPUs aber nach wie vor kaum Land (in der PCGH-Testszene), was vermutlich an der dicken Tessellation liegt und sich daher nicht wirklich optimieren lässt.

Grüße von der Insel,
Raff

dargo
2014-08-19, 22:31:15
In Last Light sehen AMD-GPUs aber nach wie vor kaum Land (in der PCGH-Testszene), was vermutlich an der dicken Tessellation liegt und sich daher nicht wirklich optimieren lässt.

Grüße von der Insel,
Raff
Wie meinst du das jetzt? Die neue oder alte LL-Version? In der alten Version liegt Tahiti sogar ein gutes Stück vor GK104 laut euren Benchmarks.

dildo4u
2014-08-19, 23:56:15
Im neuen Witcher Video kann man Hairworks in Aktion sehen und zwar am Kopf vom dem getöteten Griffin.

http://www.gamersyde.com/hqstream_the_witcher_3_wild_hunt_35_minutes_gameplay-32805_en.html

Blediator16
2014-08-20, 01:07:47
Sieht haar genau so aus wie tressfx 1.0

Hübie
2014-08-20, 02:05:36
In Last Light sehen AMD-GPUs aber nach wie vor kaum Land (in der PCGH-Testszene), was vermutlich an der dicken Tessellation liegt und sich daher nicht wirklich optimieren lässt.

Grüße von der Insel,
Raff


AMD hat doch diesen Tesselation-Schalter. Damit mal getestet?? Wird wahrscheinlich auch kein bissl schlechter ausssehen ;) ;)

Mr. Lolman
2014-08-20, 08:15:01
In Last Light sehen AMD-GPUs aber nach wie vor kaum Land (in der PCGH-Testszene), was vermutlich an der dicken Tessellation liegt und sich daher nicht wirklich optimieren lässt.

Grüße von der Insel,
Raff

Obs daran liegt (was ich persönlich ja eher nicht glaub), kann man leicht über den Tess.schalter im CCC rausfinden...

M4xw0lf
2014-08-20, 08:17:40
Die Redux-Versionen haben laut PCGH-Bildvergleich sowieso weniger Tesselation als die Urversionen. Interessant: Wir stießen auf einige Abweichungen bei der Anwendung von Tessellation. Die Redux-Version verzichtete an einigen Stellen darauf, den Detailgrad durch die Unterteilung der Drahtgittermodelle zusätzlich zu erhöhen, wohingegen das Original die Technik dort nutzte.(Hier nur bezogen auf Last Light, keine Ahnung wie es mit 2033 aussieht.)

-/\-CruNcher-/\-
2014-08-20, 11:07:27
Scheint so als passt man nun auf die Konsolen Hardware (AMD) an.

Air Force One
2014-08-20, 12:27:16
Mir fällt deutlich auf das die Schatten erst relativ spät geladen werden.
Also bei Objekten wie Menschen und Tieren. So ab 00:00:50. (teilweise früher)
Aber wurde bestimmt schon hier irgendwo angesprochen.
Oder sehe ich da nur falsch?

Blediator16
2014-08-20, 18:56:31
http://www.hardocp.com/article/2014/08/18/watch_dogs_performance_image_quality_review#.U_TTJvl_sfg

Läuft besser auf AMD. Gameworks "funktioniert" scheinbar nicht ;)

dildo4u
2014-08-20, 19:04:55
Bis auf HBAO+ nutzt das Game auch nix was AMD "behindern" könnte und HBAO+ gab's schon in Splinter Cell Blacklist,AC4 etc der AMD Treiber ist also schon drauf optimiert.

aufkrawall
2014-08-20, 19:07:10
Auch auf AMD gibts fiese Ruckler mit Ultra Texturen:
http://www.hardocp.com/article/2014/08/18/watch_dogs_performance_image_quality_review/9#.U_TVdGP0UuU

Vielleicht hätten sie mal noch den nächsten Performance-Patch für das Spiel abwarten sollen, der schon angekündigt ist...

dildo4u
2014-08-20, 19:07:55
Bis auf HBAO+ nutzt das Game auch nix was AMD "behindern" könnte und HBAO+ gab's schon in Splinter Cell Blacklist,AC4 etc der AMD Treiber ist also schon drauf optimiert.Interessant wird's mit Witcher 3 und dem Next-Gen Batman beide nutzen Tesselation en Masse.

aufkrawall
2014-08-20, 19:13:08
Na ja, was heißt "en masse"?
Wird trotzdem noch viel kantige Level-Geometrie geben, die man mit Tess totdrücken könnte. So pro NV dürfte das Szenario auch nicht sein.
Mit Hawaii haben sie ja schon ordentlich Boden gutgemacht. Sie sollten es allgemein in der Architektur fixen, dass diese fürchterliche Debatte mal ein Ende findet.

Schnoesel
2014-08-20, 19:18:49
Bei WD liegts am am Gafikspeicher, da helfen gebenchte mehr FPS auch nicht weiter. Eigentlich peinlich bei ner 600€ Graka die Texturen bei 1440p auf high stellen zu müssen :wink: Bei der Auflösung würde ich im Moment eine GTX 780 6GB der Ti vorziehen. Mal sehen wie viel sich Witcher 3 genehmigt. Der Arena Commander auf 1440p @ very high genehmigt sich auch schon 3GB und das ohne AA, ich wills gar nicht wissen wie es bei großen Karten/Schlachten aussieht :tongue:

Was ist nun eigentlich mit den Compute Features von Witcher (wars Hairworks?), werden die auch auf AMD GPUs lauffähig sein? Laut Aussage der Entwickler wären sie es prinzipiell.

PS: Ah da war es, er meinte es sollte mal sehen:

"PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen."

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/

boxleitnerb
2014-08-20, 20:02:18
Bei dem Watchdogs Benchmark von Hardocp weiß man gar nichts über die Taktraten. Über oder Quiet bzw. bei NV TT/PT? Dann ist die 290X eine DD...die NVs dürften vom Basistakt eher nicht wegkommen, die AMDs schon. Naja, da würde ich keine Rückschlüsse auf GW ziehen.

aufkrawall
2014-08-20, 20:07:50
Bei der Auflösung würde ich im Moment eine GTX 780 6GB der Ti vorziehen.
Ach, und du meinst, die 4GB sind in 1440p ohne MSAA voll?
Außerdem ruckelt es auch mit 6GB. Das Streaming ist kaputt, wann checkt es denn hier mal der Letzte...

Diese "Highest playable settings"-Benchmarks sind in der Form vielleicht ein Müll...
SMAA statt tSMAA bringts ja voll, die Deppen habens drauf...

Schnoesel
2014-08-20, 22:11:47
Ja aber dann hast "nur" noch das Ruckeln wegen dem Streaming ohne die heftigeren Nachladeruckler, wenn der Speicher voll läuft (ist auch nicht grad der Knüller). Und nein ohne MSAA (nur mit temporal SMAA) sind die 4GB nicht voll auf 1440p @ Ultra "nur" ca. 3,7 GB. Mit MSAA bräuchte ich auch nicht anfangen zu spielen, da fehlts dann auch an der Leistung die evtl. eine Black OC noch hinbekommt ohne das der Speicher limitiert. Der TI hätte 6GB eben gut gestanden aber Nvidia musste ja noch ne Black rausbringen um den letzten Cent auch noch rauszuquetschen. War ja nicht meine Entscheidung. Und WD wird nicht das einzige Game bleiben, wenn es so weiter geht werde ich mit meinen 4GB @ 1440p auch nicht so lange glücklich wie das geplant war.

Eventuelle Probleme sehe ich bei Witcher 3, Star Citizen, Division , GTA 5.

Hat man denn jetzt schon gehört ob Hairworks/Furworks auch euf Radeons läuft bei Withcer3?

Dann ist die 290X eine DD...die NVs dürften vom Basistakt eher nicht wegkommen

Ja manches ist auch Käse, wie eine OC R9290X kommt an ne Ti ran, was zwar richtig ist aber ne Ti kann man schließlich auch noch takten. Nur eben mehr Speicher wirds dadurch auch nicht.

dargo
2014-08-21, 12:55:55
Ja aber dann hast "nur" noch das Ruckeln wegen dem Streaming ohne die heftigeren Nachladeruckler, wenn der Speicher voll läuft (ist auch nicht grad der Knüller).
Nochmal... was verstehst du jetzt daran nicht, dass es nicht am Vram liegt? Ich habe "nur" 3GB und vor dem letzten Patch hatte ich heftige Ruckler @Ultra Texturen. Jetzt gibt es nur noch ganz minimale Miniruckler @Ultra Texturen. Mit High Texturen läufts absolut sauber. Das Spiel ist immer noch nicht 100% gepatcht.

Schnoesel
2014-08-21, 16:06:32
Ich rede vom VRAM Verbrauch in 1440p @ Ultra. Von was redest du? Da sind 3GB einfach zu wenig period. Da hilft auch kein Patch und wie viele sollen da eigentlich noch kommen bis es richtig "rund" läuft.

Wie wäre es mal mit Belegen dass die 3GB auf 1440p @ Ultra nicht voll sind und nicht zu Nachlederucklern führen anstatt mir vorzuwerfen ich hätte da was nicht verstanden. HCOP kommt zu selben Schluss:

"We are going to group 1440p into this category as well. Anything that is playable at 2560x1600 will also be playable at 2560x1440. This is where the 4GB of VRAM on the AMD Radeon R9 290X and AMD Radeon 290 have the advantage. With these video cards we could run "Ultra" textures. With GTX 780 Ti and 780 we could not."

Das man mit den AMDs genauso wie mit den Nvidias trotz dem + an VRAM noch Ruckler hat die aufs streaming zurückzuführen sind habe ich nie bestritten.

Hübie
2014-08-21, 16:17:56
Ich teste heute Abend mal @1440p. Wird ohne SLi zwar wie grütze laufen aber der vram Verbrauch sollte ja identisch sein.

aufkrawall
2014-08-21, 16:19:23
Der VRAM-Verbrauch ist ohne AFR etwas geringer.
Nimm mal den 337.50 Treiber.

Trotzdem unsinnig, weil man nicht auseinanderhalten kann, was am etwaigen VRAM-Mangel oder was am kaputtem Streaming liegt.

Schnoesel
2014-08-21, 16:30:43
Leider hat harcocp eine GTX 780 6GB nicht mitgetestet aber ich bin mir sicher dass auf folgenden Fameverlauf die starken Ausreißer der Nvidias auf vollen VRAM zurückzuführen sind und man diese Einbrüche auf z.B. 24 FPS bei der GTX 780 mit 6GB nicht beobachten würde:

http://www.hardocp.com/article/2014/08/18/watch_dogs_performance_image_quality_review/8#.U_YA62MQW0k

dildo4u
2014-08-21, 16:34:16
Na ja, was heißt "en masse"?
.
Für Haare und Fell bei Witcher und das Cape bei Batman.Es ist so viel Tesselation das es auf Konsole komplett fehlt.Das ist die Xbox One Version man achte auf den Kopf vom Monster.

http://youtu.be/yKETQ_B0sQ8?t=4m28s

PC
http://www.gamersyde.com/hqstream_the_witcher_3_wild_hunt_35_minutes_gameplay-32805_en.html

dargo
2014-08-21, 17:05:11
Ich rede vom VRAM Verbrauch in 1440p @ Ultra.
Gut... bei 1440p kann ich momentan nicht mitreden da ich auf 1080p beschränkt bin und auch kein DS nutze um das zu prüfen. Dennoch gibt es bei mir mit Ultra Texturen stellenweise Miniruckler die es eigentlich nicht geben sollte. So viel Kompetenz erwarte ich von Ubisoft schon, dass die wissen was die da schreiben "es werden 3GB Vram benötigt". Oder bin ich zu naiv bei Ubi? :tongue:

Was sagt denn das Program bei euch @1440p ohne MSAA? 4GB?

Hübie
2014-08-21, 17:09:43
Also wenn bei BF4 zu wenig VRAM vorhanden ist dann rennt das unter PCIE3.0 dennoch flüssig genug weiter. Das Argument lass ich also nur bedingt gelten. Bei 3 GiB werden wohl unter 1440p wenn dann nur ein paar hundert MiB fehlen welche geswapped werden. Ich denke codas Vermutung dass zu viele uploads gestreamed werden gar nicht so verkehrt ist.

Um das mal zu ergänzen (auch wenn es nicht ganz ins Thema gehört): Im Watch_dogs-Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10321881&postcount=3149) habe ich mal ein paar Worte zu VRAM etc abgelassen. ~3600 MB @1440p.

fondness
2014-08-22, 11:05:48
Vielleicht hätten sie mal noch den nächsten Performance-Patch für das Spiel abwarten sollen, der schon angekündigt ist...

Warst es nicht genau du, der mehrmals sagte das es niemanden mehr interessiert was Monate später kommt? Fakt ist das Spiel ist nicht erst seit gestern auf dem Markt und läuft offenbar auf AMD-Hardware besser.

Hübie
2014-08-22, 12:05:38
Fakt ist dass das Streaming versaut wurde! Und dass IHV-unabhängig. Das als Benchmarks zu nehmen ist also fragwürdig.
Aber natürlich musst du das schreiben, fondness (Themenstarter). :rolleyes:

btw: Es spielen tatsächlich nicht mehr viele. Ich hatte gestern drei, vier Mal keinen Erfolg mich mit anderen Spielern zu verbinden (online-hack etc.). Das als Argument zu nehmen man müsse Fehler nicht mehr beseitigen ist ...ach egal, lassen wir das.

fondness
2014-08-22, 12:37:52
Fakt ist dass das Streaming versaut wurde! Und dass IHV-unabhängig. Das als Benchmarks zu nehmen ist also fragwürdig.
Aber natürlich musst du das schreiben, fondness (Themenstarter). :rolleyes:

Würde es IHV-unabhängig überall gleich schlecht laufen würden wohl kaum solche Testergebnisse heraus kommen.


Das als Argument zu nehmen man müsse Fehler nicht mehr beseitigen ist ...ach egal, lassen wir das.

Das habe ich nirgends gesagt.

aufkrawall
2014-08-22, 14:48:37
Warst es nicht genau du, der mehrmals sagte das es niemanden mehr interessiert was Monate später kommt? Fakt ist das Spiel ist nicht erst seit gestern auf dem Markt und läuft offenbar auf AMD-Hardware besser.
Ignorier ruhig, dass Ultra-Texturen auch auf AMD eklige Ruckler erzeugen. Hauptsache, es passt dir in den Kram und dein Arbeitgeber steht gut da. :)

dargo
2014-08-22, 14:50:47
Um das mal zu ergänzen (auch wenn es nicht ganz ins Thema gehört): Im Watch_dogs-Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10321881&postcount=3149) habe ich mal ein paar Worte zu VRAM etc abgelassen. ~3600 MB @1440p.
Darum gehts mir nicht. Was schlägt die Software bei 1440p vor? Afaik kennt die nur 1GB Schritte. Bei High-Texturen @1080p schlägt sie mir bsw. 2GB vor, bei Ultra Texturen 3GB.

aufkrawall
2014-08-22, 14:52:35
Es berücksichtigt die Auflösung gar nicht, zumindest war das in der Release-Version auch so.
1440p braucht ohne MSAA übrigens häufig nur wenig mehr als 1080p.

dargo
2014-08-22, 14:57:52
Es berücksichtigt die Auflösung gar nicht, zumindest war das in der Release-Version auch so.

Und was macht dich so sicher? Wenns bsw. zwischen 720p und 1080p nur ein paar Hundert MB mehr sind könnten in beiden Fällen @Ultra 3GB fällig sein weil man in beiden Fällen über 2GB liegt.

aufkrawall
2014-08-22, 15:07:54
Man müsste ja nur mal 720p mit 4k in den Optionen vergleichen. Wenn sich die VRAM-Voraussetzung nicht ändert: Müll.

4Fighting
2014-08-22, 15:41:33
Man müsste ja nur mal 720p mit 4k in den Optionen vergleichen. Wenn sich die VRAM-Voraussetzung nicht ändert: Müll.

Redet ihr von der Anzeige im Optionsmenü?
iirc ändert sich die Anzeige Null!

Egal ob 4k oder 1080p -> Ultra braucht immer 3GB an VRAM (gem. dem Watch Dogs Entwickler Team:freak:)

fondness
2014-08-22, 15:44:43
Ignorier ruhig, dass Ultra-Texturen auch auf AMD eklige Ruckler erzeugen. Hauptsache, es passt dir in den Kram und dein Arbeitgeber steht gut da. :)

Das ignoriere ich nicht, aber das ändert auch nichts an den Testergebnissen. Es macht eben einen Unterschied wie stark es ruckelt.
Auch wenn du dir das nicht eingestehen kannst, damit deine Lieblinsfirma nicht schlecht dasteht. :)

Askingar
2014-08-22, 16:02:28
Fakt ist das Spiel ist nicht erst seit gestern auf dem Markt und läuft offenbar auf AMD-Hardware besser.
Auf welcher? AMD CPU+GPU? Eher nicht!

Schnoesel
2014-08-22, 16:40:08
Warum nicht? Mein FX hatte zumindest keine Probleme die Graka in WD zu 100% auszulasten (1440p @ Ultra). Die Engine skaliert ganz gut mit 8 Threads. Eigene Erfahrungen oder ein plumper Versuch AMD CPUs zu bashen?

So schlecht steht ein FX nicht da:

http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Das ein I7 noch etwas mehr Frames bringt möchte ich an dieser Stelle nicht bestreiten.

PS: Ich hoffe das Thema WD ist langsam durch. Ich denke jeder, der das Spiel gespielt hat, weiß, dass das Game nach wie vor buggy ist und wahrscheinlich immer sein wird, egal welche Hardware (zumindest auf Ultra). Es hat mir immer noch keiner sagen können ob Hairworks für Radeons bei witcher 3 auf GPU läuft, nur auf CPU oder gar nicht. Hat keiner Infos dazu?

dargo
2014-08-22, 17:31:56
Man müsste ja nur mal 720p mit 4k in den Optionen vergleichen. Wenn sich die VRAM-Voraussetzung nicht ändert: Müll.
Dann mach es doch einfach mal. :freak: Ich kanns nicht.

aufkrawall
2014-08-22, 17:38:53
Dann mach es doch einfach mal. :freak: Ich kanns nicht.
Stell dir vor, ich auch nicht.

Aber 4fighting hat ja schon 1080p und 4k getestet, das sollte ja wohl reichen.

dargo
2014-08-22, 17:56:28
Das "iirc" verunsichert mich etwas. ;)

Hübie
2014-08-22, 19:11:39
Darum gehts mir nicht. Was schlägt die Software bei 1440p vor? Afaik kennt die nur 1GB Schritte. Bei High-Texturen @1080p schlägt sie mir bsw. 2GB vor, bei Ultra Texturen 3GB.

Das ist statisch. Is wie mit Mindestanforderungen ;)

http://abload.de/thumb/vlcsnap-2014-08-22-19q9s4k.png (http://abload.de/image.php?img=vlcsnap-2014-08-22-19q9s4k.png)

dargo
2014-08-22, 20:27:20
Danke.

Dann ist die Anzeige natürlich Mist. Verstehe nicht was daran so schwer sein kann. Schon GTA IV hatte das ganz gut im Griff.

Askingar
2014-08-22, 23:19:05
Warum nicht? Mein FX hatte zumindest keine Probleme die Graka in WD zu 100% auszulasten (1440p @ Ultra). Die Engine skaliert ganz gut mit 8 Threads. Eigene Erfahrungen oder ein plumper Versuch AMD CPUs zu bashen?

So schlecht steht ein FX nicht da:

http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Das ein I7 noch etwas mehr Frames bringt möchte ich an dieser Stelle nicht bestreiten.

PS: Ich hoffe das Thema WD ist langsam durch. Ich denke jeder, der das Spiel gespielt hat, weiß, dass das Game nach wie vor buggy ist und wahrscheinlich immer sein wird, egal welche Hardware (zumindest auf Ultra). Es hat mir immer noch keiner sagen können ob Hairworks für Radeons bei witcher 3 auf GPU läuft, nur auf CPU oder gar nicht. Hat keiner Infos dazu?
Was soll der Quatsch, du stellst mich als Basher und verlinkst einen Artikel bei dem weder eine AMD GPU noch eine CPU schneller ist und der in DX11 Benchmarks resultiert?

Bashing ja absolutes Bashing...man sprach hier von besser "laufen"! Ich hätte mir wirklich nachvollziehbare Ergebnisse gewünscht. Keine gefunden? Alles andere ist heisse Luft.

Was bedeutet jetzt "besser laufen"...basiert das auf eigene Einbildung?

-/\-CruNcher-/\-
2014-08-23, 09:47:46
Vor allem Havok ist für Intel Optimiert und spielt hier eine nicht unbeachtliche rolle ;)

Hübie
2014-08-23, 10:55:07
Woher stammt deine Erkenntnis, cruncher? Klingt wie eine Phrase ohne Wissen.

Schnoesel
2014-08-23, 11:25:43
@ Asingar

Omg ich geh mal drauf ein auch wenns Korintenkackerei ist.

Du hast auf:

Fakt ist das Spiel ist nicht erst seit gestern auf dem Markt und läuft offenbar auf AMD-Hardware besser.

geantwortet

AMD CPU+GPU? Eher nicht!

Und ich darauf

Warum nicht?

Dass die R9 290 (X) nicht so stark einbricht wie eine Nvidia GTX 780 (ti) mit nur 3GB auf 1440p/1600p @ Ultra hat hardocp ja schon dargestellt und ich habe lediglich verlinkt dass die großen AMD CPUs die R9 290 (X) nicht limitiert. Insofern würde eine Kombination aus FX 8350 und eine R9 290X besser laufen (runder, weniger ruckler etwas besser eben selbst wenn man weniger avg FPS hätte) als eine Kombination aus GTX 780 TI und I7 4770 z.B. (weniger Einbrüche allein durch die Grafikkarte) in diesen Settings.

Hier hast du ein Szenario während du pauschal schon mal einer AMD Kombination die Möglichkeit abgesprochen hast. Es ist ein spezielles Szenario aber keines das aus der Luft gegriffen ist.

Dass eine AMD CPU schneller in diesem Spiel wäre habe ich nie behauptet, da fantasierst du im Gegenteil ich habe das sogar noch dazu geschrieben.

Um mein Anliegen zu konkretisieren. Pauschalisierungen sind einfach fehl am Platz. Die Aussage von Fondness stimmt auch nur wenn den Nvidias der Speicher ausgeht, aber auch die pauschale Aussage dass eine AMD Kombi generell keine Chance hätte besser zu laufen ist nicht richtig.

Askingar
2014-08-23, 12:26:15
Omg ich geh mal drauf ein auch wenns Korintenkackerei ist.

Ja, das ist es, vllt. solltest du im Kontex antworten (heisst nicht dazwischen):

http://media.bestofmicro.com/J/X/437469/original/CPU-FTVOT.png

http://media.bestofmicro.com/J/Y/437470/original/CPU-FROT.png

http://media.bestofmicro.com/H/I/437382/original/High-2560-FR.png

Und für eine AMD Optimierung ist das mal nix, sollte sie denn existieren...es gibt keine richtigen Vergleichsbenchmarks (auch nicht DX vs Mantle oder etwas anderes), an denen man sich langhangeln könnte um zu sagen, viel "besser" oder viel "schneller" dass ist die Krux, dass ist dann tätsächlich nur eigenes Empfinden und darum ging es. Alles andere sollte man dann schon widerlegen. Und genau darum geht es in meinem Posting, um nichts anderes. Zu sehen ist davon jedenfalls nichts. Weder die AMD CPU noch GPU sind schneller oder besser. Eher das Gegenteil ist der Fall! Der 8350 dümpelt auf i5 3550 Niveau durch die Gegend. Die Framtimes sind über viele Hersteller-Modelle (ob jetzt 8, 6 oder 4 Kern) gleich schlecht, was zeigt wie schlecht WD optimiert wurde. (ist auch nix neues, scheint ja die letzen Jahre nicht anders gewesen zu sein beim Launch neuster Spieletitel)

Vor allem Havok ist für Intel Optimiert und spielt hier eine nicht unbeachtliche rolle ;)
Wieso, weil Intel und AMD bei der Weiterentwicklung eng zusammenarbeiten. Vllt. überlegts du mal das es hierbei um CPU beschleunigtes Phys geht! Havoks FX wurde seit geraumer Zeit verworfen. Havok konzentriert sich seit 2004 aufs CPU-Multihreading, auch die SPUs der Konsolen werden unterstützt, wobei man eben versucht genau diese gezielt zu pushen (Xbox etc.). Da ist in neuster Konfiguration derzeit nicht mal Intel Hardware verbaut.

Gerade vor kurzem hat man mitgeteilt die reine Phys-Simulation um Faktor 3 (http://www.pcgameshardware.de/Spiele-Entwicklung-Thema-35261/Specials/Havok-20141-auf-Quadcore-CPU-mit-Leistungssprung-1132159/) steigern zu können, weiter wird sich in Zukunft auch auf das Gameplay konzentriert, was nichts weiter bedeutet dass man dieses über gezielte CPU-Parallelesierungsleistung steigern möchte/können will. Später (Entwicklungen sollen bereits begonnen haben) will man dazu auch die CPU und GPUs einbinden. Bullet und PhysX bieten dies ja schon seit geraumer Zeit.

Ich denke nicht das dort irgendwie Intel optimiert wird.

Schnoesel
2014-08-23, 13:14:53
Ich bezweifle dass du meinen Post gelesen oder verstanden hast. Wer hat denn schon wieder von "viel" besser oder "viel" schneller geredet. Klar ist es eigenes Empfinden und ich empfinde Nachladeruckler als störend. Da können die gemessenen Frames noch so hoch sein.

Was nützen mir avg. 100 FPS wenn mir dauernd der Speicher ausgeht in diversen Szenarien. Du argumentierst in eine völlig andere Richtung. Für dich gibts nur Balken und die sind toll solange sie lang sind. Deine Tomshardwarebench spiegelt das Null wieder da eine Titan mit 6GB genutzt wurde, da kriegst den Speicher auch net so schnell voll. Ich rede doch hier kein Spanisch mir ging es einzig und allein um die Außreißer der 3GB Karten nach unten bei Ultra@ 1440p. Wenn du das nicht verstehst solltest dus sein lassen.

Askingar
2014-08-23, 13:27:58
Na super, ja ich bin zu blöd und kapiers nicht. Asche auf dein Haupt...man, man. Was hat eine fehlende Programmierungsoptimierung mit der Hardware zu tun?:freak:

So ein Gelaber...(die 780ti ist im übrigen schneller) und die Lags liegen an der Auslagerung von Dateien auf die Festplatte. WD fehlt es an einer Sperre für mindestens 6GB freien Ram, die hat man aber absichtlich weggelassen, weil man zuviele ausgeschlossen hätte.

https://twitter.com/Design_Cave

Schönes Tag noch.

Schnoesel
2014-08-23, 13:36:10
Du redest komplett an mir vorbei. Letzter Versuch.

Du redest von schneller und von lags.

Davon habe ich nie geredet ich rede von !Nachladeruckler! aufgrund von fehlenden VRAM.
Willst du mir erzählen dass die Einbrüche der 3GB Karten in 1440p/1600p @ Ultra auf die Auslagerungsdateien auf die Festplatte zurückzuführen sind?

http://www.img-host.de/bild.php/51207,14077D.png (http://www.img-host.de/archiv.php?bild=51207&bild_name=14077D.png)

Warum brechen dann die 4GB Karten nicht so ein wenn dies der Fall wäre. Und nochmal mir ist bewusst dass es die lags genauso bei den Radeons gibt. Vergleich doch mal im Tomshardware Bench die FPS (vor allem min. FPS) der vergleichbar schnellen R280 mit 3GB und der GTX 760 mit 2GB. Zu wenig Grafikspeicher bei WD in bestimmten Settings und die Frames brechen ein.

So damit ist das für mich durch.

Hübie
2014-08-23, 13:45:33
Habt ihrs bald? Es nervt und trägt nichts zum Thema bei. Also demnächst bitte per PN. Danke.

Askingar
2014-08-23, 13:50:49
HBAO+ + TXXA + Ultra.

Habt ihrs bald? Es nervt und trägt nichts zum Thema bei. Also demnächst bitte per PN. Danke.
Sehe ich anders.

http://www.gamestar.de/spiele/watch-dogs/news/watch_dogs,48384,3056228.html
http://winfuture.de/news,81993.html
...

Kartenlehrling
2014-08-23, 14:53:14
Wieso nennst du dich hier im Forum anders, Sontin?

-/\-CruNcher-/\-
2014-08-23, 14:58:41
Blödsinn der einzige Gameworkscode is HBAO+/TXAA und AMD hat ihre treiber ja angepasst

AMD und andere GPU user können ohne problem Temp SMAA und MHBAO einsetzen der Qualitätsverlust ist absolut minimal, zumal viele Szenen auch intern an MHBAO angepasst wurden.

Askingar
2014-08-23, 15:18:47
Blödsinn der einzige Gameworkscode is HBAO+/TXAA und AMD hat ihre treiber ja angepasst

AMD und andere GPU user können ohne problem Temp SMAA und MHBAO einsetzen der Qualitätsverlust ist absolut minimal, zumal viele Szenen auch intern an MHBAO angepasst wurden.
Ja, genau, das macht es dann im direkten Vergleich ja so schwer.

-/\-CruNcher-/\-
2014-08-23, 17:42:11
Ja, genau, das macht es dann im direkten Vergleich ja so schwer.

Das Balancing ist bei HBAO+ testen und vergleichen bei Watch_Dogs einfach komplett different man sollte sich auf MHBAO bei jedem GPU test Hardware konzentrieren, meiner Meinung.

Auf mich wirkt es mit HBAO+ zum teil extreme übertrieben als wäre das ganze Workflow nicht dafür ausgelegt worden.


http://www.ld-host.de/uploads/images/893d621f1fbaf8c32cef7b78d935a2b6.png
http://www.ld-host.de/uploads/images/a365ec397a0d2628dd935907a52f7b3a.png

aufkrawall
2014-08-23, 17:48:48
Dafür sind andere Flächen ohne zu hell.
Ist außerdem eine Design-Entscheidung des Entwicklers, wie stark der Effekt sein soll. Gibt eine ShadowWorks-App, bei der man einfach nur an Reglern drehen muss.
Insbesondere die Vegetation ist nur mit MHBAO unglaubwürdig.

Ein wenig mehr Kontrast tut bei dem Ekellighting auch ganz gut. Wie absolut gleich hell die ganzen Flächen sind, das wirkt völlig steril.
Das absolut Schlimmste an der WD-Grafik.

-/\-CruNcher-/\-
2014-08-23, 18:06:17
Ganz unrecht hast du da nicht (teils ist es aber auch der Art Style, der halt differenzieren soll) mehr dann bei FC4 , AC5 und WD2 ;)

Und ja der Schattenwurf beim Grass ist mit HBAO+ um Welten besser egal ob am Tag oder im Night Rendering ;)

Askingar
2014-08-23, 18:57:06
Das Balancing ist bei HBAO+ testen und vergleichen bei Watch_Dogs einfach komplett different
Ja, dass braucht eben Zeit. Trotzdem macht das Ganze Fortschritte, es muss nicht immer die Hardware Schuld sein. Mittlerweile reicht ja auch weniger. Einige Modi bleiben trotzdem inklusive, und andere wurden dann Hardwarebedingt extrem optimiert. Diese dann für Vergleiche aus zu suchen macht ja keinen Sinn. Aber egal, könnte sein man redet aneinander vorbei.

So schlecht siehst dann doch nicht aus. ;) Ist ja auch schon eine Weile her.

http://www.pcgameshardware.de/screenshots/811x455/2014/03/Watch_Dogs_new_Screenshot_Maerz__7_-pcgh.jpg
https://twitter.com/Design_Cave/status/455476639083028481

-/\-CruNcher-/\-
2014-08-24, 00:49:15
Ja, dass braucht eben Zeit. Trotzdem macht das Ganze Fortschritte, es muss nicht immer die Hardware Schuld sein. Mittlerweile reicht ja auch weniger. Einige Modi bleiben trotzdem inklusive, und andere wurden dann Hardwarebedingt extrem optimiert. Diese dann für Vergleiche aus zu suchen macht ja keinen Sinn. Aber egal, könnte sein man redet aneinander vorbei.

So schlecht siehst dann doch nicht aus. ;) Ist ja auch schon eine Weile her.

http://www.pcgameshardware.de/screenshots/811x455/2014/03/Watch_Dogs_new_Screenshot_Maerz__7_-pcgh.jpg
https://twitter.com/Design_Cave/status/455476639083028481

Dieser Screenshot ist ein Bullshoot non Gameplay er hat mit der eigentlichen Gameplay Rendering wirklichkeit nicht viel zu tun ;)

Vegetation shading improvement HBAO+


http://www.ld-host.de/uploads/images/66ba7ccaa1bc5c3ed7d31d6a6a62f731.png
http://www.ld-host.de/uploads/images/de947518269d7192edb3320c46524a78.png

dildo4u
2014-09-19, 14:20:42
GeForce Tech Demo: VXGI

http://youtu.be/_E1oVl2d01Q

Mondlandung UE 4.0 Techdemo mit Voxel Global Illumination

http://youtu.be/xXYLZwlpX5A

including VXGI, a new real-time global illumination lighting engine.

VXGI stands for voxel global illumination, which works by converting a 3D scene into voxels and using them to store lighting information such as how much is emitted or reflected by that voxel. VXGI then uses a form of cone tracing to approximate how light is bounced around a scene.

And if that sounds a tad familiar, that's because Epic attempted something very similar (based on Nvidia's research) back when it announced Unreal Engine 4. The feature was removed before launch, which Nvidia put down to the feature being computationally "too expensive" for GPUs of the time.

Nvidia claims VXGI is much easier on the GPU, but the company has built specific hardware processing into the GTX 980 to help things along. VXGI is also coming to third-party engines, including Epic's Unreal and Crytek's CryEngine, later in the year.

http://www.gamespot.com/articles/nvidia-takes-on-next-gen-lighting-with-its-vxgi-gl/1100-6422424/

http://abload.de/img/vxgi-overview-slidenvkzn.png

Unicous
2014-09-19, 15:01:16
Wäre es nicht besser einen eigenen Thread aufzumachen? Das ist ja kein Sammelthread.

AffenJack
2014-09-19, 15:11:03
Ja, so richtig machts hier wenig Sinn. Die deutlich interessantere Komponente der Gameworks Ankündigungen in Bezug auf diesen Thread ist hier auch noch nicht. Die Ankündigung, dass nen Großteil von Gameworks auf die Konsolen portiert wird. Also muss Gameworks, wenn es da Leute erreichen will zwangsläufig auch halbwegs auf AMD laufen. Es würde mich eigentlich bie Konsolen erst recht wundern, wenn sich Programmierer das antun ohne den genausen Sourcecode ansehen zu können, wo man doch auf Konsolen sonstwas optimiert. Vielleicht hat die Presse ja gewirkt und Nv öffnet sich da etwas?

Unicous
2014-09-19, 15:13:16
Ja, es wird auf AMD System laufen: per Software Fallback.:freak:

Kartenlehrling
2014-09-19, 16:12:15
Was einwenig störend ist das AMD das schon vor einem Jahr presentiere mit ihren depth of field Reduzierung und der Tiled Lighting und nun verkauft es Nvidia hier, vielleicht mit zeitlicher leichter Aufwertung aber doch als ihr Baby.

Kartenlehrling
2014-09-29, 01:38:15
Ein Tag beim Nvidia Friseur ...


http://wccftech.com/wp-content/uploads/2014/09/The-Witcher-3-2.png

Screemer
2014-09-29, 01:39:56
also die drei definitiv nicht.

Skysnake
2014-09-29, 01:42:26
also Gerald sieht irgendwie seltsam aus, also seine Haare. Die der Frauen gehen an sich, aber sieht dennoch "seltsam" aus. TressFX empfinde ich da als weniger "aufgesetzt" von der Optik her, so lange man nicht nen Kolissionbug sieht.

Arcanoxer
2014-10-24, 16:31:08
Ist das hier der einzige GameWorks thread? :confused:

NVIDIA TurfEffects
kLVa0NOFdwM

CountDoku
2014-10-24, 16:47:08
Ja. Ich finde das sieht einfach grossartig aus. Bitte in Games integrieren sowas will jeder sehen. Beeindruckend wie visionär nVidia denkt. Fortschritt statt Stillstand.

Man bedenke wie jeder Grashalm sich bewegt. Für solche Sachen liebt man den PC.

aufkrawall
2014-10-24, 16:51:47
Gibts irgendwo ein HQ-Video, wo man erkennt, wie das Gras im Hintergrund animiert ist?

Arcanoxer
2014-10-24, 16:56:49
Gibts irgendwo ein HQ-Video, wo man erkennt, wie das Gras im Hintergrund animiert ist?
Computerbase hat ein Artikel dazu, wirklich besser als der 1080p youtube clip ist es imho aber auch nicht.

Nvidia GameWorks: Fußstapfen im Gras mit TurfEffects (http://www.computerbase.de/2014-10/fussstapfen-im-gras-mit-turfeffects/)

CountDoku
2014-10-24, 16:59:28
Ich freue mich schon so ungemein auf Witcher 3 das könnt ihr euch nicht vorstellen. Gameworks in Aktion zu sehen. Dafür steht ein PC hier und keine Dreckskonsole:)

Kartenlehrling
2014-10-28, 19:05:50
Ich musste da unweigerlich an Gameswork Vorwurf denken.


http://www.golem.de/news/manipulierte-benchmarks-intel-muss-us-kaeufern-des-pentium-4-schadensersatz-zahlen-1410-110153.html
Manipulierte Benchmarks

differenzdiskriminator
2014-10-29, 13:01:21
Ich musste da unweigerlich an Gameswork Vorwurf denken.
Was hat Intel zu P4 Zeiten (!) mit NVIDIA heute zu tun? :confused:

Kartenlehrling
2014-10-29, 13:07:59
Das war mir klar das Du @Sontin das nicht erkennst.

differenzdiskriminator
2014-10-29, 13:10:03
Das war mir klar das Du @Sontin das nicht erkennst.
Was möchtest du mir mitteilen?

Außer, dass du irgendwelche Zusammenhänge herbei konstruierst?

Blediator16
2014-10-29, 13:17:03
Kommt schon. Bis jetzt hat Gameworks nichts negatives für AMD gebracht, also wieso jetzt sowas schonwieder?

differenzdiskriminator
2014-10-29, 13:21:05
Kommt schon. Bis jetzt hat Gameworks nichts negatives für AMD gebracht, also wieso jetzt sowas schonwieder?
Eben. Außer ein paar peinlichen Versuchen des Drecks werfen durch Mr. Huddy war da schlicht nichts. Er hat ja nicht ohne Grund nur kindliche Andeutungen in den Raum geworfen, statt mal konkret Fakten zu nennen. Warum wohl?

Blediator16
2014-10-29, 13:22:11
Wer was von den PR Leuten redet ist mir scheiss egal. Ich bin Emotional mit keiner Marke verbunden, solange das Produkt mir persönlich zusagt, wird es gekauft.

M4xw0lf
2014-10-29, 13:25:06
Kommt schon. Bis jetzt hat Gameworks nichts negatives für AMD gebracht, also wieso jetzt sowas schonwieder?
Die sehr unterdurchschnittliche Performance in GW-Spielen wie AC 4 und Watch Dogs erklärt man dann wie plausibel?

Blediator16
2014-10-29, 13:25:43
Die sehr unterdurchschnittliche Performance in GW-Spielen wie AC 4 und Watch Dogs erklärt man dann wie plausibel?


Ubisoft.

-/\-CruNcher-/\-
2014-10-29, 13:32:44
Die sehr unterdurchschnittliche Performance in GW-Spielen wie AC 4 und Watch Dogs erklärt man dann wie plausibel?

Einfach sie wurden mit mehr resourcen für die Konsolen Optimiert und AMD hat dadurch immer einen Vorteil wenn das passiert ganz automatisch egal ob auf PC oder Konsole ;)

Deswegen macht Nvidia nette gegen Angebote das es nicht soweit kommt das sie gänzlich absacken ;)

Hier werden auch schon die Grundsteine für die nächste Konsolen Generation bestimmt mit denen man überzeugen will ;)

Ubisoft als quasi direkter Nvidia Partner wird hier bessonders interessant zu beobachten da sie mitten zwischen den Stühlen stehen und beides bieten wollen ohne kompromisse was bei Watch_Dogs erstmal ziemlich schiefgelaufen ist bis kurz vor Maxwell release ;)

Crytek musste auch wieder zurückrudern mit Patches nach ihrer Konsolen Optimieruns odyse auf AMD ;)

Mit den Verkaufszahlen von Maxwell sieht es nicht schlecht aus das mehr resourcen wieder frei werden für Nvidia Optimierungen bei vielen :)

-/\-CruNcher-/\-
2014-10-29, 20:22:35
Lol das wird jetzt interessant

http://www.geforce.com/whats-new/articles/warface-physx-nvidia-gameworks

ich frag mich ob Gamer sich diese Competitive Nachteile wirklich geben ;)

tdon
2014-10-29, 20:31:53
Die sehr unterdurchschnittliche Performance in GW-Spielen wie AC 4 und Watch Dogs erklärt man dann wie plausibel?


Mit schlechten Treibern.

y33H@
2014-10-31, 16:11:56
Gameworks auch in The Crew, HBAO+ und TXAA:

cEQPxFdFpMw

-/\-CruNcher-/\-
2014-10-31, 16:18:05
Gameworks auch in The Crew, HBAO+ und TXAA:

http://youtu.be/cEQPxFdFpMw

Wundere mich wer das X7 Gpus versteht hehe ;)

Damit ist die GTX x70 serie gemeint ;)



Kann es kaum erwarten wenn die Videos anfangen damit GIWorks zu präsentieren bei Ubisoft (together with Nvidia and especially optimized for the 970 and 980 series Maxwell we have included GI Works Nvidias state of the art Realtime global illumination rendering) ;)

So what you saw in titles such as Watch_Dogs and or the AC4 and ACU series which took us time to compute on our Cuda powered Render Farm we can now present you in Realtime with much nicer integrated lighting result and as a side effect we reduced our overall Space Requirements by a big portion, so you have a much faster download experience ;)

Da bin ich echt gespannt was sich das Marketing einfallen lässt ;)

Kartenlehrling
2014-10-31, 16:47:45
Wundere mich wer das X7 Gpus versteht hehe
Damit ist die GTX x70 serie gemeint

das hast du dir aber aus den Finger gesogen,
wie kommst du auf soo ein Quatsch oder kann du das mit einem Nvidia Link belegen.

Nvidia hat doch verbessere HBAO+ und TXAA vor 2 Jahren angekündigt, und künftig alle Ubisoft PC-games damit ausstatten.

-/\-CruNcher-/\-
2014-10-31, 16:52:17
die latency kann erst mit der GTX x70 ordentlich gehalten werden für beides, darunter wird man mehr einbusen haben, must du nicht verstehen gegensteuern wird hier der DX12 umschwung etwas

N0Thing
2014-10-31, 18:33:15
Also eine GTX 470 wäre geeignet, eine GTX 760 nicht? Da bin ich mal gespannt.

blaidd
2014-10-31, 19:11:13
Gameworks auch in The Crew, HBAO+ und TXAA:

http://youtu.be/cEQPxFdFpMw

"Keine spürbarenbaren Performance-Einbußen für HBAO+"? Lol.

In der Beta von The Crew konnte man HBAO+ nur auf Nvidia-Grafikkarten aktivieren, nicht mit AMD-GPUs. Stattdessen ging AMDs HDAO, was wiederum mit einer Geforce nicht aktivierbar war.

y33H@
2014-10-31, 19:32:35
Bisher hat HBAO+ ziemlich reingehauen ...

aufkrawall
2014-10-31, 20:14:35
Das tut AO oft, HBAO+ ist nicht wirklich teurer.
Ob es unbedingt besser aussieht, sei manchmal dahin gestellt. Bei WD hats im Gras ganz gut geflimmert.

blaidd
2014-10-31, 20:49:02
Das tut AO oft, HBAO+ ist nicht wirklich teurer.
Ob es unbedingt besser aussieht, sei manchmal dahin gestellt. Bei WD hats im Gras ganz gut geflimmert.

Ich gehe mal stark davon aus, das damit gemeint war: "kein spürbarer Performance-Verlust gegenüber regulärem AO". Alles andere wäre ziemlicher Unfug :wink: Trotzdem ein bisschen ungeschickt formuliert...

Eigentlich sollte gerade Gras und feinere Strukturen weniger stark flimern, wenn HBAO+ zum Einsatz kommt. Das ist ja dank "voller Auflösung" eine Stärke gegenüber regulärem AO. Wobei es ein "reguläres" AO wohl eigentlich gar nicht gibt, es gibt unzählige verschiedene Variationen und Berechnungsarten. Ob die jetzt alle HBAO+ unterlegen sind, lasse ich mal dahin gestellt :wink:

aufkrawall
2014-10-31, 21:09:10
Ich denke, Unterabtastung ist genau das, was das Flimmern verursacht. Sieht nach typischem Aliasing aus.
Normalerweise ziehe ich AO-Lösungen vor, die vielleicht weniger (realistisch) decken, aber dafür weniger artifuckten.
Diese Halos vor schattierten Bereichen sind auch nicht so schön. Trotzdem war HBAO+ in den Spielen, in denen es sie gab, eigentlich immer insgesamt am besten.

Ich wüsste mal gerne, was es mit der per Config aktivierbaren SSAO von Risen 3 aufsich hat. Ist die beste Implementierung, die ich mit D3D9 bisher gesehen hab (wenn auch nicht perfekt). Gibt keine GW-DLL. ;)

Hübie
2014-11-01, 15:12:08
Gameworks auch in The Crew, HBAO+ und TXAA:

http://youtu.be/cEQPxFdFpMw

Das Gelaber is genau das gleiche wie in Watch_Dogs. Was rauskam wissen wir alle. Und die Bilder mit TXAA hätte ich an deren Stelle nicht gezeigt, weil das einfach nur aussieht als würde man durch ein Aquarium glotzen. Fehlen nur noch Fische, Algen und Pflanzen :rolleyes:
Merkt man eigentlich dass ich UbiSchrott hasse??? :freak::biggrin:

fondness
2014-11-01, 15:34:01
Merkt man eigentlich dass ich UbiSchrott hasse??? :freak::biggrin:

Merkst du eigentlich das die beworbene Techniken alle von Nvidia kommen?

captain_drink
2014-11-01, 16:56:38
Merkst du eigentlich das die beworbene Techniken alle von Nvidia kommen?

Genau, die haben die sicherlich persönlich ins Programm getippt. Wenn der AMD-Bias mal wieder die Synapsen blockiert...

fondness
2014-11-03, 17:30:47
Genau, die haben die sicherlich persönlich ins Programm getippt. Wenn der AMD-Bias mal wieder die Synapsen blockiert...

Danke für die persönliche Anmache. Das sind Nvidia closed Source Libs, natürlich kommt der Code für diese Effekte von Nvidia.

captain_drink
2014-11-03, 22:35:31
Danke für die persönliche Anmache. Das sind Nvidia closed Source Libs, natürlich kommt der Code für diese Effekte von Nvidia.

Die Entscheidung dafür getroffen und deren Implementierung vorgenommen haben jedoch die Leute bei Ubisoft, weshalb es unsinnig ist, Nvidia die Verantwortung anzulasten. Ist ja nicht so, dass Nvidia irgendwen zur Nutzung zwänge...

fondness
2014-11-04, 00:01:03
Die Entscheidung dafür getroffen und deren Implementierung vorgenommen haben jedoch die Leute bei Ubisoft, weshalb es unsinnig ist, Nvidia die Verantwortung anzulasten. Ist ja nicht so, dass Nvidia irgendwen zur Nutzung zwänge...

Also laut den Witcher-Leute trifft die Entscheidung zur Nutzung jedenfalls nicht der Entwickler, sondern das Management. Und dieses fällt solche Entscheidungen üblicherweise nicht ohne guten (finanziellen) Grund.

N0Thing
2014-11-04, 00:18:09
Im Interview mit der PCGH (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/) klingt es eher so, als ob die Entwickler die Entscheidung haben, ob und welche Elemente von GameWorks im Spiel integriert werden.

Die einzig genannte Ausnahme ist APEX-Turbulence, welches nur auf Nvidia-GPUs möglich ist und dies deshalb eine "Buisness-Sache" sei und eh keinen besonderen Vorteil für die Spieler bringen würde.

fondness
2014-11-04, 00:26:04
Wenn der Lead-Engine-Entwickler schon sagt das die Verwendung eines Nvidia-Effekts Business-Sache ist und dann noch dazu erwähnt das es laut ihm keinen Vorteil bringt ist das schon ziemlich eindeutig und war wohl bereits deutlich mehr als er überhaupt sagen dürfte. Das Nvidia solche "Buisness-Deals" nicht auf einen Effekt beschränkt sollte klar sein. Das er nicht mal weiß ob und wenn ja welche Effekte später auf Radeon-Karten laufen spricht Bände.

dildo4u
2014-11-04, 00:27:54
So lange man es abschalten kann ist es doch egal für AMD User,man wird bei diesen Multiport's immer die Option haben,es auf Konsole Level zu reduzieren,wo es dann optimal auf AMD Hardware laufen sollte.

N0Thing
2014-11-04, 00:33:41
@fondness

Sehe ich anders. Wenn der Entwickler bei allen anderen Punkten davon spricht, daß sich das Team teilweise für und gegen bestimmte Effekte aus der Hand von Nvidia entschieden hat und bei einem Punkt sagt, dieser sei nicht in der Hand der Entwickler sondern des Managements, dann ist für mich klar, daß Nvidia den Entwicklern nicht alles vorschreiben kann. Andernfalls müßte man ihm vorwerfen, im restlichen Interview gelogen zu haben und dies würde ich mir nicht anmaßen wollen.

fondness
2014-11-04, 00:35:58
@fondness

Sehe ich anders. Wenn der Entwickler bei allen anderen Punkten davon spricht, daß sich das Team teilweise für und gegen bestimmte Effekte aus der Hand von Nvidia entschieden hat und bei einem Punkt sagt, dieser sei nicht in der Hand der Entwickler sondern des Managements, dann ist für mich klar, daß Nvidia den Entwicklern nicht alles vorschreiben kann. Andernfalls müßte man ihm vorwerfen, im restlichen Interview gelogen zu haben und dies würde ich mir nicht anmaßen wollen.

Kommt mir eher so vor das es ihm irgendwann gereicht hat das er sich immer für diese NV-Effekte rechtfertigen muss. Er sagt ja auch dort zu Beginn "Wir denken darüber nach, es zu implementieren." - um dann nachher einzuschränken das dies nicht seine Entscheidung sei. NV kann ihnen sicher nicht alles vorschreiben, aber sie werden wohl kaum ausgerechnet auf einen einzigen Effekt bestehen. Aber okay genau erfahren werden wir es ohnehin nie, ist ja schon eine kleine Sensation das ein Entwickler überhaupt so auspackt und zeigt schon eine ziemliche Unzufriedenheit mit dieser Situation.

Schaffe89
2014-11-04, 00:36:15
Seien wir mal ehrlich, dieser ganze Gameworks und Gaming Evolved scheiß ist doch albern.
Anstatt sich mal gemeinsam hinzusetzen und etwas weiterzubringen, wird mit solchen witzlosen Zusatzfeatures der Kunde angelockt und dann verarscht.

Kartenlehrling
2014-11-04, 00:50:07
Bei "Lords of the Fallen" ist doch nur der Turbulenz Effekt GPU, was sieht man denn bei AMD Grafikkarten, ganz weglassen werde sie es doch wohl nicht?
Bei witcher3 wird es wohl genauso, Staub und Rauchverwirblunge werden sie Nvidia only bringen.

captain_drink
2014-11-04, 00:57:01
Also laut den Witcher-Leute trifft die Entscheidung zur Nutzung jedenfalls nicht der Entwickler, sondern das Management. Und dieses fällt solche Entscheidungen üblicherweise nicht ohne guten (finanziellen) Grund.

Hatte ich etwas anderes behauptet? Ubisoft ist Publisher und hat die Implementierung besagter Effekte befürwortet. Wie auch immer, Nvidia zwingt niemanden zur Verwendung von Gameworks, deshalb war der Verweis deinerseits unsinnig.

StefanV
2014-11-04, 03:03:58
So lange man es abschalten kann ist es doch egal für AMD User
Ahja?! Und was ist mit den Intel Nutzern? Sollen die auch in die Röhre schauen? (vorausgesetzt es gäbe irgendwann mal gescheite Intel GPUs). Und was ist, wenn 'something new' kommt und auf den Markt drückt? Sollen die auch alle in die Röhre schauen?!

Das Schlimme an diesem Zustand ist, dass es immer noch einige Leute gibt, die diesen Zustand noch schön reden müssen.
Da muss man einfach mal unterstellen, dass diese Leute einfach die Zusammenhänge nicht verstanden haben oder wollen, weil sie dem 'nVidia Glauben' angehören...

Dass das für uns Gamer eigentlich eine ziemlich schlimme Sache ist, scheint bei einigen noch nicht so ganz angekommen zu sein, irgendwie.

Noch einmal zum Mitmeißeln:
Es werden hier Effekte von Entwicklern implementiert, von denen sie mal überhaupt nicht wissen, was da überhaupt passiert. Und ob sie überhaupt auf anderer Hardware als von 'dem einen' ausgeführt werden könnten...

In ein paar Jahren, wenn HBM nicht mehr allzu teuer ist, werden wir die Situation haben, dass man ohne dedizite Grafikkarte ganz anständig zocken könnte. Spätestens dann gibt es noch einen dritten Mitspieler, auf dem diese Dinge auch nicht nutzbar sind...

Das ist echt nicht, was wir hier brauchen. Ganz im Gegenteil. Das ist ein Zustand, der einfach nur den PC-Gaming Markt behindert bis zerstört.

Denn warum sollt ich mir einen PC kaufen, wenn ich auf Konsolen solch einen Müll nicht ertragen muss?
Langfristig gesehen denke ich nicht, dass diese Strategie, die nV hier versucht abzuziehen, aufgehen wird...

4Fighting
2014-11-04, 07:06:32
Das Schlimme an diesem Zustand ist, dass es immer noch einige Leute gibt, die diesen Zustand noch schön reden müssen.
Da muss man einfach mal unterstellen, dass diese Leute einfach die Zusammenhänge nicht verstanden haben oder wollen, weil sie dem 'nVidia Glauben' angehören...

Und du bist natürlich völlig "farb-neutral" oder?:freak: ist klar;D

differenzdiskriminator
2014-11-04, 09:01:09
Wenn der Lead-Engine-Entwickler schon sagt das die Verwendung eines Nvidia-Effekts Business-Sache ist
Also doch Ubisoft, wie schon gesagt wurde.

Thema geklärt.

aths
2014-11-04, 10:42:07
Seien wir mal ehrlich, dieser ganze Gameworks und Gaming Evolved scheiß ist doch albern.
Anstatt sich mal gemeinsam hinzusetzen und etwas weiterzubringen, wird mit solchen witzlosen Zusatzfeatures der Kunde angelockt und dann verarscht.
Gemeinsam hinsetzen ist kaum möglich, wenn beide um dieselbe Kundschaft buhlen. Anstatt zu überlegen, wie man gemeinsam den zu verteilenden Kuchen größer macht (also den PC als Gaming-Plattform attraktiver macht) versuchen die lieber, sich Kunden abzunehmen. Das ist kurzfristig negativ, da wir dämliche Logos beim Spielstart bekommen und einige Games nicht alle Effekte auf allen PCs derselben Klasse anzeigen.

Langfristig sehe ich es eher positiv: Sinnvolle Entwicklungen setzen sich durch und werden auf die eine oder andere Art dann auch von der Konkurrenz aufgegriffen. Letztlich entscheidet der Kunde, was sich durchsetzt.

Würden sich beide zusammensetzen, könnten sie einfach vorgeben was der Kunde bekommt, der dann gar keine Wahl mehr hat.

StefanV
2014-11-04, 12:26:27
Sinnvolle Entwicklungen setzen sich durch und werden auf die eine oder andere Art dann auch von der Konkurrenz aufgegriffen. Letztlich entscheidet der Kunde, was sich durchsetzt.
Ahjo, wann hat sich denn eine sinnvolle Entwicklung wirklich durchgesetzt?!

So in der Vergangenheit schaute es eher so aus, als ob sich immer das schlechtest mögliche durchgesetzt hat. Siehe VHS. Siehe Windows...
Oder der Knaller schlechthin: Blei im Sprit, obwohl man damals schon über Ethanol nachdachte, um die Klopffestigkeit zu erhöhen. All das sind Dinge, die belegen, dass man eben NICHT den sinnvolleren Weg einschlägt.

Und auch sehe ich es anders.

DAS; was hier gerade passiert, ist eher dass man sich das eigene Grab schaufelt, dass mehr Leute vom PC Gaming abgeschreckt werden und sich lieber 'ne Konsole kaufen, um Spiele zu spielen, da sie dort nicht mit solch einem Mist zu tun haben...
Was nV hier gerade abzieht, ist einfach nur kurzfristige Gewinnmaximierung. Auf lange Sicht wird das eher ein weiterer Weg zu ihrem eigenen Grab sein...

Lass mal Intel und AMD HBM auf APUs packen und die auch die GPU entsprechend breit auslegen. Dann ists Asche mit den meisten Grafikkarten. Da kannst durchaus befürchten, dass der gesamte Markt bis einschließlich der 750 bzw Radeon 270 komplett wegfällt, da in CPU integriert. Wenn die beiden Hersteller das wollen natürlich nur...

Und nur mit High End Karten kann man nun auch nicht unbedingt überleben.


Anyway: Gameworks ist eher etwas äußerst negatives. Der Witcher3 Entwickler hat sich ja auch schon mehrfach sehr deutlich dazu geäußert. Nämlich, dass er selbst es richtig scheisse findet. Im Rahmen seiner Möglichkeiten hat er alles gemacht, was er konnte, um sich gegen diesen Bullshit zu wehren...

Aber dass das echt scheiße ist, was hier gerade passiert, wird auch noch schön geredet von einigen Herrschaften. DAS ist das Schlimme. Und alle, die anderer Meinung sind, werden da geflamt...

Erinnert ein wenig an das, was fefe hier schrieb (http://blog.fefe.de/?ts=aab297e4), was hier gerade passiert, leider.

boxleitnerb
2014-11-04, 12:47:49
Och meine Meinung dazu ist immer noch dieselbe - besser es kümmert sich jemand drum als gar niemand. Ob das nu TressFX, Gameworks, PhysX oder sonstwas ist, Hauptsache ich habe schöne Effekte. Ich bin nicht so naiv und hoffe darauf, dass das Gros der Spieleentwickler von allein hier (viel) Aufwand reinsteckt. Ob das nun Faulheit, Inkompetenz oder finanzielle/zeitliche Engpässe sind sei dahingestellt, das will ich gar nicht bewerten. Gäbe es die o.g. Softwarepakete nicht, wären diese Effekte höchstwahrscheinlich in keinem einzigen Spiel realisiert worden. Oder wo gab es z.B. etwas zu TressFX oder manchen PhysX/Gameworkseffekten Vergleichbares?

Und kaputtgemacht am Markt wird da mMn auch nichts, denn man muss es nicht krampfhaft negativ sehen sondern als Mehrwert. Einem geschenkten Gaul schaut man nicht ins Maul, der Spruch sollte bekannt sein. Dass die jeweils andere Fraktion dann immer angepisst ist, ist klar, aber so eine Haltung ist einfach Unsinn. Wer sich deshalb eine Konsole kauft und sich vom PC-Gaming abwendet, hat meiner Ansicht nach eh einen an der Waffel.

HOT
2014-11-04, 13:16:04
Da AMD die Konsolen stellt wird es immer relativ leicht sein, auf GCN Rücksicht zu nehmen trotz NVs Drangsalierungsversuche in D3D. Was aber bedenklich ist: Ubi gefällt Gameworks deshalb so gut, weil die bloß kein Geld in die PC-Umsetzung stecken wollen, aber keine simplen Ports machen können, weil der PC blöderweise wieder zu relevant geworden ist. So kann man mit vollem Einsatz von NV mächtig Kosten sparen und hat trotzdem PC-only-Features drin. Ubi war aber schon immer etwas "träge", deren Ansichten ändern sich immer erst, wenn der Zug schon abgefahren ist ;).
Was CD-Project angeht, haben die wohl offenbar für den Prestigetitel Vorteile von NV bekommen, das Management buhlt damit und die Entwickler müssens ausbaden, weil die dafür sorgen müssen, dass der Mist auf AMD läuft. Daher hat man ja offenbar auch alle Features, die eine NV-GPU zwingend voraussetzen kurzerhand rausgekegelt und was eigenes geschaffen.
Gameworks ist eine Episode, das wird zuende gehen. Und ich gebe StefanV recht, wenn die APUs Performanceklasse erreichen, bekommt NV eh massive Probleme, das ist absehbar.

Unicous
2014-11-04, 13:26:07
Kann mir jemand erklären, warum Nvidia die Tools, Effekte, Features nicht einfach zur Verfügung stellen kann...für jedermann. Kostenlos. Ohne Fallstricke.

Denn DAS würde die Industrie wirklich voranbringen. So stehen sie nämlich nur den zahlungskräftigen Studios zur Verfügung und die self-publishing, Indies und kleineren Studios gucken wie immer in die Röhre.

Genau das macht nämlich den Markt kaputt. Große Publisher die irgendeinen proprietären Schrott einkaufen, weil sie zu faul...äh sorry geizig sind eigene Coder anzustellen.

Darauf hoffen dass proprietäre Scheiße den Spieleentwicklern in irgendeiner Form hilft ist einfach nur naiv. Nicht umsonst nutzen nur fette Studios, mit finanziellem Backing diese Effekte. Denn Nvidia wird sicherlich nicht seine ausgewählten Engineers zu einer Klitsche in Sibirien fahren um da PhysX oder Hairworks zu implementieren.

Aber ihr könnt mir gerne erklären wie dieser trickle down Effekt funktionieren soll.
http://de.wikipedia.org/wiki/Trickle-down-Theorie

boxleitnerb
2014-11-04, 13:30:37
Die APUs werden aber immer begrenzt sein bei der aktuellen "Politik", nämlich bei Diefläche und TDP. Welcher Kunde wäre bereit, für deutlich mehr Fläche quasi immer mitzubezahlen und eine Kühlung zu akzeptieren, die dann nicht mehr für 125W TDP sondern vielleicht für 175 oder 200W ausgelegt sein muss für den Worst Case? Etwas Spielraum ist noch da wegen der Bandbreite, aber die dGPUs werden immer davoneilen - die wichtige Frage ist, was "good enough" ist. Falls die Antwort auf die APUs fallen sollte, dürfte der Absatz wirklich einbrechen. Aber das wird mMn nicht so schnell passieren, 4K Hype und Next Gen sei Dank.

Eine dGPU kauft man oder eben nicht, bei der APU zahlt man die iGPU immer mit und ist deutlich unflexibler. Bei der schnellsten APU ist immer auch die schnellste iGPU dabei, nur mal so als Beispiel.

@Unicous:
Quatsch. Als ob Indie-Studios ihre Spiele über Grafikeffekte verkaufen müssten. Hier zählen innovative Spielmechaniken und Design/Artwork. Ich habe schon viele Spiele gekauft, die grafisch gelinde gesagt unterdurchschnittlich waren und trotzdem viel Spass gemacht und sich gut verkauft haben. Hier wird einfach krampfhaft versucht, mit irgendwelchen an den Haaren herbeigezogenen "Argumenten" einen Mehrwert schlechtzureden.
Davon dass es den Entwicklern hilft, war nie die Rede. Mir als Kunde hilft es, weil es schön anzuschauen ist, wenn ich die richtige Grafikkarten drin habe. Nicht mehr und nicht weniger.

Unicous
2014-11-04, 13:37:22
Äääh was? Bist du sicher, dass du im richtigen Thread bist? APUs? TDP? The Fuck?


Innovative Spielmechaniken? Bei Indies?

Deine krampfhaft an den Haaren herbeigezogenen Argumente, dass proprietäre Scheiße für die Industrie gut ist setze ich dann auch mal auf die Liste, okay?

Mir als Kunde hilft es, weil es schön anzuschauen ist, wenn ich die richtige Grafikkarten drin habe. Nicht mehr und nicht weniger.

Was ist denn das für eine krude Aussage *ROFL*;D

boxleitnerb
2014-11-04, 13:39:25
Äääh was? Bist du sicher, dass du im richtigen Thread bist? APUs? TDP? The Fuck?


Lass mal Intel und AMD HBM auf APUs packen und die auch die GPU entsprechend breit auslegen. Dann ists Asche mit den meisten Grafikkarten. Da kannst durchaus befürchten, dass der gesamte Markt bis einschließlich der 750 bzw Radeon 270 komplett wegfällt, da in CPU integriert. Wenn die beiden Hersteller das wollen natürlich nur...

Und nur mit High End Karten kann man nun auch nicht unbedingt überleben.

Warum sagst du das nicht StefanV? Absichtlich überlesen?