PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

Unicous
2014-11-04, 13:40:49
Who the FUCK cares? Man muss doch nicht auf blödsinnigen themenverfehlenden Qautsch mit einem Mini-essay über APUs und TDP antworten.:rolleyes:

boxleitnerb
2014-11-04, 13:48:09
Man muss sich genausowenig darüber echauffieren, sondern kann das Thema einfach weiterdiskutieren. Herzlich Willkommen im OT :rolleyes:

Unicous
2014-11-04, 13:50:51
Wait what? Posting an OT post to prove someone is posting an OT post.

Postception?


Nur mal um so pseudo on topic zu posten, obwohl du darauf ja eigentlich keinen Bock hast: PhysX gibt es jetzt seit 6 Jahren. Hat es "die Industrie" extrem weit vorangebracht? (in before "Bullet hat auch nichts zu Stande gebracht")

Grestorn
2014-11-04, 14:11:26
Kann mir jemand erklären, warum Nvidia die Tools, Effekte, Features nicht einfach zur Verfügung stellen kann...für jedermann. Kostenlos. Ohne Fallstricke.

Wozu sollte nVidia das viele Geld investieren, diese Tools, Effekte und Features zu entwickeln? Ich als Verantwortlicher würde da keinen Return of Investment sehen.

Das abstrakte "das bringt die Industrie voran" zählt da nicht. Davon profitieren am Ende die anderen genauso wie nVidia, nur nVidia investiert, die anderen nicht. Vom Standpunkt des Geschäftsmanns aus wäre das totaler Unsinn.

aufkrawall
2014-11-04, 14:15:29
AMD hat das nun immerhin auch mal verstanden und pusht seine GCN Rendering-API.
Immer noch besser, wenn NV-User das nicht nutzen können, als wenn AMD pleite ginge...

Kartenlehrling
2014-11-04, 14:23:22
Also solange die performance so dermassen in den Keller geht wie es beim "NVIDIA Turbulence" in AC4:Black war können sie es behalten, der atmosphärische Zugewinn ist einfach zu gering um auf 30% FPS zu verzichten.

Gibt es eigentlich neuere Benchmarks was Turbulence, Hairworks, HBAO+ und Co. kosten?

Unicous
2014-11-04, 14:27:02
Wozu sollte nVidia das viele Geld investieren, diese Tools, Effekte und Features zu entwickeln? Ich als Verantwortlicher würde da keinen Return of Investment sehen.

Das abstrakte "das bringt die Industrie voran" zählt da nicht. Davon profitieren am Ende die anderen genauso wie nVidia, nur nVidia investiert, die anderen nicht. Vom Standpunkt des Geschäftsmanns aus wäre das totaler Unsinn.

Ach, Intel und AMD drehen Däumchen. Wusste ich noch gar nicht. Wann verschwinden diese Nichtsnutze endlich vom Markt sodass die Glorious Nivdia GPU Master Race sämtliche Spiele aufhübschen kann.

Fakt ist: Von GameWorks profitiert ein Promilleanteil der jährlich veröffentlichten Spiele und selbst bei AAA Titeln ist es ein verschwindend geringer Prozentsatz. GameWorks treibt mitnichten die Industrie voran, sie stärkt nur das Portfolio Einzelner (Publisher und Nvidia). Ich hasse es wenn, ich das TWIMTBP oder Gaming Evolved Logo sehe und ich sie noch nicht einmal ohne Engriffe loswerde und mir dadurch Lebenszeit geraubt wird, jedes Mal wenn ich das Spiel starte. Aber: Die Dinger sind wenigstens nur plumpe Werbemaßnahmen.
Ich habe auf den Dreck keinen Bock. Ich möchte nicht vor die Wahl gestellt werden, ich möchte das beschissene Spiel spielen ohne Wenn und Aber.
Intel hat ja auch schon mit dieser Scheiße angefangen (nur interessiert es keine Sau). Das hilft niemanden und schon gar nicht dem Kunden.

Warum muss Nvidia auf einmal damit Geld verdienen, was vor ein paar Jahren eine Selbstverständlichkeit war?

Warum muss man für "Tech Demos" auf einmal Kohle blechen um sie nutzen zu können?

Darum? Weil Nvidia es kann. Apple ist Software- und Hardwarehersteller... aber verkaufen sie die Software? Nicht wirklich. Die Software ist kostenloser Bestandteil der Hardware. Nvidia versucht Apple zu imitieren geht aber den Microsoft-Weg. Und der führt eher ins Verderben als zu einem immergrünen Garten mit sexy Feen.

Grestorn
2014-11-04, 14:31:28
Ach, Intel und AMD drehen Däumchen. Wusste ich noch gar nicht. Wann verschwinden diese Nichtsnutze endlich vom Markt sodass die Glorious Nivdia GPU Master Race sämtliche Spiele aufhübschen kann.Wann haben die zuletzt etwas entwickelt, was nicht entweder in ihrem eigenen Interesse war (Mantle) oder nur dazu diente zur Konkurenz aufzuschließen?

Wann haben sie eine Technik entwickelt und sie für alle zur freien Nutzung zur Vefügung gestellt?

Dass ihr immer wieder mit Emotionen an solche Dinge rangeht. Auch intel und AMD sind keine Heilsbringer sondern haben Shareholder, die gerne mehr Geld verdienen wollen.

nVidia macht in dieser Hinsicht einfach einen besseren Job als AMD.

Und Intel einen besseren als nVidia. Aber das hat wieder ganz andere Gründe.

Unicous
2014-11-04, 14:41:48
Alles klar.

Wie gesagt: AMD und Intel hinken Nvidia um Jahre hinterher, warum gibt es die überhaupt noch.:rolleyes:

/thread

HOT
2014-11-04, 14:57:31
Wozu sollte nVidia das viele Geld investieren, diese Tools, Effekte und Features zu entwickeln? Ich als Verantwortlicher würde da keinen Return of Investment sehen.

Das abstrakte "das bringt die Industrie voran" zählt da nicht. Davon profitieren am Ende die anderen genauso wie nVidia, nur nVidia investiert, die anderen nicht. Vom Standpunkt des Geschäftsmanns aus wäre das totaler Unsinn.
Aber genau da liegt der Fehler. Return of Investment gibts doch nur, wenn man Industriestandards erschafft, sonst gibts nämlich nur außer Spesen nix gewesen...
Es hat noch nie jemandem wirklich weitergeholfen destruktiv zu arbeiten. Ohne Kooperationen keine Standards. Das klappt ja nicht mal bei Intel.




Und die Geschichte mit den APUs ist doch vollkommen klar, ja es gibt weitere Fertigungsprozesse und es gibt selbstverständlich auch Wachstum. Man siehe was sich bei Onboardgrafik getan hat seit den RS690 beispielsweise. Das sind gigantische Fortschritte. Natürlich ist Kaveri+Colorcompression = Carrizo oder Intels GT4 ne ganz schöne Hausnummer und der PS4-SoC integriert jetzt schon Pitcairn komplett. Es wird in Zukunft mehr APUs, weniger dediziert geben, diese Frage stellt sich überhaupt nicht. Es ist total lächerlich diese Entwicklung in Frage zu stellen, zumal sie insbesondere durch Intel stark forciert wird.

Grestorn
2014-11-04, 14:57:31
Alles klar.

Wie gesagt: AMD und Intel hinken Nvidia um Jahre hinterher, warum gibt es die überhaupt noch.:rolleyes:

Du liest, was Du lesen willst, hm? Mit Konkurenz meinte ich nicht nVidia. intel muss genrell aufschließen. Und AMD hat Bereiche wo sie gegen nVidia führen und andere, wo sie zurückliegen.

Und wie ich schon sagte, Emotionen bei solchen Themen kein guter Ratgeber. Sie verstellen die Sicht auf die Realität.

Aber genau da liegt der Fehler. Return of Investment gibts doch nur, wenn man Industriestandards erschafft, sonst gibts nämlich nur außer Spesen nix gewesen...
Wie kommst Du denn auf den Trichter? Ein Industriestandard zu etablieren bringt nur dann etwas, wenn Du selbst der Hauptprofiteur bist (Hersteller der Lösung, Patentinhaber oder Maktführer). Oder wenn Du Dich mit anderen zusammentust um einen Standard zu etablieren, von dem dann alle in dem Konsortium profitieren.

Alleine macht es gegen einen gleichstarken Konkurenten keinen Sinn. Dann hättest Du das Geld für die Entwicklung auch gleich im Kamin verbrennen können.

HOT
2014-11-04, 15:12:19
[...]

Wie kommst Du denn auf den Trichter? Ein Industriestandard zu etablieren bringt nur dann etwas, wenn Du selbst der Hauptprofiteur bist (Hersteller der Lösung, Patentinhaber oder Maktführer). Oder wenn Du Dich mit anderen zusammentust um einen Standard zu etablieren, von dem dann alle in dem Konsortium profitieren.

Alleine macht es gegen einen gleichstarken Konkurenten keinen Sinn. Dann hättest Du das Geld für die Entwicklung auch gleich im Kamin verbrennen können.
Das ist einfach Unsinn. Das funktionierte vielleicht vor Jahren mal so aber heute kannst du sowas vergessen. Wenn du nicht für ernsthafte Lizenzierung und Kooperation bereit bist gibts kein RoI, dann ist es für die Tonne, so einfach ist das, siehe auch GSync. Wenn AMD Mantle nicht für Intel z.B. öffnet, verschwindet Mantle, ganz einfach.
Und Mantle ist auch überhaupt nicht vergleichbar. Das gibts ja nur deshalb, weil die Spieleentwickler eine neue API gefordert haben, sonst hätte sich AMD das niemals ans Bein gebunden. Dafür wirds auch keinen RoI geben, aber es bringt u.U. die ganze Industrie und damit auch AMD weiter.

Unicous
2014-11-04, 15:17:53
Ich lese genau das was hier steht.

Wann haben die zuletzt etwas entwickelt, was nicht entweder in ihrem eigenen Interesse war (Mantle) oder nur dazu diente zur Konkurenz aufzuschließen?

Wann haben sie eine Technik entwickelt und sie für alle zur freien Nutzung zur Vefügung gestellt


AMD ist zu doof und muss schummeln (Mantle) um zu Nvidia aufzuschließen.
Sie können nichts Eigenes entwickeln (weil sie ja zu doof sind). Und diese Seite (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/) ist reine Makulatur um zu verschleiern, dass sie ja eigentlich alles nur von Nvidia abkupfern.

Es gibt ein YT-Video zu den Tech Demos der letzten Jahrzehnte, in denen kurioserweise fast alle AMD/Ati Demos gefehlt haben. Das wurde dann durch ein zweites Video zwar wieder ausgeglichen, aber es beschreibt sehr gut die Grundhaltung zu AMD/Ati. Die können nichts und kupfern nur ab und beschweren sich, dass Nvidia einfach nur besser ist... etc.

Komm mir also bitte nicht "Emotionen ausschalten". Meinungen sind Emotionen von daher ist diese Diskussion zum Scheitern verurteilt. Wenn jeder seine Emotionen ausschaltet...sind wird gleich geschaltet.

Es kann mir dennoch niemand die Mär der "die Industrie voranbringenden proprietären Software die nur auf spezieller Hardware läuft" mit Fakten belegen. Das wird weiterhin gerne umschifft, denn es muss ja konkrete Verbesserungen geben, oder sind es gar unhaltbare Behauptungen?:eek:

Jeder führt seine Agenda, ob es AMD ist, Nvidia, Intel, Microsoft.

Aber während die anderen Firmen sich lustigerweise immer weiter öffnen, schwimmt Nvidia komplett gegen den Strom und beliefern nur noch ihre "Seite" mit neuen Features die dadurch nicht der Allgemeinheit zu Gute kommen und sperrt sich sogar gegen Industriestandards.

Niemand kann mir glaubhaft versichern oder durch Fakten belegen, dass dieses Vorgehen die Industrie voranbringt oder es im Interesse der gesamten Kundschaft ist. Es geht hier nicht nur um AMD vs. Nvidia, es ist mittlerweile ein Triumvirat und Intel gewinnt eher an Marktanteilen. Das hat nichts mit "wir sind für die Gamer da und machen alles für sie" sondern, oh Scheiße wir müssen krampfhaft versuchen Kunden an uns zu binden, sonst schwimmen uns die Felle davon. (AMD macht es nicht anders mit ihrer Branding-Scheiße, aber zumindest muss man das Zeugs nicht kaufen um "Vorteile" in Spielen zu haben. Intel macht zunehmend den andern OEMs Konkurrenz mit ihren NUCs etc.)

Fazit:
Hardware-Firmen die versuchen mit Software Geld zu verdienen sind scheiße.
Software-Firmen (z.B. Microsoft) die versuchen mit Hardware Geld zu verdienen sind scheiße.
Der Kunde ist IMMER der Doofe.

Grestorn
2014-11-04, 15:20:23
Das ist einfach Unsinn.
Aha. Na, dann erklär mal, was nVidia für einen Vorteil davon hätte, 3DVision, PhysX oder auch GameWorks kostenlos an AMD und andere Nutznießer weiterzugeben?

Das haben viele ewig gestrige wirtschaftshörige Möchtegernintelektuelle immernoch nicht geschnallt: Kooperation ist IMMER stärker als Konkurrenz.
Oh wow. Da weiß einer, wie die Welt sich dreht...

Kooperation ist stark, wenn man dadurch den Kunden abzocken kann (Preisabsprachen) oder um sich gegen andere zu behaupten, die nicht Teil der Kooperation sind.

Bei 2 gleichwertigen Konkurenten, was genau soll die Kooperation denn bewirken?

Nur in einem Szenario, wo BEIDE vor dem Abgrund stehen und in einer Kooperation den einzigen Ausweg sehen, würde eine solche auch in Erwägung gezogen.


Ich lese genau das was hier steht.

AMD ist zu doof und muss schummeln (Mantle) um zu Nvidia aufzuschließen.
Sie können nichts Eigenes entwickeln (weil sie ja zu doof sind). Und diese Seite (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/) ist reine Makulatur um zu verschleiern, dass sie ja eigentlich alles nur von Nvidia abkupfern.

Wus? Komm mal runter von Deinem Trip. Ist ja als hätte ich Deine Mutter beleidigt.

Für mich als Kunden (egal welches Herstellers) ist es enorm wichtig, dass es hier eine Konkurenz gibt und das sie auf Augenhöhe bleibt. Nicht dass einer den anderen so aussticht wie intel das mit AMD bei den Prozessoren geschafft hat.

Alleine deswegen ist es für mich und alle anderen wichtig, dass AMD stark bleibt und dass nVidia stark bleibt.

Das ewige Schießen auf einen der beiden Hersteller ist so lächerlich und dazu noch so schädlich... Da kann ich immer nur mit dem Kopf schütteln.


Fazit:
Hardware-Firmen die versuchen mit Software Geld zu verdienen sind scheiße.
Software-Firmen (z.B. Microsoft) die versuchen mit Hardware Geld zu verdienen sind scheiße.
Der Kunde ist IMMER der Doofe.Selten einen solchen Blödsinn gelesen.

Ich verstehe absolut, dass eine Herstellerbindung nicht im Interesse des Kunden sein kann. Aber sie ist im Interesse des Herstellers. Firmen sind keine Heilsbringer oder dazu da, dass es dem Kunden besser ergeht. Sie sind dazu da, Profit zu machen.

Es ist etwas ... naiv genau das den Firmen am Ende des Tages vorzuwerfen.

gnomi
2014-11-04, 15:22:58
Och meine Meinung dazu ist immer noch dieselbe - besser es kümmert sich jemand drum als gar niemand. Ob das nu TressFX, Gameworks, PhysX oder sonstwas ist, Hauptsache ich habe schöne Effekte. Ich bin nicht so naiv und hoffe darauf, dass das Gros der Spieleentwickler von allein hier (viel) Aufwand reinsteckt. Ob das nun Faulheit, Inkompetenz oder finanzielle/zeitliche Engpässe sind sei dahingestellt, das will ich gar nicht bewerten. Gäbe es die o.g. Softwarepakete nicht, wären diese Effekte höchstwahrscheinlich in keinem einzigen Spiel realisiert worden. Oder wo gab es z.B. etwas zu TressFX oder manchen PhysX/Gameworkseffekten Vergleichbares?

Und kaputtgemacht am Markt wird da mMn auch nichts, denn man muss es nicht krampfhaft negativ sehen sondern als Mehrwert. Einem geschenkten Gaul schaut man nicht ins Maul, der Spruch sollte bekannt sein. Dass die jeweils andere Fraktion dann immer angepisst ist, ist klar, aber so eine Haltung ist einfach Unsinn. Wer sich deshalb eine Konsole kauft und sich vom PC-Gaming abwendet, hat meiner Ansicht nach eh einen an der Waffel.

Du siehst das viel zu praktisch und realistisch. :wink:
Mir geht es genau so.
Und ich glaube, die wenigsten Kunden da draußen machen was derart lachhaft Idealistisches wie manche hier im Technikforum daraus.

HOT
2014-11-04, 15:24:46
Aha. Na, dann erklär mal, was nVidia für einen Vorteil davon hätte, 3DVision, PhysX oder auch GameWorks kostenlos an AMD und andere Nutznießer weiterzugeben?

Was schrieb ich? Lizenzierung und Kooperation.


Oh wow. Da weiß einer, wie die Welt sich dreht...

Kooperation ist stark, wenn man dadurch den Kunden abzocken kann (Preisabsprachen) oder um sich gegen andere zu behaupten, die nicht Teil der Kooperation sind.

Bei 2 gleichwertigen Konkurenten, was genau soll die Kooperation denn bewirken?

Nur in einem Szenario, wo BEIDE vor dem Abgrund stehen und in einer Kooperation den einzigen Ausweg sehen, würde eine solche auch in Erwägung gezogen.
Ich hab den Satz wieder gekillt, weil er nicht richtig verstanden werden wird, was du leider bestätigst. Das würde zu weit führen.

Unicous
2014-11-04, 15:32:07
@Grestorn

Wasser predigen und

Oh wow. Da weiß einer, wie die Welt sich dreht... schreiben. Es fehlt in dem Satz natürlich::rolleyes:


Du siehst das viel zu praktisch und realistisch. :wink:
Mir geht es genau so.
Und ich glaube, die wenigsten Kunden da draußen machen was derart lachhaft Idealistisches wie manche hier im Technikforum daraus.

Das ist kein verfehlter Idealismus. Es ist einfach großer Blödsinn, was AMD und Nvidia und jetzt auch Intel seit Jahren betreiben. Man mischt sich nicht in den Entwicklungs-Prozess ein. Das ist genauso wie Lobbyismus (z.B.) in der Politik.

Natürlich muss es eine Kooperation der IHVs und ISVs geben, auf Support-Basis. Wir helfen euch beim Toubleshooting wenn Probleme auftauchen. Aber da müsste rigoros die Grenze gezogen werden. Denn alles was folgt ist großer Bullshit.

Grestorn
2014-11-04, 15:35:18
Was schrieb ich? Lizenzierung und Kooperation.Woher weißt Du denn, dass nVidia nicht bereit ist, die Techniken zu lizenzieren? Das wurde ja schon oft genug thematisiert. AMD hatte aber bisher *nie* Interesse daran gezeigt eine Technik von nVidia zu lizenzieren, man hoffte eher, dass die Technik floppt und nVidia auf seinen Entwicklungskosten sitzen bleibt. *DAS* ist die destruktive Politik, die ich immer wieder AMD vorwerfe. Die Kosten auf die Allgemeinheit umzulegen (3D, OpenCL), möglichst ganz zu vermeiden und nur in als letzte unvermeidlicher Konsequenz selbst zu leisten, wenn es denn sein muss. Mantle ist da die große Ausnahme, die ich deswegen auch sehr begrüße.

Ich hab den Satz wieder gekillt, weil er nicht richtig verstanden werden wird, was du leider bestätigst. Das würde zu weit führen.
Viel gabs da nicht misszuverstehen. Ich hab Deinen Satz ja schön konserviert :)

Auf den Inhalt meiner Erwiederung bist Du sicherheitshalber gar nicht eingegangen.

Grestorn
2014-11-04, 15:37:23
@Grestorn

Wasser predigen und

schreiben. Es fehlt in dem Satz natürlich::rolleyes:
Na, was soll man denn auf eine offene Beleidigung schreiben? Noch gemäßigter gehts doch kaum :)

Natürlich muss es eine Kooperation der IHVs und ISVs geben, auf Support-Basis. Wir helfen euch beim Toubleshooting wenn Probleme auftauchen. Aber da müsste rigoros die Grenze gezogen werden. Denn alles was folgt ist großer Bullshit.

Und alle haben sich lieb, jeder gibt dem anderen freiwillig ein Teil vom Kuchen ab. Und alle leben friedlich bis ans Ende der Zeit.

Schöne Vorstellung. Leider absolut nicht menschlich.

Schnoesel
2014-11-04, 15:39:46
Ich finde das hilft dem Kunden absolut 0 auch nicht langfristig. Bestes Beispiel ist doch PhysX. Anstatt einer Physiksimultion die auch mal für Gameplay taugen würde was haben wir heute? Ein paar billig bling bling Effekte für nicht mal ne handvoll Spiele im Jahr und das nur damit ein Hersteller damit werben kann? Das bringts.

Havok kannst in die Tonne treten solange Intel seine Finger im Spiel hat wird das auch nur CPU exklusiv. Also bräuchten wir einen der GPU Physik als Standard durchsetzt. Wie soll das gehen wenn einer der beiden GPU Hersteller sowas nie unterstützen würde. Und dann auch noch die Funktion behindern neben AMD eine Nvida als Physikkarte laufen zu lassen.

Auf gut Deutsch. Echtes Physikerlebnis das auf GPU basiert in Zukunft ausgeschlossen. Danke für gar nichts.

Grestorn
2014-11-04, 15:41:54
Es wäre MS' Aufgabe einen übergreifenden Standard zu etablieren. Oder eines anderen Herstellers.

Von nVidia oder AMD ist das nicht zu erwarten. Genauso wenig, wie DirectX oder OpenGL jemals von einem dieser Hersteller erwartet werden konnte.

Unicous
2014-11-04, 15:43:14
Ich warte weiterhin auf die Fakten, die belegen, dass GameWorks und Co. gut für Industrie und Kundschaft ist. Bis jetzt kommt viel blaue Luft und "Mensch, seid ihr naiv, aber das sage ich besser nicht sonst denken die noch ich hätte 'Emotionen'".

Ganz viel :rolleyes::rolleyes::rolleyes:

sehr wenig:deal::deal::deal:

Grestorn
2014-11-04, 15:48:16
Es ist gut *für nVidia*.

Und für nVidia's Kunden. Um mehr muss sich nVidia auch nicht kümmern. nVidia ist nicht verantwortlich für die Industrie und Kunden anderer Hersteller.

Wer hat behauptet, Gameworks wäre grundsätzlich gut für die Industrie in der Gesamtheit? Es kann Impulse und einzelne positive Effekte haben, aber das steht sicher nicht im Vordergrund.

Unicous
2014-11-04, 15:53:36
Ich denke Nvidia will die Industrie voranbringen? Das sagen sie nämlich immer wenn sie ihren proprietären Müll vorstellen, den dann nur eine handvoll Spiel wirklich nutzt und der Flächenbrand der ja dadurch in Gang gesetzt werden soll, mal wieder ausbleibt.

Also ist deiner Meinung auch nur Nvidia der Nutznießer...und der Kunde, der sich für Nvidia entschieden hat.

Grestorn
2014-11-04, 16:00:19
Grundsätzlich belebt jede Innovation den Markt und die Industrie. Ohne sie gäbe es ja nur Stagnation ohne jeden Fortschritt.

Aber das heißt doch nicht, dass man nicht auch im eigenen Interesse arbeiten darf.

Wenn es nach Euch ginge, müssten die Hersteller ihre eigenen Interessen völlig verleugnen und dürften ausschließlich im Interesse der Konsumenten (und nicht nur der eigenen Kunden) agieren.

Das findet ihr kein bisschen naiv?

TobiWahnKenobi
2014-11-04, 16:03:49
Ich denke Nvidia will die Industrie voranbringen? Das sagen sie nämlich immer wenn sie ihren proprietären Müll vorstellen, den dann nur eine handvoll Spiel wirklich nutzt und der Flächenbrand der ja dadurch in Gang gesetzt werden soll, mal wieder ausbleibt.

Also ist deiner Meinung auch nur Nvidia der Nutznießer...und der Kunde, der sich für Nvidia entschieden hat.


;D voll gut! ist schon was feines, wenn man über die jahre, die mehr oder weniger spärliche freizeit mit einer hardware verbracht hat (und noch verbringt), die mir als endkunden soviele tolle features zum rumspielen zur verfügung stellt. software, die passend zur hardware das hält, was das featureset verspricht. was juckt mich als endkunden die industrie, wenn ich meine 500€ scheine in einen computerladen schleppe um zuhause was zum spielen zu haben? achja.. nüx! produkte grenzen sich funktionell oder durch optik und haptik voneinander ab und der kunde kann entscheiden, was er haben möchte.

klar.. die kinder von heute können natürlich warten, bis aus marktwirtschaft star trek wird - aber alte hasen wie ich werden das nicht mehr erleben.


(..)

mfg
tobi

Unicous
2014-11-04, 16:08:37
Wenn ein Hardwarehersteller zunehmend im Software-Gewerbe fischt auf einer Plattform wie dem PC, ist das immer gefährlich.

Warum kann man sich nicht auf Tech Demos beschränken und die guten alten Code Schnipsel an denen sich jeder frei bedienen kann. Warum muss man das jetzt auf einmal "kommerzialisieren"? Warum muss man einzelne Publisher und Entwickler an sich binden um Vorteile für sein eigenes Produkt zu erlangen.

Das ist mE unlauterer Wettbewerb der nur möglich ist, weil es den Begriff "unlauteren Wettbewerb" in der Umgangssprache der US-Amerikaner nicht vorkommt.


AAAAber wird drehen uns im Kreis. Das wurde alles schon zig mal hier und anderswo wiedergekaut.

Konkrete Belege für die positiven Effekte die GameWorks, PhysX und Co. für die Allgemeinheit bringt werden weiterhin verschwiegen obwohl sie doch auf der Hand liegen müssten.

"Spill the beans" wie man so schön sagt.


@TobiWahnKenobi Oops du bist ja noch gar nicht auf meiner ignore-Liste. Entschuldige bitte diese Versäumnis.

Grestorn
2014-11-04, 16:18:30
Wenn ein Hardwarehersteller zunehmend im Software-Gewerbe fischt auf einer Plattform wie dem PC, ist das immer gefährlich.

Willst Du das denn verbieten?

Unicous
2014-11-04, 16:36:12
Wieso sollte ich das verbieten können?

Es bedeutet lediglich das Gegenteil von Innovation. Hier wir geben euch für Geld unsere "innovative" zigste Reiteration unseres Haar-Algorithmus damit ihr euch darum nicht mehr kümmern braucht, ihr armen, überarbeiteten AAA-Developer.

Es hat sich nicht viel geändert, aber wir haben natürlich den build "aktualisiert" er heißt jetzt 54546sdjslsl.2014.dll. Der davor hieß 54545sdjslsl.2013.dll und war natürlich eine Revolution und viel besser als die Konkurrenzprodukte.

Wir freuen uns darauf, dass auch nächstes Jahr wieder unseren Algorithmus auswählt...und nicht das Nvidia Logo vergessen.

Den Entwickler in Fesseln legen ääääh den Publisher an die Hand nehmen ist das Beste was diesen innovativen AAA-Titel passieren kann. Innovation durch Iteration. Und alle so: YEAAAH!!!

Langfristiges Ziel von Nvidia ist doch offensichtlich, alle Entwickler mit GameWorks zu "versorgen" um diese tollen Innovationen weiterzugeben. Ihr dürft natürlich nichts daran ohne unser Einverständnis ändern und den Quellcode bekommt ihr auch nur wenn wir es wollen/ihr dafür extra bezahlt und ansonsten implementiert ihr es wir wir es euch sagen, aber im Endeffekt ist das doch Win-Win, oder?

Ihr gewinnt, wir gewinnen, der Kunde... bezahlt.

Grestorn
2014-11-04, 16:43:28
Nochmal: Ist Dir Stagnation lieber?

Oder was ist Deiner Meinung nach die Alternative?

Dass nVidia den Entwicklern Möglichkeiten und Lösungen vorzeigt ist doch erst mal nichts schlechtes. Es weckt Begehrlichkeiten. Der eine geht den leichten Weg und nutzt die fertige Implementoerung, der andere implementiert was eigenes (was er ja auch muss, wenn es auch auf Konsolen laufen soll).

Ich sehe wirklich Dein Problem nicht. Ich lese ständig nur geheule, als würdest Du etwas befürchten. Was befürchtest Du denn genau?

nVidia Kunden mussten befürchten, dass durch die Konsolendominanz von AMD die PC-Ports auf nVidia schlecht laufen. Hast Dich das auch so gestört?

Unicous
2014-11-04, 16:51:18
Ich habe gerade Stagnation beschrieben.

Nvidia verkauft GameWorks an die Entwickler und "innoviert" jedes Jahr von Neuem.

Die faulen...äh schlauen Publisher kaufen gerne bei Nvidia ein, denn dann müssen sie niemanden dafür bezahlen, solche Algorithmen selbst zu coden. Outsourcing hat nämlich niemals negative Begleiterscheinungen.

Und bald kommt jeder darauf, dass GameWorks einfach viel bequemer ist und u.U. auch deutlich billiger ist, als es in house zu machen. Die Indies und kleineren Publisher müssen dann eben den Crap von AMD der Nvidia ja bekanntlich um Jahre hinterherhinkt nehmen (,was natürlich Utopie ist. Bis dahin sind die doofen Nichtskönner von AMD ja schon längst Geschichte).

Bis dahin hat aber Intel eh schon die Leistung ihrer iGPUs verzigfacht und schließt Nvidia einfach aus, indem sie ein paar PCIe Lanes einsparen.;D


Ich lese im Übrigen immer nur Geheule über das Geheule um mal ein wenig ad hominem Ping Pong zu spielen.

Grestorn
2014-11-04, 16:58:42
Wenn es so kommt und die Entwickler einfach immer nVidias code nehmen, der schlecht oder gar nicht auf AMD läuft, dann hätte nVidia gewonnen und AMD wär über kurz oder lang aus dem Markt.

Etwas ähnliches würde passieren, wenn AMD eine Marktbeherrschung über die Konsolen erreichen würden.

Um das zu vermeiden, muss der Kontrahent eben genau das tun: Kontern.

Und genau das treibt den Markt an. Und es ist gut für uns alle.

Ja, das geheule nervt. Ich würde gerne darauf verzichten es lesen zu müssen. Es wär mir lieber, wenn man statt dessen die Ärmel hochkrämpelt und etwas dagegen stellen würde. Selbst wenn das für mich als nVidia Kunden evtl. beeinträchtigen würde. War in der Vergangenheit ja auch nicht selten so, dass AMD Spiele auf nV Hardware zunächst beschissen liefen.

maximus_hertus
2014-11-04, 16:59:48
nVidia macht das, was *alle* erfolgeichen IHVs machen - Software sells Hardware. Das es auch bei AMD erst nach und nach auffällt ist ja nicht die Schuld von nV.

Unicous
2014-11-04, 17:15:51
Blödsinn. AMD, Intel und Nvidia sind nicht Apple.

Apple ist ein Unternehmen das ein geschlossenes System vermarktet und lustigerweise... die Komponenten von... jetz kommts... AMD, Intel und Nvidia verbaut.

Sie sind nichts weiter als Zulieferer. Ich wüsste nicht, dass Qualcomm auf einmal Handys in Eigenproduktion herstellt. Und auch Qualcomm ist eigentlich zu mächtig als Hersteller und droht den Mobilbereich zu einem Quasimonopol zu machen.

IHVs sind Zulieferer und darauf sollten sie sich darauf beschränken. Das Ende vom Lied ist nämlich eine weitere Konsolidierung des Marktes indem dann immer mehr "Player" vom Markt verschwinden, weil einer eben nicht "fair" spielen wollte und gemeinsame Sache mit den OEMs/Publishern/etc. gemacht hat.

Diese Marktverzerrung ist niemals gut, denn sie kommt nicht durch innovative und weil das Wort ja in letzter Zeit so in Mode gekommen ist, disruptive Technologien zustande, sondern unlauteren Machenschaften.

Man kann natürlich an der Seitenlinie stehen und sagen, ja das sieht doch alles schlimmer aus als es ist was regt ihr Naivlinge euch denn so auf und warten was noch alles passiert.
Aber die Geschichte zeigt immer und immer wieder, dass das Resultat Nahrungsverdauungsendprodukt ist.

Terrarist
2014-11-04, 18:19:57
Es wäre MS' Aufgabe einen übergreifenden Standard zu etablieren. Oder eines anderen Herstellers.

Von nVidia oder AMD ist das nicht zu erwarten. Genauso wenig, wie DirectX oder OpenGL jemals von einem dieser Hersteller erwartet werden konnte.

MMn. ist es eher die Pflicht aufgeklärter Kunden, also Enthusiasten offene Standards zu unterstützen, in dem Fall halt offene Treiber und Linux/BSD, also low level Verschlossenheit nicht zu tolerieren. Alles andere ist nur Geheuchel, denn die Hersteller ändern sich nie wenn sich der Anspruch der Kernzielgruppe nicht ändert.

In Wirklichkeit geht es den meisten doch nur um Performance und Produktivität, und deshalb ist auch der Cloud Bereich trotz Sicherheitsbedenken und SAAS immer weiter auf dem Vormarsch. Solange es Kunden mitmachen werden sie halt immer weiter geknechtet. Klar dass auch Nvidia das ausnutzt und Nutzer an ein bestimmtes Software Ökosystem binden will.

Mancko
2014-11-05, 00:07:23
Wenn ein Hardwarehersteller zunehmend im Software-Gewerbe fischt auf einer Plattform wie dem PC, ist das immer gefährlich.


Das ist das einzig sinnvolle. Je umfassender das Angebot desto besser lassen sich Umsätze generieren. Die Weisheit lernt jeder Unternehmensgründer recht schnell. Einfach gestrickte Produktangebote führen in der Regel zu erheblichem Preisverfall mit voranschreitender Zeitachse, da Dir irgendwann die Billigkonkurenz im Nacken sitzt. Ich sehe es doch bei mir in der Firma. Ursprünglich haben wir reine IT-Beratung gemacht. IT Projekte unterliegen aber zunehmendem Kosten- und insbesondere Preisvergleichsdruck. Da hast mittlerweile reihenweise dumpende Billigasiaten im Nacken. Also machen wir seit geraumer Zeit Fachberatung. Dort tut sich zuvor genannte Konkurrenz nämlich schwer. Wir bieten jetzt einfach beides an und sorgen im Vorfeld eines IT Implementierungsprojekts über die Fachberatung dafür, dass unliebsame Konkurrenz draußen bleibt.



Warum kann man sich nicht auf Tech Demos beschränken und die guten alten Code Schnipsel an denen sich jeder frei bedienen kann. Warum muss man das jetzt auf einmal "kommerzialisieren"? Warum muss man einzelne Publisher und Entwickler an sich binden um Vorteile für sein eigenes Produkt zu erlangen.

Weil das nun mal der Sinn unseres Wirtschaftssystems ist. Zum einen ist man als Unternehmung, insbesondere einer gelisteten Unternehmung, dem langfristigen Wachstumgszwang unterlegen. Zum anderen führen einfache und lineare Produktlinien dazu, dass einem schnell Nachahmer und Konkurrenten am Bein hängen. Das wiederum setzt eigene Margen unter Druck und gefährdet Umsätze. Also muss man kreativ sein um seine Position zu behaupten oder auszubauen.


Das ist mE unlauterer Wettbewerb der nur möglich ist, weil es den Begriff "unlauteren Wettbewerb" in der Umgangssprache der US-Amerikaner nicht vorkommt.

Wie unlauter findest Du es denn, dass man heute in einem Auto gar kein eigenes Radio mehr sinnvoll verbauen kann. Früher beim guten alten Auto bist in den Mediamarkt oder wo auch immer rein gerannt und hast Dir dein Wunsch Autoradio ausgesucht. Heute ist das alles fest verbaut. Und warum? Ganz einfach weil der Hersteller die Wertschöpfung erhöhen und Konkurrenz draussen haben will.


Konkrete Belege für die positiven Effekte die GameWorks, PhysX und Co. für die Allgemeinheit bringt werden weiterhin verschwiegen obwohl sie doch auf der Hand liegen müssten.


Der Positive Effekt ist, dass Nvidia besser seine dGPUs an den Mann bringen und in Summe höhere ASPs als die Konkurrenz generieren kann. Da hast Du schon mal den Vorteil für Nvidia. Und der Vorteil für mich als Nvidia Kunde ist, dass mein Produkt besser unterstützt wird, als wenn irgendwelche Schnarchnasen darüber entscheiden, die zum Teil auch überhaupt kein Interesse haben, dass sich im Gaming Markt überhaupt was bewegt. Würde es nach AMD, vor allem aber Intel gehen, gäbe es nur noch mäßigen Grafikeinheitsbrei für alle mit minimalsten Hardware Anforderungen.

Unicous
2014-11-05, 00:15:30
Billigkonkurrenz bei Grafikkarten? (Weiter bin ich leider nicht gekommen)

Ok, du hast gewonnen. Ich gebe auf.

Grestorn
2014-11-05, 00:34:16
Billigkonkurrenz bei Grafikkarten? (Weiter bin ich leider nicht gekommen)

Ok, du hast gewonnen. Ich gebe auf.

Was für ein Armutszeugnis in einer Diskussion. Da hat sich einer richtig Zeit genommen Dir einige Dinge zu erklären... aber bevor Du Dein Meinung auch nur ansatzweise in Frage stellst, liest Du sicherheitshalber lieber gar nicht.

Unicous
2014-11-05, 00:48:39
Wenn ich Bananen mit Kiwis vergleiche und das Ergebnis dann auf Orangen projeziere brauche ich nicht mehr weiterlesen. Ich wüsste nicht, was der Dienstleistunssektor mit Hardware zu tun hat.

Ich vergleiche auch nicht die Arbeit eines Landwirts mit dem eines Callcenter-Mitarbeiters. Beide Berufe sind stressig, aber nicht zwangsläufig vergleichbar.


Und bei Aussagen wie Würde es nach AMD, vor allem aber Intel gehen, gäbe es nur noch mäßigen Grafikeinheitsbrei für alle mit minimalsten Hardware Anforderungen. ist eh alles verloren.


edit: Ich wollte vor Mancko's Beitrag noch einen kruden Net Neutrality Vergleich anbringen, habe dann aber gedacht, das ist Blödsinn und habe es gelassen. Mittlerweile erscheint mir der Vergleich... im Vergleich gar nicht so abwegig.

PHuV
2014-11-05, 01:36:18
Ach Leuts, manchmal muß man sich schon wundern, wie weltfremd machen hier sind. :rolleyes: Jeder kommerzielle Anbieter im SW/HW-Bereich will seine Pfründe schützen und bewahren. Da sind Nvidia und AMD nur eine kleine Spitze von vielen anderen, da kann ich Grestorn nur zustimmen.

@Unicous

Ich nehme mal an, Du hast beruflich nicht viel mit IT zu tun, oder?

Skysnake
2014-11-05, 08:29:17
Dann schau dir aber mal an, was bei IBM, Oracle usw usw abgeht. Da wird ganz klar auf offene Standards gesetzt, bzw. im Falle von IBM diese immer weiter ausgebaut. Wer hätte sich z.B. vor einigen Jahren vorstellen können, das es Linux Linien von den Power-CPUs gibt????

Der Markt, hier der Professional-Markt, macht aber eben Druck. Die Leute haben nicht das heise und innige Verlangen danach, sich an ein Unternehmen zu ketten. Die wollen selbst Geld verdienen....

Und ein guter Support von Linux, kann einem klare Vorteile bringen, weil man eben in den Benchmarks besser dasteht, und ein stabiles System ermöglichen kann.

Langfristig setzen sich zumeist offene Standards im Professionel Bereich durch. Lieber einen großen Kuchen in kleinere Stücke aufteilen, so das jeder etwas bekommt, als sich von einem kleineren Kuchen ein ganz großes Stück haben wollen, und am Ende über die eigenen Beine zu stolpern, und gar nichts zu haben...

Im Consumerbereich läuft die Sache doch nur anders, weil die Leute wie die Lemminge einem "Führer" hinterherrennen, und das eigene Gehirn ausschalten.

uweskw
2014-11-05, 09:29:58
Die Architektur für die beiden aktuellen Konsolen kommt doch von AMD. Kann mir mal jemand erklären warum AMD hier nicht spezifische Features einbringt die nach dem portieren auf PC nur auf AMD Karten laufen?

Oder zumindest deutlich besser? Ist das technisch nicht möglich, oder macht AMD das zum Wohle der Spieler?

greetz
U.S.

Grestorn
2014-11-05, 09:31:37
Bei IBM ist es Strategie von der Arbeitsleistung der OSS Community zu profitieren. Man Investiert einerseits in OSS Projekte, schafft andererseits aber eine geschlossene OSS Softwareumgebung, in die a) die eigenen, nicht gerade billigen Produkte eingebettet sind und verkauft b) die Beratungs- und Ingenieurleistung für sie.

Das ist ein durchaus funktionierendes Konzept.

Was mich daran stört, ist dass man sich als "die guten" darstellt, weil man ja sooo offen und sooo für Standards ist. Schaut man genauer hin, ist das alles auch nur Mittel zum Zweck die Konkurenz auszuschalten und von der riesigen Arbeitsleistung der Community zu profitieren.

IBM agiert da ganz ähnlich wie Google.

Da sind mir die Microsofts und nVidias der Welt lieber. Die agieren da nämlich einfach ehrlich und versuchen ihr Geschäftsmodell nicht hinter einer einer schönen, geradezu altruistischen Maske zu verstecken.

Die Architektur für die beiden aktuellen Konsolen kommt doch von AMD. Kann mir mal jemand erklären warum AMD hier nicht spezifische Features einbringt die nach dem portieren auf PC nur auf AMD Karten laufen?

Oder zumindest deutlich besser? Ist das technisch nicht möglich, oder macht AMD das zum Wohle der Spieler?

Das hätten sie tun können, aber dazu hätten sie keine bestehende Hardware-Architektur nutzen können, sondern etwas neues entwickeln müssen, was auf der PC Hardware so noch nicht machbar ist. Und so viele Ideen und Möglichkeiten gibt es da auch nicht mehr.

Reine Software-Features (wie auch alles, was GameWorks anbietet aber auch so was wie Mantle) gibt es auf den Konsolen sowieso immer in der einen oder anderen Form exklusiv, das hängt dann aber weniger an der verbauten Hardware sondern eben genau an der dort verfügbaren Middleware.

Zum "Wohl der Spieler" macht kein Hersteller irgendwas. Löst Euch doch mal von dieser romantischen Vorstellung.

uweskw
2014-11-05, 09:55:24
.....

Das hätten sie tun können, aber dazu hätten sie keine bestehende Hardware-Architektur nutzen können, sondern etwas neues entwickeln müssen, was auf der PC Hardware so noch nicht machbar ist. Und so viele Ideen und Möglichkeiten gibt es da auch nicht mehr.
…….

die Hardwarearchitektur der Next-Gen Konsolen Konsolen ist nicht vom Himmel gefallen. Wenn AMD cleverer gewesen wäre, hätten die sicher einige Features einbauen können die auf den neuen GCN Architekturen besser laufen.


….
Reine Software-Features (wie auch alles, was GameWorks anbietet aber auch so was wie Mantle) gibt es auf den Konsolen sowieso immer in der einen oder anderen Form exklusiv, das hängt dann aber weniger an der verbauten Hardware sondern eben genau an der dort verfügbaren Middleware.
….

man sieht ja schon an den blanken Software Features wie „leicht“ es eigentlich ist Vorteile für eine bestimmte Architektur herauszuholen. Sind die Ingenieure bei AMD zu doof dazu?


.....
Zum "Wohl der Spieler" macht kein Hersteller irgendwas. Löst Euch doch mal von dieser romantischen Vorstellung.
sicher nicht aus reiner Menschenfreundlichkeit, aber vielleicht weil man den Gesamtmarkt im Auge hat? Wachstum kann durch Verdrängung oder durch erschließen neuen Potenzials entstehen.

Greetz
U. S.

edit:
Und bevor mich jetzt jemand ins rot Lager steckt, ich habe gerade meine 290er rausgeschmissen und mir eine 970 GTX geholt, weil mir AMD Sturheit in Sachen Downsampling auf den Keks geht

gnomi
2014-11-05, 10:27:27
In Xbox One Portierungen wie Ryse & Dead Rising 3 schneiden die AMD Karten schon gut ab.
Nur zusammen mit 3,4 Mantle Spielen alleine reicht das dann auch nicht.
Hier werden nur Defizite ausgeglichen.
Wenn ich bedenke, wie viele hier im Forum die Konsolen Deals noch als Trend gesehen haben.
Davon hat sich bislang nichts bewahrheitet.
Eventuell aber auch, weil die neuen Konsolen sehr kostenschonend und limitierend ausgefallen sind und einfache Programmierung im Fokus haben.
Stattdessen findet man jetzt bei allen spannenden Holiday Titeln Gameworks. (außer Dragon Age 3)
Und die PC Versionen sind ohnehin total überlegen was die Asset- und Bildqualität plus Framerate angeht.
Im Grunde läuft es so gut wie nie zuvor auf PC- erst Recht mit nvidia Karte. :wink:

Blediator16
2014-11-05, 10:57:05
In Xbox One Portierungen wie Ryse & Dead Rising 3 schneiden die AMD Karten schon gut ab.
Nur zusammen mit 3,4 Mantle Spielen alleine reicht das dann auch nicht.
Hier werden nur Defizite ausgeglichen.
Wenn ich bedenke, wie viele hier im Forum die Konsolen Deals noch als Trend gesehen haben.
Davon hat sich bislang nichts bewahrheitet.
Eventuell aber auch, weil die neuen Konsolen sehr kostenschonend und limitierend ausgefallen sind und einfache Programmierung im Fokus haben.
Stattdessen findet man jetzt bei allen spannenden Holiday Titeln Gameworks. (außer Dragon Age 3)
Und die PC Versionen sind ohnehin total überlegen was die Asset- und Bildqualität plus Framerate angeht.
Im Grunde läuft es so gut wie nie zuvor auf PC- erst Recht mit nvidia Karte. :wink:

Du Sprichst von Nvidiasoft und GW Titeln. Und Ubi hat sich in den letzten Monaten nicht mit Ruhm bekleckert. Was nicht an der Tatsache ändert, dass AMD auch bei DX den Overhead reduzieren muss.

Unicous
2014-11-05, 11:13:02
Einfach nur pervers wie Grestorn AMD als innovationslos, Stillstand bewahrend und Schmarotzer an der OSS-Community bezeichnet und Nvidia als den Heilbringer ohne den die Industrie noch im Mittelalter der 90er Jahre stehengeblieben wäre.

Und dann erzählt er, man solle an die Sache ohne Emotionen herangehen.

Indem man AMD und auch Intel den Willen zu Innovation abspricht, spricht man sich selbst die Glaubwürdigkeit ab.

dargo
2014-11-05, 11:13:12
In Xbox One Portierungen wie Ryse & Dead Rising 3 schneiden die AMD Karten schon gut ab.
Nur zusammen mit 3,4 Mantle Spielen alleine reicht das dann auch nicht.
Hier werden nur Defizite ausgeglichen.
Wenn ich bedenke, wie viele hier im Forum die Konsolen Deals noch als Trend gesehen haben.
Davon hat sich bislang nichts bewahrheitet.
Eventuell aber auch, weil die neuen Konsolen sehr kostenschonend und limitierend ausgefallen sind und einfache Programmierung im Fokus haben.
Stattdessen findet man jetzt bei allen spannenden Holiday Titeln Gameworks. (außer Dragon Age 3)
Und die PC Versionen sind ohnehin total überlegen was die Asset- und Bildqualität plus Framerate angeht.
Im Grunde läuft es so gut wie nie zuvor auf PC- erst Recht mit nvidia Karte. :wink:
Das kommt davon wenn man sich auf nichts sagende Frameraten verlässt.

Zu Dead Rising 3 kann ich nichts sagen. Aber nach meinem Vergleich mit AMD und Nvidia läuft Ryse wesentlich besser auf Nvidia.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10410762&postcount=799

Dagegen läuft ein Crysis 3 bei Nvidia wie Gülle (total unspielbar).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10408086&postcount=713

Im Benchmark von Bioshock Infinite ist es auch nicht viel besser als in Crysis 3.

Beim letzten Punkt gebe ich dir aber vollkommen Recht wenn ich mir Ryse so anschaue. Das läuft hier mit einer Performancekarte (GTX970) hervorragend. Bisher sehe ich hier ~70-95fps mit max. Details, Full-HD und temporalem SMAA. Aus Performancesicht kann man sich wirklich nicht beschweren. Habe allerdings die Performance in Dead Rising 3 bei Nvidia noch recht schlecht in Erinnerung. Das galt aber noch für Kepler. Bei Maxwell weiß ich es nicht.

Schnoesel
2014-11-05, 11:17:38
Ja kommende Titel die GW nutzen sind doch fast alle von Ubisoft, aber das war von Nvidias persönlicher Hafennutte ja nicht anders zu erwarten.

Andere Titel bis auf Witcher 3 fallen mir gar nicht ein.

PS: Solange Konsolenspiele auch noch mehrheitlich für PS3 und XBox 360 mitentwickelt werden gehe ich auch nicht davon aus das AMD profitieren kann. Next Gen only Titel die nur auf GCN optimiert werden könnten in Zukunft besser auf AMD laufen.

Unicous
2014-11-05, 11:24:00
Es gibt schon noch mehr Titel, nur bewerben sie es nicht so aktiv...warum auch immer.

War Thunder und Strife z.B..


edit: Warface, Project CARS und natürlich Batman: AK.

Black-Scorpion
2014-11-05, 12:09:03
Einfach nur pervers wie Grestorn AMD als innovationslos, Stillstand bewahrend und Schmarotzer an der OSS-Community bezeichnet und Nvidia als den Heilbringer ohne den die Industrie noch im Mittelalter der 90er Jahre stehengeblieben wäre.

Und dann erzählt er, man solle an die Sache ohne Emotionen herangehen.

Indem man AMD und auch Intel den Willen zu Innovation abspricht, spricht man sich selbst die Glaubwürdigkeit ab.
Nicht aufregen. Der hat noch nie was von AMD gehalten und ist schon immer dunkelgrün gewesen. Objektivität darfst du da nicht erwarten.

N0Thing
2014-11-05, 12:16:08
Einfach nur pervers wie Grestorn AMD als innovationslos, Stillstand bewahrend und Schmarotzer an der OSS-Community bezeichnet

Ich glaube du hast AMD mit IBM in Grestorns Beitrag verwechselt. ;)


und Nvidia als den Heilbringer ohne den die Industrie noch im Mittelalter der 90er Jahre stehengeblieben wäre.

Und dann erzählt er, man solle an die Sache ohne Emotionen herangehen.

Indem man AMD und auch Intel den Willen zu Innovation abspricht, spricht man sich selbst die Glaubwürdigkeit ab.

Du klingst in deinen Beiträgen wie ein religiöser Eiferer mit Schaum vor dem Mund, von daher finde ich den Einwand, etwas weniger Emotionen und mehr Sachlichkeit würden dem Thread gut tun, durchaus richtig.

Gerade im Rückblick auf GPU-PhysX würde ich sagen, daß dort die Gefahr und die Nachteile für Spieler, die oft beschworen wurden, nicht eingetroffen sind. Ebenso hat Nvidia durch (GPU-)PhysX keine besondere Vorteile am Markt erreicht. Die meisten nehmen GPU-PhysX eben mit, wenn es geht, ansonsten wird es ignoriert.

GameWorks ist eine etwas andere Schiene und ich würde auch lieber Lösungen aus der Hand der Entwickler sehen, als eingekaufte Technologie. Andererseits regt sich auch niemand darüber aus, wenn Speedtree, FMOD, oder Havok zum Einsatz kommen und keine selbst geschriebene Technologie. Von daher sehe ich GameWorks primär als nächstes Marketing-Instrument an und im Zweifelsfall habe ich gegenüber der Konsolenfassung lieber ein paar extra Effekte von Nvidia, die auch mit AMD funktionieren, als nur einen 1:1 Port.

Unicous
2014-11-05, 12:54:55
Nö, er hat zwar IBM genannt aber auch AMD gemeint. Ich bin ja nicht doof. :rolleyes:

Denn AMD ist ja auch so ein Schmarotzer, der sich von der Community aushalten lässt.


Wenn du das Echauffieren über die heuchlerischen Kommentare, man soll die Emotionen außen vor lassen, als religiösen Eifer gleichsetzt und damit natürlich mir zwischen den Zeilen noch andere Dinge unterstellst... so be it. Wie soll ich auf dieser personalisierten Ebene noch weiter diskutieren.

Ich habe mehrmals Fragen gestellt, die mir nicht oder nur schwammig beantwortet werden. An stattdessen wird das gleiche Pony bis zum Erlahmen geritten. Diese Diskussion bewegt sich ja nur im Kreise, gewichtige neue Argumente kommen von keiner Seite (inklusive mir).

Warum ist das so? Weil wir so gut wie nichts über GameWorks wissen. Es ist eine Black Box und Nvidia hat nur widerwillig Informationen preisgegeben. Das Lizensierungsmodell liegt immer noch im Nebel. Ich frage mich immer warum man daraus so ein Geheimnis machen muss. Es sind doch "nur" Effekte und Algorithmen. Es wird ja nicht das Rad neu erfunden.

Zu PhysX

Ageia ist 2006 großspurig damit hausieren gegangen, dass PhysX die Gaming Welt revolutionieren wird. Ich habe mir damals gedacht, wow realistische Physikeffekte und keine wie Bretter umfallende Gegner mehr, aber die extra Karte finde ich scheiße. Zwei Jahre später wurden sie von Nvidia aufgekauft
Als dann die 8(000)er Serie herauskam und Jensen PhysX Support ohne extra Karte angekündigt hat, habe ich mir unterschwellig auch wegen PhysX eine neue Karte gegönnt, obwohl die alte Nvidia eigentlich noch ausreichend war.:tongue:

Und was danach kam war einfach nur ein Witz. PhysX hat nichts revolutioniert und ist nichts weiter als ein Nischenprodukt geblieben. Gegner fallen immer noch um wie Bretter oder werden wie von einem Gummiband in der Gegend verteilt. Es wurde rein gar nichts revolutioniert, Stagnation würde ich das nennen.

Und auch wenn es jetzt naiv klingt, Havok ist weiterhin eine eigenständige Firma, die "lediglich" von Intel aufgekauft wurde. Ich fand den move von Intel auch reichlich beschissen, aber zumindest sind sie keine Geldhaie wie Nvidia (also Havok).


Havok's Intel® sponsored free binary-only PC download can be used during development to evaluate, prototype, and commercially release any PC game. There are some basic licensing rules to follow:

PC titles sold for a retail value of less than $10.00 USD do not require a Havok distribution license to be executed.
PC titles sold for a retail value of more than $10.00 USD or more do require a Havok license to be executed but at no additional cost.

http://www.havok.com/try-havok

Ich habe auch kein Problem mit Speedtree und Konsorten. Denn es sind zumeist unabhängige Unternehmen die solche Programme und Algorithmen zur Verfügung stellen.

Havok stellt eine abgabefreie Version zur Verfügung, das SDK ist frei verfügbar, Samples und Dokumentation. Warum kann Nvidia das nicht auch machen. Wo liegt das Problem? Warum muss man das im Geheimen machen und die Lizensierungsbedingungen verschleiern?

aths
2014-11-05, 13:57:11
Ahjo, wann hat sich denn eine sinnvolle Entwicklung wirklich durchgesetzt?!

So in der Vergangenheit schaute es eher so aus, als ob sich immer das schlechtest mögliche durchgesetzt hat. Siehe VHS. Siehe Windows...

Oder der Knaller schlechthin: Blei im Sprit, obwohl man damals schon über Ethanol nachdachte, um die Klopffestigkeit zu erhöhen. All das sind Dinge, die belegen, dass man eben NICHT den sinnvolleren Weg einschlägt.

Und auch sehe ich es anders.

DAS; was hier gerade passiert, ist eher dass man sich das eigene Grab schaufelt, dass mehr Leute vom PC Gaming abgeschreckt werden und sich lieber 'ne Konsole kaufen, um Spiele zu spielen, da sie dort nicht mit solch einem Mist zu tun haben...
Was nV hier gerade abzieht, ist einfach nur kurzfristige Gewinnmaximierung. Auf lange Sicht wird das eher ein weiterer Weg zu ihrem eigenen Grab sein...

Lass mal Intel und AMD HBM auf APUs packen und die auch die GPU entsprechend breit auslegen. Dann ists Asche mit den meisten Grafikkarten. Da kannst durchaus befürchten, dass der gesamte Markt bis einschließlich der 750 bzw Radeon 270 komplett wegfällt, da in CPU integriert. Wenn die beiden Hersteller das wollen natürlich nur...

Und nur mit High End Karten kann man nun auch nicht unbedingt überleben.


Anyway: Gameworks ist eher etwas äußerst negatives. Der Witcher3 Entwickler hat sich ja auch schon mehrfach sehr deutlich dazu geäußert. Nämlich, dass er selbst es richtig scheisse findet. Im Rahmen seiner Möglichkeiten hat er alles gemacht, was er konnte, um sich gegen diesen Bullshit zu wehren...

Aber dass das echt scheiße ist, was hier gerade passiert, wird auch noch schön geredet von einigen Herrschaften. DAS ist das Schlimme. Und alle, die anderer Meinung sind, werden da geflamt...

Erinnert ein wenig an das, was fefe hier schrieb (http://blog.fefe.de/?ts=aab297e4), was hier gerade passiert, leider.Wer fefe zitiert, will hoffentlich keine ernsthafte Antwort erwarten.

In den ersten drei Vierteln deines Postings bist du offtopic, dann zitierst du eine Einzelmeinung zu einem einzelnen Spiel, so als sei damit die ganze Sache geklärt.

P.S. VHS war das insgesamt beste System. Video 2000 war mechanisch viel zu anfällig, Betamax hatte nur marginal bessere Bildqualität aber benötigte klobige Rekorder wegen des U-Lade-Mechanismus'.

Grestorn
2014-11-05, 13:58:20
Einfach nur pervers wie Grestorn AMD als innovationslos, Stillstand bewahrend und Schmarotzer an der OSS-Community bezeichnet und Nvidia als den Heilbringer ohne den die Industrie noch im Mittelalter der 90er Jahre stehengeblieben wäre.

AMD ist nicht innovationslos, das habe ich auch nie behauptet.

Der Innovationsdruck von nVidia ist einfach höher, dort will man unbedingt Alleistellungsmerkmale haben, um den Marktanteil zu erhöhen.

Bei nVidia ist sicher nicht alles Gold, was glänzt. Es gibt so viel, über das ich mich ärgere. Ich bin auch nicht "dunkelgrün", wie Black-Scorpion behauptet, weil ich nVidia als Firma so toll finde, sondern weil ich die Features, die nVidia aber eben AMD eben nicht bietet, einfach schätze. Neben den "großen" Dingen gehören auch so Kleinigkeiten wie das Profilmanagement dazu.

AMD hat jederzeit die Chance, mich zu überzeugen. Ich hab auch immer wieder Anläufe gestartet und bin jedesmal enttäuscht worden.

Das macht AMD nicht zu einem schlechten Hersteller oder die Käufer zu uninformieren oder anspruchslosen Menschen. Ich habe einfach nur andere Prioritäten.

Und dann erzählt er, man solle an die Sache ohne Emotionen herangehen.Was mich einfach nur ärgert, wenn man in Argumenten unsachlich argumentiert. Ich gebe mir sehr viel Mühe, sachlich zu bleiben und jedes Argument zu begründen.

Wir befinden uns hier in einem Thread, in dem nVidia vorgeworfen wird, sie würden "den Entwicklern, Endanwendern und AMD Kraft rauben" (Threadtitel) in dem sie Gameworks anbieten. Du argumentierst ganz ähnlich.

nVidia als das Böse schlechthin darzustellen, das nichts anderes im Sinne hat, als nicht nur AMD sondern auch die ganze Spieleindustrie und den Kunden noch dazu zu schädigen, ist schon sehr emotional und unsachlich.

Indem man AMD und auch Intel den Willen zu Innovation abspricht, spricht man sich selbst die Glaubwürdigkeit ab.

Verglichen mit nVidia gibt es von AMD einfach leider weniger innovative Entwicklungen, das ist in meinen Augen so. Es gibt welche, es könnten aber m.E. durchaus noch mehr sein. Schnellere und billigere Karten alleine ist für mich kein tragfähiges Konzept.

Für Intel ist der GPU Markt nur eine Nische. Die haben ihre Innovationen auf anderen Gebieten.

Ob mich diese Meinung in Deinen Augen nun weniger "glaubwürdig" macht, ist mir eigentlich ziemlich egal. Denn ich kann sie ja recht gut begründen, oder nicht?


Nicht aufregen. Der hat noch nie was von AMD gehalten und ist schon immer dunkelgrün gewesen. Objektivität darfst du da nicht erwarten.

Behaupten wir einfach mal was, es wird schon was hängen bleiben, gell? :)

Ich habe jedenfalls das Gefühl, dass der Druck nVidia anzugreifen und AMD zu verteidigen bei einigen sehr ausgeprägt ist. Als ob ein kleiner Komplex dahintersteckt.

Du wirst jedenfalls kein einziges Posting von mir in einem AMD Thread (oder sonst wo) finden, wo ich AMD oder eines deren Features niedermache.

Nö, er hat zwar IBM genannt aber auch AMD gemeint. Ich bin ja nicht doof. :rolleyes:Da in dem Posting, auf das ich geantwortet habe, von IBM die Rede war, hab ich auch IBM und nicht AMD gemeint. Nur wenig von dem was ich über IBM geschrieben habe, passt auch auf AMD.

Denn AMD ist ja auch so ein Schmarotzer, der sich von der Community aushalten lässt.Bei bestimmten Innovationen, bei denen man nVidia ja lieber böse böse Alleingänge vorwirft, macht AMD das ganz gerne, ja. Und dann kommt Mantle ... :tongue:

Ich würde AMD aber wirklich nicht als Schmarotzer bezeichnen. Die Ingenieursleistung hinter den GPUs, und um die geht es letztlich, ist beachtlich und steht nVidia in gar nichts nach (andersrum auch nicht). Wenn die beiden Hersteller einfach für sich entwicklen würden, versuchen das beste Produkt zu präsentieren (und dazu gehören auch alle Features), ohne einen Huddy, andere wie beißwütige Kläffer und deren hilfsbereite Vasallen aus den Foren auf den jeweiligen Konkurenten losgehen zu lassen, dann wäre es sicher weniger anstrengend.

Havok stellt eine abgabefreie Version zur Verfügung, das SDK ist frei verfügbar, Samples und Dokumentation. Warum kann Nvidia das nicht auch machen. Wo liegt das Problem? Warum muss man das im Geheimen machen und die Lizensierungsbedingungen verschleiern?

https://developer.nvidia.com/physx-sdk

Kann es nicht sein, dass Du einfach grundsätzlich immer erst mal von negativen ausgehst, bevor Du Dich informierst?


P.S. VHS war das insgesamt beste System. Video 2000 war mechanisch viel zu anfällig, Betamax hatte nur marginal bessere Bildqualität aber benötigte klobige Rekorder wegen des U-Lade-Mechanismus'.

Und was OnTopic zu ergänzen: ...und es gab für VHS einfach auch die beste Software-Unterstützung

(grübel grübel, was meint er denn jetzt damit?!) :)

aths
2014-11-05, 14:03:49
Kann mir jemand erklären, warum Nvidia die Tools, Effekte, Features nicht einfach zur Verfügung stellen kann...für jedermann. Kostenlos. Ohne Fallstricke.Zum Teil macht Nvidia das.

Nehmen wir das Gras-Rendering, was derzeit von Nvidia wie eine Sau durchs Dorf getrieben wird. Bereits im Original "GPU Gems" (Buch-Serie) gibt es ein Kapitel zum Gras-Rendering, wenn auch ohne dieses Level an Interaktion; das erwähnte Buch erschien zu Geforce-FX-Zeiten.

Nvidia hatte dort einige Kapitel von Mitarbeitern schreiben lassen, andere von Engine-Entwicklern. Natürlich sollte es die Leute dazu animieren, auf einer Geforce zu entwickeln; andererseits spürt man auch den Beweggrund, die Hardware durch kluge Programmierung gut auszunutzen. Die Kapitel erklären die notwendige Mathematik, bieten dann eine Beispielimplementation als Shader und oft gibt es noch eine Diskussion um Performance Vor- und Nachteile verschiedener Verfahren.

Leider wird das im Nvidia-Marketing oft krass aufgebauscht. Das ist schade. Bücher wie GPU Gems zu lesen ist ein Genuss, viel Material hiervon wird zudem kostenlos von Nvidia zur Verfügung gestellt, hier zum Beispiel: http://http.developer.nvidia.com/GPUGems3/gpugems3_part01.html

Nvidia-Werbevideos zu sehen ist im Vergleich ein Grauen, die richten sich an die (vom Marketing wahrscheinlich für leicht beeinflussbare gehaltene) Normalgamer.

PHuV
2014-11-05, 14:11:35
Dann schau dir aber mal an, was bei IBM, Oracle usw usw abgeht. Da wird ganz klar auf offene Standards gesetzt, bzw. im Falle von IBM diese immer weiter ausgebaut.
Ich habe jeden Tag mit diesem Zeugs zu tun, da reimst Du Dir was zusammen. Klar machen sie ein paar offene Standards, der Rest ist aber komplett proprietär abgeschirm, wie bei allen anderen Herstellern auch. Oder erklär mir mal bitte, warum IBM beispielsweise ein eigenes Java verwendet? So viel zu offen und Standard. Und Oracle ist nochmal eine ganz eigene Nummer, die haben heute so vieles im Programm, teils offen, und teils restriktiv abgeschirmt, das kann man überhaupt nicht über einen Kamm scheren.

Fakt ist, sie wollen alle Geld verdienen.

Unicous
2014-11-05, 14:24:02
@ aths

Ich rede nicht über die Vergangenheit, sondern die Gegenwart.

Ich hatte ja bereits erwähnt, dass Nvidia dass all die Jahre gemacht hat... warum auf einmal der Sinneswandel man müsse damit unbedingt Geld verdienen wollen.

Um die Industrie voranzubringen? It simply does not compute. Ich verstehe es nicht.

All die Jahre gab es neue Tech Demos und Code-Schnipsel. Neuerdings verschließt sich Nvidia immer mehr und verkauft diese ehemals kostenlosen Demos (edit. inklusive Support und Implementierung natürlich). Das ist ja nicht meine persönliche Meinung. Die Entwickler die nicht bei Ubisoft arbeiten:wink: sehen das ja ähnlich und wundern sich warum Nvidia Dokumentationen nicht mehr zugänglich macht.

Und vor Allem finde ich es reichlich befremdlich, dass Nvidia Dinge wie Global Illumination so darstellt, als hätte sie selbst es erfunden und es die neueste und tollste Sache seit geschnitten Brot ist, oder bauscht Dinge auf die längst Teil von Direct X sind. Ich verstehe das nicht. Was soll das?

aufkrawall
2014-11-05, 14:29:35
Marketing. Außerdem ist wohl vorerst keine DX11.3 Karte von AMD in Sicht (für schnellere Voxelization).

Unicous
2014-11-05, 14:44:57
Natürlich ist es Marketing. Aber ich finde es einfach unehrlich, wenn Tom Peterson sagt, ja VXGI ist supertoll und wir sind die Innovationsführer und wir würden uns freuen wenn die Konkurrenz das auch wäre.

Das ist Heuchelei. AMDs Roy Taylor und Richard Huddy stehen dem in nichts nach. Die sind auch Dummschwätzer.

Ich möchte nur mal einen Beweis dafür haben, dass GameWorks die Industrie voranbringt. IMO ist es eher das Gegenteil und könnte langfristig zu einer Schräglage führen, bzw. diese nochmals verschärfen.

Den Indies geht es nämlich nicht so gut wie man denkt. Die müssen jeden Tag ums Überleben kämpfen. Den ehemals unabhängigen Entwicklern, die von großen Publishern aufgekauft wurden, geht es genauso dreckig. Die werden nachdem sie das Spiel "vergoldet" haben, entlassen und ein anderes Team übernimmt im Schlimmstfall den Support, oder die Entwicklung von DLCs.

Die Gaming-Industrie fährt immer weiter ihre Ellbogen aus und ich sehe nicht wie GameWorks einen positiven Beitrag leistet. Am Ende hat man Einheits-Effekte von Nvidia, weil es für die Publisher günstiger ist eine Lizenz zu kaufen, als ein paar Entwickler dafür abzustellen.

aufkrawall
2014-11-05, 14:49:15
Das wird so lange kein echtes Problem sein wie AMD einen signifikanten Marktanteil hat. Wenn dieser kleiner wird, liegt das sicher nicht primär an NVs aggressiver Proprietär-Politik. Es läuft ganz was anderes schief.

Unicous
2014-11-05, 15:27:36
Aus dem Zusammenhang gerissene Treiberprobleme haben nichts mit dem Thema zu tun.


Es geht mir im Übrigen auch nicht darum die Firma Nvidia zu "bashen" oder in einem schlechten Licht darzustellen, da ich selber Kunde bin. Es geht mir eher um die Führungsabteilung und deren strategische Entscheidungen der letzen Jahre.

Ich sehe GameWorks kritisch. D.h. nicht dass ich automatisch die Produkte von Nvidia verteufele, wie hier von einigen unterstellt wird.

Kartenlehrling
2014-11-05, 15:47:47
Ihr schweift jetzt zusehr ab, AC:unity, PROJECT CARS und witcher3 werden zeigen wie "frei" die Gamesworks wirklich ist,
und wie weit sie die Entwicklung vorantreibt und nicht bremst und behindert.

Hübie
2014-11-05, 16:06:09
nVidia hat 2012 bereits eine Umstrukturierung begonnen (2008 losgetreten). Jetzt ist womöglich eine Konsequenz daraus dass man für deren Dienstleistungen immer zahlen muss. Was man davon hält ist jedem seine Sache, aber es ist und bleibt ein Unternehmen mit Richtlinien und Zielen welche man operativ, taktisch und strategisch erreicht.
Warum fragst du nicht direkt bei nVidia nach, unicous? Du bekommst zu 90% eine Antwort. Die wird dich zu 90% nur nicht zufrieden stellen ;D

dargo
2014-11-05, 16:08:59
Ihr schweift jetzt zusehr ab, AC:unity, PROJECT CARS und witcher3 werden zeigen wie "frei" die Gamesworks wirklich ist,
und wie weit sie die Entwicklung vorantreibt und nicht bremst und behindert.
Project Cars wird auf Nvidia eh deutlich besser laufen. Das Spiel hängt sehr stark an der CPU. In pCars kann nur Mantle AMD retten.

Gimmick
2014-11-05, 16:12:16
Ihr schweift jetzt zusehr ab, AC:unity, PROJECT CARS und witcher3 werden zeigen wie "frei" die Gamesworks wirklich ist,
und wie weit sie die Entwicklung vorantreibt und nicht bremst und behindert.

Du vergisst FarCry4

http://www.pcgameshardware.de/Far-Cry-4-PC-256888/News/Minimale-und-empfohlene-Systemanforderungen-1141625/

:D

Schnoesel
2014-11-05, 17:58:24
War klar dass Ubisoft es schafft ausnahmslos in allen Spielen AMD erstmal schlecht aussehen zu lassen. zum Glück jucken mich deren Spiele absolut Null, sonst könnte man sich fast schon wieder dabei aufregen.

Alle Nvidianer hier finden das doch nur toll weil sie bislang keine Nachteile habe da Gaming Evolved Titel Nvidia nicht benachteiligen. Ich würde zu gerne sehen wenn es irgendwann mal andersrum ist. R9 280X oder GTX 980 für highest Settings bitte :freak:

Also AMD setzt bitte eure Macht in den Konsolen um, nehmt Geld in die Hand lasst Nvidia wann immer es geht alt aussehn, dann haben wir doch was alle wollen.

Gipsel
2014-11-05, 18:15:05
Aufgeräumt.
Bitte beim Thema bleiben!

gnomi
2014-11-05, 18:56:53
Also ich finde, dass die Ubisoft Titel technisch auch Dank der GameWorks Sachen ganz weit vorne sind.
Schon Black Flag & Watch Dogs haben erstklassige Grafiken und jetzt wird es mit AC Unity und Far Cry sogar noch eine Stufe besser.
Die Hardwareanforderungen sind zugegeben heftig, aber durchaus plausibel.
Alle Spiele haben riesige Spielwelten ohne nennenswerte Ladezeiten und irre viel Content und moderne GPU Features.
Bei Watch Dogs haben sie den Fehler gemacht, die Ultra Texturen nicht separat oder gar nicht zu bringen, bis es ordentlich läuft.
Aber OK, normalerweise sollte man auch nicht denken, dass so viele Spieler beratungsresistent sind und einfach nicht eine Stufe weniger fahren. :rolleyes:
Far Cry 4 hat wohl die meisten Gameworks Features.
Ich bin hier mal speziell auf Hairworks gespannt.

aufkrawall
2014-11-05, 19:27:22
Ich sehe das ähnlich entspannt. AMD wird in Zukunft weitere Mantle-Titel haben, während GW Konsolen-Ports durchaus sinnvoll aufwerten kann (etwa Tess bei AC: U).
Was dieses ganze Gewhine immer soll... Bisher hat GW AMD-User wenig bis gar nicht ins Hintertreffen geraten lassen.
Bei AC: U wird voraussichtlich AMD selbst ihrer Kundschaft ein Bein stellen, wegen ihrer "tollen" D3D-Treiber...
Sie behindern sich selber, da brauchts kein GW für.

M4xw0lf
2014-11-05, 20:14:13
Du vergisst FarCry4

http://www.pcgameshardware.de/Far-Cry-4-PC-256888/News/Minimale-und-empfohlene-Systemanforderungen-1141625/

:D
Falls das Leistungsbild den Hardwareempfehlungen folgt - GTX680 ~ 290X - dann wäre das unter aller Sau.

fondness
2014-11-05, 20:30:38
Falls das Leistungsbild den Hardwareempfehlungen folgt - GTX680 ~ 290X - dann wäre das unter aller Sau.

Tja Nvidia-Code eben.

aufkrawall
2014-11-05, 20:33:29
Den kann man ausschalten.
Wär allerdings witzig, wenn die Radeons wirklich durch die Tess-Performance limitiert wären. :freak:

Edit: Ups, mit AC: U verwechselt...

-/\-CruNcher-/\-
2014-11-05, 20:54:51
Ich denke Nvidia will die Industrie voranbringen? Das sagen sie nämlich immer wenn sie ihren proprietären Müll vorstellen, den dann nur eine handvoll Spiel wirklich nutzt und der Flächenbrand der ja dadurch in Gang gesetzt werden soll, mal wieder ausbleibt.

Also ist deiner Meinung auch nur Nvidia der Nutznießer...und der Kunde, der sich für Nvidia entschieden hat.

Naja Nvidias Research wird auch von vielen als Vorbild genommen um es besser zu machen

Siehe z.b FXAA es gibt natürlich alternativen zu vielem was Nvidia bietet aber du darfst auch nicht die Realität aus den augen verlieren keiner kann es low level so auf Nvidia Hardware optimieren wie Nvidia selbst ;)

Nur hier hat ja auch SMAA z.b gezeigt das man Nvidia im verhältnis dennoch schlagen kann, nur Nvidia wird auch besser mit MFAA z.b, ihr jetziges DSR und demnächst noch einiges mehr ;)

VXGI ist so gesehen auch nichts bessonderes (mal sollte aber auch nicht vergessen das Nvidias Research hier den Stein ins rollen gebracht hat) es gibt allerdings nur ein Studio das es bis jetzt auf AMD Hardware am laufen hat und das war auch nur mit massiven monetären support seitens von Sony möglich und wird den AMD PC wohl deutlich später sehen bis garnicht, sicherlich wird irgendein Studio schon an einer Mantle implementation sitzen ob sie erfolg haben wir werden es sehen ;)

Nur ist (wird) das ganze so Performant wie Nvidias die ihre ganze Hardware darauf optimiert haben um die Latenz so niedrig wie möglich zu halten ?

Vor allem bei TressFX vs Hairworks sieht man einfach den unterschied enorm wie weit Nvidia da ist im Vergleich zu AMD die das mal so mir nichts dir nichts mit viel externer Hilfe aus dem Boden gestampft haben.

Kartenlehrling
2014-11-05, 21:24:59
Falls das Leistungsbild den Hardwareempfehlungen folgt - GTX680 ~ 290X - dann wäre das unter aller Sau.
Tja Nvidia-Code eben.

Unterstützte Betriebssysteme:
Windows 7 SP1, Windows 8/8.1

Prozessor:

Minimale Systemanforderungen: Intel Core i5-2500K @ 3.3 GHz oder AMD FX-8350 @ 4.0 GHz
Empfohlene Systemanforderungen: Intel Core i7-3770 @ 3.4 GHz oder AMD FX-8350 @ 4.0 GHz oder besser

Arbeitsspeicher:

Minimale Systemanforderungen: 6 GB
Empfohlene Systemanforderungen: 8GB

Grafikkarte*:

Minimale Systemanforderungen: NVIDIA GeForce GTX 680 oder AMD Radeon HD 7970 (2 GB VRAM)
Empfohlene Systemanforderungen: NVIDIA GeForce GTX 780 oder AMD Radeon R9 290X (3 GB VRAM)

Soundkarte:
DirectX 9.0c kompatible Soundkarte mit aktuellsten Treibern DVD-ROM

Festplattenspeicher:
50 GB freier Festplattenspeicher

Unterstützte Peripherie-Geräte:
Windows-kompatible Tastatur und Maus benötigt, Controller optional

Multiplayer:
256 kbps oder eine schnellere Breitband-Internetverbindung
http://assassinscreed.ubi.com/de-DE/news/news_detail.aspx?c=tcm:156-180809-16&ct=tcm:148-76770-32


Das hat PCGH.de mal wieder falsch abgeschrieben .... :rolleyes:

blaidd
2014-11-05, 23:51:17
Ich sehe das ähnlich entspannt. AMD wird in Zukunft weitere Mantle-Titel haben, während GW Konsolen-Ports durchaus sinnvoll aufwerten kann (etwa Tess bei AC: U).

Solange die Gameworks-Features Teile der Spielerschaft nicht massiv benachteiligen, hab ich auch absolut nichts dagegen, gibt schon ein paar sehr schicke Effekte - Tessellation hat aber nichts damit zu tun, auch wenn sich das Nvidia gern in die Feature-Liste setzt. Viele Gameworks-Effekte nutzen allerdings Tessellation (Grass, Fur, Water, ect.)

Es kommt übrigens demnächst ein eher AMD-affines Spiel mit sehr starkem Tessellations-Einsatz :wink:

Das hat PCGH.de mal wieder falsch abgeschrieben .... :rolleyes:
Dann haben alle anderen auch falsch abgeschrieben? :rolleyes:
Gamestar (http://www.gamestar.de/spiele/far-cry-4/news/far_cry_4,49167,3080021.html)
Game-Debate (http://www.game-debate.com/games/index.php?g_id=8147&game=Far%20Cry%204)
Farcry-HQ (http://www.farcry-hq.com/far-cry-4/systemanforderungen/)

Unicous
2014-11-05, 23:54:44
Es kommt übrigens demnächst ein eher AMD-affines Spiel mit sehr starkem Tessellations-Einsatz *wink*

Ist es "My Little Pony: Fur Real"?

Kartenlehrling
2014-11-06, 00:31:07
Dann haben alle anderen auch falsch abgeschrieben? :rolleyes:


Jaa, haben sie auch ... sich ein Floh von Nvidia ins Ohr setzten lassen, der sogar wieder entfernt wurde.
Die Quelle ist doch nicht Ubisoft Montreal oder doch?

blaidd
2014-11-06, 00:49:31
Jaa, haben sie auch ... sich ein Floh von Nvidia ins Ohr setzten lassen, der sogar wieder entfernt wurde.
Die Quelle ist doch nicht Ubisoft Montreal oder doch?

Ne, das kam von Nvidia... Und ich hab auch schon gesehen, dass die Seite verschwunden ist. Hab mir schon gedacht, dass da was faul ist. Die offiziellen Anforderungen hab ich aber noch nicht gesehen, danke dafür.

Hübie
2014-11-06, 00:54:02
Solange die Gameworks-Features Teile der Spielerschaft nicht massiv benachteiligen, hab ich auch absolut nichts dagegen, gibt schon ein paar sehr schicke Effekte - Tessellation hat aber nichts damit zu tun, auch wenn sich das Nvidia gern in die Feature-Liste setzt. Viele Gameworks-Effekte nutzen allerdings Tessellation (Grass, Fur, Water, ect.)

Es kommt übrigens demnächst ein eher AMD-affines Spiel mit sehr starkem Tessellations-Einsatz :wink:


Dann haben alle anderen auch falsch abgeschrieben? :rolleyes:
Gamestar (http://www.gamestar.de/spiele/far-cry-4/news/far_cry_4,49167,3080021.html)
Game-Debate (http://www.game-debate.com/games/index.php?g_id=8147&game=Far%20Cry%204)
Farcry-HQ (http://www.farcry-hq.com/far-cry-4/systemanforderungen/)

Alle ohne Quellenangaben. Muss man noch was sagen? :|

Unicous
2014-11-06, 01:20:54
Naja, Quelle wäre dann gegebenfalls eine email vom deutschen Ubisoft-Presseheini. Dass man die nicht extra "verlinkt" ist ja wohl klar.:wink:

Aber wenn das von Nvidia kam ist das ja wirklich zum Schießen.;D

Kartenlehrling
2014-11-06, 01:36:14
Bei ComputerBase war sie so klug im Google cache nachzuschauen.

http://webcache.googleusercontent.com/search?q=cache:http://www.geforce.com/games-applications/pc-games/far-cry-4/system-requirements

Unicous
2014-11-06, 01:44:44
Es kann aber auch einfach nur ein Flüchtigkeitsfehler sein und man meinte eine 780?

Jedenfalls ist es http://www.zdf.de/ZDF/zdfportal/blob/32126158/1/data.gif

aths
2014-11-06, 04:15:36
@ aths

Ich rede nicht über die Vergangenheit, sondern die Gegenwart.

Ich hatte ja bereits erwähnt, dass Nvidia dass all die Jahre gemacht hat... warum auf einmal der Sinneswandel man müsse damit unbedingt Geld verdienen wollen.

Um die Industrie voranzubringen? It simply does not compute. Ich verstehe es nicht.

All die Jahre gab es neue Tech Demos und Code-Schnipsel. Neuerdings verschließt sich Nvidia immer mehr und verkauft diese ehemals kostenlosen Demos (edit. inklusive Support und Implementierung natürlich). Das ist ja nicht meine persönliche Meinung. Die Entwickler die nicht bei Ubisoft arbeiten:wink: sehen das ja ähnlich und wundern sich warum Nvidia Dokumentationen nicht mehr zugänglich macht.

Und vor Allem finde ich es reichlich befremdlich, dass Nvidia Dinge wie Global Illumination so darstellt, als hätte sie selbst es erfunden und es die neueste und tollste Sache seit geschnitten Brot ist, oder bauscht Dinge auf die längst Teil von Direct X sind. Ich verstehe das nicht. Was soll das?Wie gesagt, Nvidia-Marketing-Material ist ein Grauen. Im Tonfall oft unnötig selbstherrlich, oft auch mit bewusst verwirrenden Formulierungen welche selbst einfache Methoden, wie 4xS-Antialiasing, als total ausgetüftelte High-Tech-Methode darstellen.

Seitdem uns DX7-T&L als Durchbruch verkauft wurde, habe ich einen Rochus auf das Marketing von NV.

Was mich bei Gameworks oder TWIMTBP nervt, sind die Logos beim Spielstart. Ich will zocken und mir keine Logos ansehen müssen. Dass ein Grafikkartenhersteller Spiele-Entwicklern gegen Logos Hilfe leistet, ist eigentlich nicht dessen Aufgabe, die Grafikkartenhersteller sollten lieber Treiber schreiben welche 1:1 das machen was die Applikation anfordert, und nicht die trilineare Filterqualität verschlechtern.

Es ist eine Sache, ein Verfahren zur Berechnung eines Effekts zu beschreiben und einen Beispiel-Shader mitzuliefern. Etwas anderes ist es, den Effekt in eine bestehende Engine zu integrieren. Dafür ist viel mehr Manpower nötig. Dass dafür eine Art Gegenleistung erwartet wird, dürfte einsichtig sein. Immerhin gibt es im GPU-Markt noch Konkurrenz.

Ein etwas hinkender Vergleich: Was wäre, wenn Intel und AMD damals nicht mit gegenseitig inkompatiblen SIMD-Befehlssätzen um die Entwickler und User konkurriert hätten? Früher oder später wären SIMD-Erweiterungen gekommen, es hätte aber gedauert bis sich herausstellt, welche Ansätze die besseren sind. Damals litten Käufer darunter, wählen zu müssen, oder die Entwickler litten darunter, für zwei Verfahren jeweils einen Extra-Pfad schreiben zu müssen.

4Fighting
2014-11-06, 16:02:34
Was mich bei Gameworks oder TWIMTBP nervt, sind die Logos beim Spielstart.

Die gibts aber auch bei Gaming Evolved Titeln;)

Unicous
2014-11-06, 20:30:28
@aths

Das mit den Logos hatte ich schon früher in dem Thread angeführt. Ich finde das einfach zum Kotzen. Vor allem weil es immer dieselben Publisher sind, die einem ihre Scheiß Logos aufzwängen.

Ich habe kein Problem beim ersten Start mir den kompletten Logomüll anzutun, aber wenn ich ein MP-Spiel zocken will habe ich keinen Bock eine halbe Minute und mehr meiner Zeit stehlen zu lassen. Ubisoft und EA sind ja da mit die größten Schweine (deswegen boykottiere ich diese Publisher zum Großteil auch).

Das ich dazu gezwungen werde, bei jedem einzelnen Spiel und nach jedem Update die Spieledateien zu modifizieren (meist gibt es ja nicht einmal einen Eintrag den man modifizieren kann, man muss den Scheiß löschen/umbenennen/verschieben)


Aber mal kurz OT. Was ist denn jetzt mit Far Cry 4. Die eine Seite behauptet

http://www.kitguru.net/gaming/matthew-wilson/these-are-the-confirmed-far-cry-4-pc-system-requirements/

Die 680/290X wäre tatsächlich die Voraussetzung, eine andere sagt es wäre doch nur die 280X?

http://www.dsogaming.com/news/far-cry-4-pc-system-requirements-revealed-recommends-gtx-680-requires-30gb-of-free-hdd/

The Fuck?


Ubisoft selbst sagt 290X

http://blog.ubi.com/far-cry-4-pc-specs/

What? The? Fuck?

Skysnake
2014-11-07, 08:05:32
Ja die Logos kotzen mich auch an!

Ich zocke gerade wieder Batman, und da ich öfters auch nur mal 30 min zocken kann, suckt es derbst, das man sich den ganzen Introscheis JEDES Gottverdammte mal anschauen muss.... Die ersten 1 bis von mir aus sogar 10 mal ok, aber dann soll man den Kack doch bitte überspringen können...

M4xw0lf
2014-11-07, 08:32:57
Im Normalfall kann man doch bei jedem Spiel einfach die Videodateien löschen / in einen anderen Ordner verschieben - Fall erledigt.

Arcanoxer
2014-11-07, 09:16:45
Also AMD setzt bitte eure Macht in den Konsolen um, nehmt Geld in die Hand lasst Nvidia wann immer es geht alt aussehn, dann haben wir doch was alle wollen.
Als ob AMD da was zu Melden hat.
Die haben den Xbone/PS4 Deal doch nur bekommen weil nVidia keine Lust darauf hatte sich zu verramschen.
AMD hingegen ist sich dafür nicht zu schade, was man sehr gut bei den Aktuellen Quartalsergebnissen sehen kann.
Praktisch Stagnation.

Gimmick
2014-11-07, 10:35:31
Aber mal kurz OT. Was ist denn jetzt mit Far Cry 4. Die eine Seite behauptet

http://www.kitguru.net/gaming/matthew-wilson/these-are-the-confirmed-far-cry-4-pc-system-requirements/

Die 680/290X wäre tatsächlich die Voraussetzung, eine andere sagt es wäre doch nur die 280X?

http://www.dsogaming.com/news/far-cry-4-pc-system-requirements-revealed-recommends-gtx-680-requires-30gb-of-free-hdd/

The Fuck?


Ubisoft selbst sagt 290X

http://blog.ubi.com/far-cry-4-pc-specs/

What? The? Fuck?

Das mit der 680 und 290X scheint zu stimmen ;D

Hier gibts ein Featurevideo zu FC4: http://www.pcgameshardware.de/Far-Cry-4-PC-256888/Videos/Die-Nvidia-Grafikfeatures-im-Trailer-1141809/

Waren diese "Godrays" nicht bei der Maxwell-Einführung als neues Feature erwähnt worden? Dachte Kepler kann das dann auch nicht.
Oder verwechsle ich da einfach was?

Black-Scorpion
2014-11-07, 11:05:23
Schön das einer Einblick in die Vertragsverhandlungen hatte. Er kann uns sicher auch alle Erleuchten was AMD bekommt und was NV wollte.
Oder ist es wie immer die übliche heiße Luft.

Arcanoxer
2014-11-07, 11:22:57
Nochmal das Far Cry 4 nVidia feature Video in 60FPS.

QcCt5kxHKZM

HOT
2014-11-07, 11:37:33
Als ob AMD da was zu Melden hat.
Die haben den Xbone/PS4 Deal doch nur bekommen weil nVidia keine Lust darauf hatte sich zu verramschen.
AMD hingegen ist sich dafür nicht zu schade, was man sehr gut bei den Aktuellen Quartalsergebnissen sehen kann.
Praktisch Stagnation.
So ein Schwachsinn, sry. Die Hersteller haben NV nicht ins Kalkül gezogen, weil NV keine akzeptable CPU-Technik hat. Gute Grafik+SoC gab den Ausschlag. Da wird auch nix verramscht.

Und bei dem Ubisoftbundle braucht AMD erst wieder ein bisschen Zeit, bis die rausgekriegt haben, welche Gameworks-Shader ersetzt werden müssen, um die künstlichen Bremsen rauszukriegen, dann laufen die Spiele wieder bei beiden Herstellern gleich schnell. Das ist doch hervorragendes Marketing, wenn Triple-A-Titel auf NV viel toller laufen als auf AMD. Systemanforderungen werden z.Z. gewaltig für Marketing missbraucht.

Arcanoxer
2014-11-07, 11:50:53
So ein Schwachsinn, sry. Die Hersteller haben NV nicht ins Kalkül gezogen, weil NV keine akzeptable CPU-Technik hat. Gute Grafik+SoC gab den Ausschlag.

Da wird auch nix verramscht.
Denn frage ich mich doch warum sich dieser Geniale Deal nicht in den Quartalsergebnissen widerspiegelt.

12 Millionen verkaufte PS4 und 7 Millionen Xbone, aber AMD nagt noch immer am Hungertuch. Dafür muss man kein Börsenguru sein um zu Wissen das da etwas nicht stimmt.

Sony & MS wollten billig, AMD hat ihn billig geben.

Schnoesel
2014-11-07, 12:02:15
Das AMD durch den Konsolendeal massig Umsatz generiert ist doch unbestritten. Da aber keiner weiß ob und wie viel Gewinn AMD dadurch macht weißt du gar nichts darüber sondern spekulierst wild. Keiner weiß wo AMD genau den Umsatz und den Gewinn macht. Und du erst recht nicht aber mit dir zu diskutieren ist müsig.

Sony und Microsoft haben bekannt gegeben warum sie AMD genommen hatten, weil nur AMD einen passenden SOC liefern konnte alles andere ist ausgemachter Blödsinn ohne Fakten oder auch nur den Hauch eines Belegs.

y33H@
2014-11-07, 12:14:28
FC4-Specs nun im Blog: http://blog.ubi.com/far-cry-4-pc-specs/

Arcanoxer
2014-11-07, 12:21:47
Keiner weiß wo AMD genau den Umsatz und den Gewinn macht.Nein, ist klar.
Nicht von dir auf andere schließen.

http://www.golem.de/news/quartalszahlen-amd-macht-weniger-umsatz-und-streicht-rund-700-stellen-1410-109908.html

Und du erst recht nicht aber mit dir zu diskutieren ist müsig.Uww... Rücken zur Wand, volle Offensive. ;D
Kennen wir uns?
Hatte noch nicht das Vergnügen. An ein 3DC 2014'er Jungspund würde ich mich erinnern. Oder wessen zweit Account bist du?

Sony und Microsoft haben bekannt gegeben warum sie AMD genommen hatten, weil nur AMD einen passenden SOC liefern konnte alles andere ist ausgemachter Blödsinn ohne Fakten oder auch nur den Hauch eines Belegs.

weil nur AMD einen passenden SOC liefern konnte
Sage ich doch, passend für ihr budget.

Skysnake
2014-11-07, 12:23:15
Denn frage ich mich doch warum sich dieser Geniale Deal nicht in den Quartalsergebnissen widerspiegelt.

12 Millionen verkaufte PS4 und 7 Millionen Xbone, aber AMD nagt noch immer am Hungertuch. Dafür muss man kein Börsenguru sein um zu Wissen das da etwas nicht stimmt.

Sony & MS wollten billig, AMD hat ihn billig geben.
Nur komisch, dass die Sparte, in die die Konsolen fallen, so ziemlich allein aktuell AMD über Wasser halten :rolleyes:

Arcanoxer
2014-11-07, 12:29:06
Umsatz ist ja nicht gleich Gewinn.

Kartenlehrling
2014-11-07, 13:42:40
Nochmal das Far Cry 4 nVidia feature Video in 60FPS.


Was sollen die 60fps bringen, das Hairworks sieht immer noch verpixelt aus?
Ich kann immer noch nichts erkennen von der Haarphysik. :eek:

Hübie
2014-11-07, 13:46:17
Mal so gefragt: Wie ist denn mittlerweile die Bilanz aus "ursurps..."? Welche Spiele liefen mit Gameworks auf AMD auffällig schlecht und erst nach längerer Zeit (sagen wir 1 Monat+) auf einem Niveau das den üblichen Durchschnitt entsprichte (Varianz hat man ja immer - würde sagen 5 %).
Gibt es da Quellen welche sich damit beschäftigen oder is das hier immer noch eine These?

HOT
2014-11-07, 14:12:02
Denn frage ich mich doch warum sich dieser Geniale Deal nicht in den Quartalsergebnissen widerspiegelt.

12 Millionen verkaufte PS4 und 7 Millionen Xbone, aber AMD nagt noch immer am Hungertuch. Dafür muss man kein Börsenguru sein um zu Wissen das da etwas nicht stimmt.

Sony & MS wollten billig, AMD hat ihn billig geben.
Nein, dank den Konsolendeals bleibt AMD auf 0. Die haben abseits davon nur Grafikprodukte. CPUs laufen nicht gut und diese Unternehmensbereiche machen Miese, was durch die Konsolendeals ausgeglichen wird. Zudem arbeitet AMD grad an 2 neuen µArchitekturen, die von Grund auf neu entwickelt werden mussten und dann kommt noch der ganze Interposerkrempel dazu und viel neue Softwarentwicklung. Das alles hat seinen Preis und das sieht man an GuV logischerweise. Die großen Einnahmen, die man dank der Konsolen macht, werden auch groß wieder ausgegeben z.Z. Das alles wird aber erst ab 2016 in Umsatz und Gewinn Früchte tragen.
Mal so gefragt: Wie ist denn mittlerweile die Bilanz aus "ursurps..."? Welche Spiele liefen mit Gameworks auf AMD auffällig schlecht und erst nach längerer Zeit (sagen wir 1 Monat+) auf einem Niveau das den üblichen Durchschnitt entsprichte (Varianz hat man ja immer - würde sagen 5 %).
Gibt es da Quellen welche sich damit beschäftigen oder is das hier immer noch eine These?
Die Metro Remakes, Watchdogs ab Start, die 3 neuen Ubi-Titel offensichtlich... mal sehen wie es beim Witcher aussieht. Quelle: Siehe Benchmarks, gibts genug. Komischerweise gibts keine Mantle-Titel, die auf NV schlecht laufen, nur Gameworkstitel, die auf AMD sichtbar schlecht laufen.

Dural
2014-11-07, 14:15:12
Sony und MS haben die SoC von AMD gewählt weil 1. AMD so was machen konnte und 2. weil sie billiger waren als andere Produkte / Lösungen.
Das generiert etwas Umsatz und man kann davon den Mitarbeiter die Löhne bezahlen. Alles andere ist Wunsch denken und zeigen die Quartals Ergebnisse auch eindeutig.

Jensen hat schon mehrfach erwähnt das es schön ist wenn man in den Konsolen drin ist, er mache dies aber nicht um jeden preis. Diese Aussage zeigt doch eindeutig was man von solchen Deals Finanziell hat.
Für AMD ist die Aktuelle Situation aber natürlich genau richtig, es ist immer gut wenn was läuft und man hat dadurch auch eine bessere Position.

Schnoesel
2014-11-07, 14:23:38
@ Arcanoxer

Bitte poste hier doch die Stelle aus deinem Link wo der Gewinn/Verlust der Konsolen SOCs ausgewiesen sind, ich kanns sie ja irgendwie nicht finden.

y33H@
2014-11-07, 14:29:41
"Enterprise, Embedded and Semi-Custom": 648 Mio Umsatz und 108 Mio Gewinn in Q3/2014.

Schnoesel
2014-11-07, 14:31:28
Und wo fallen die Konsolen SOCs nochmal rein? Ach ja in die Sparte (Enterprise, Embedded and Semi-Custom) die Gewinn macht ich Dummerchen. Imo die einzige Sparte die derzeit überhaupt Gewinn macht.

Knuddelbearli
2014-11-07, 14:34:59
Als ob AMD da was zu Melden hat.
Die haben den Xbone/PS4 Deal doch nur bekommen weil nVidia keine Lust darauf hatte sich zu verramschen.
AMD hingegen ist sich dafür nicht zu schade, was man sehr gut bei den Aktuellen Quartalsergebnissen sehen kann.
Praktisch Stagnation.


Mal wieder das Märchen wird es euch nicht langsam zu dumm?
Alleine schon mit was für CPus sollte NV den SOC basteln?

HOT
2014-11-07, 14:36:57
Und wo fallen die Konsolen SOCs nochmal rein? Ach ja in die Sparte (Enterprise, Embedded and Semi-Custom) die Gewinn macht ich Dummerchen. Imo die einzige Sparte die derzeit überhaupt Gewinn macht.
Semi-Custom :D.

aufkrawall
2014-11-07, 14:41:53
Die Metro Remakes

Nein?
http://www.kitguru.net/components/graphic-cards/zardon/nvidia-geforce-gtx-980-review/17/


Watchdogs ab Start

Da hatte NV wohl einfach eher den Treiber fertig bzw. den allgemein besser darauf angepasst, von AMD kam aber auch 1-2 Tage später ein Performance-Treiber.

In den angesprochenen Spielen ist es nicht der GW-code, der AMD ausbremst.
Lern mal zu differenzieren...


die 3 neuen Ubi-Titel offensichtlich... mal sehen wie es beim Witcher aussieht.

Da gehörst du wohl zu einem Kreis Eingeweihter.


Quelle: Siehe Benchmarks, gibts genug.

Und ich dacht schon, deine Fantasie.


Komischerweise gibts keine Mantle-Titel, die auf NV schlecht laufen, nur Gameworkstitel, die auf AMD sichtbar schlecht laufen.
Hitman mit MSAA (das von AMD stammt) schmeckt GM204 überhaupt nicht.

Kartenlehrling
2014-11-07, 15:33:12
Zitat von HOT
Komischerweise gibts keine Mantle-Titel, die auf NV schlecht laufen, nur Gameworkstitel, die auf AMD sichtbar schlecht laufen.

Hitman mit MSAA (das von AMD stammt) schmeckt GM204 überhaupt nicht.

Fällt das nicht gerade in den AMD Wundertreiber 12.11beta?
Da sind einige Spiele besser gelaufen, und hat bestimmt nichts mit "Ausbremsen"zu tun.

Hübie
2014-11-07, 16:27:56
Die Metro Remakes,

Weicht nicht mehr oder weniger als die üblichen Leistungsmessungen ab.

Watchdogs ab Start,

War in unter einem Monat gefixt.

die 3 neuen Ubi-Titel offensichtlich...

Wo sehe ich das offensichtlich? :|

mal sehen wie es beim Witcher aussieht.

Das sehen wir im Januar.

Quelle: Siehe Benchmarks, gibts genug.

Wo bitte? Ich kenne keine die meine Konvergenzkriterien erfüllen, welche nun wirklich nicht sehr streng reglementiert sind.

Komischerweise gibts keine Mantle-Titel, die auf NV schlecht laufen, nur Gameworkstitel, die auf AMD sichtbar schlecht laufen.

Mantle läuft per se besser als D3D11, ergo laufen alle Mantle-Titel besser als auf nVidia. Aber ich verstehe was du aussagen wolltest. Ich kann es weder bestätigen noch dementieren, da ich nur BF4 besitze.

Fazit aus deinem Beitrag: "ursurps..." ist weiterhin eine öde Behauptung ohne fundierte Beweise.

aufkrawall
2014-11-07, 16:33:25
Ich glaub, ich bin auf Hübies Ignore-List.

Hübie
2014-11-07, 17:37:24
Nein. Das hat noch kein Mitglied hier "geschafft" und du bist ja eher die Kategorie umgänglich, wenn auch manchmal nervig ;D
Ich bin übermüdet und habe deinen Beitrag einfach nicht gesehen. Aber dann deckt sich meine Aussage bzw. Ansicht weitgehend mit deiner Schlußfolgerung. Das ist entweder ein Indiz das wir gleich blöd sind oder den Fakten nahe liegen ;)

Edit: Ich verstehe übrigens nicht wieso mantle und gameworks gerne in eine Waagschale geworfen werden. Gameworks ist keine API. Dann lieber TressFX und äh äh... macht AMD überhaupt noch was? :|

Black-Scorpion
2014-11-07, 17:56:24
Jensen hat schon mehrfach erwähnt das es schön ist wenn man in den Konsolen drin ist, er mache dies aber nicht um jeden preis. Diese Aussage zeigt doch eindeutig was man von solchen Deals Finanziell hat.
Die Aussage sagt nur das er sich schön aus der Affäre gezogen hat. NV hat nichts anzubieten was die Hersteller wollten. Oder hat der auch gesagt wo sie die CPU für die Socs aus dem Hut zaubern wollen?
Um die Schnauze aufzureißen muss man erst mal was haben. Wenn man das wie NV nicht hat sollte man die Klappe halten und nicht so tun als wollte man nichts verramschen. Man kann nämlich nichts verramschen was man nicht hat.

blaidd
2014-11-07, 17:59:41
Wir werden ja sehen. Bei ACU und FC4 werden wir Gameworks mal genauer unter die Lupe nehmen, da sollten sich ja genügend Möglichkeiten bieten...

Arcanoxer
2014-11-07, 18:06:54
Was sollen die 60fps bringen, das Hairworks sieht immer noch verpixelt aus?30fps mehr als auf den Konsolen. ;D

Ich kann immer noch nichts erkennen von der Haarphysik. :eek:
Dir ist schon aufgefallen das das Video 720p ist?

aufkrawall
2014-11-07, 18:31:52
Man kann nämlich nichts verramschen was man nicht hat.
Mittlerweile haben sie es wohl, wenn sich MS & Sony auf ARM einlassen sollten.
Der nächste Design Win von Konsolen für AMD ist nicht garantiert. Was nicht unbedingt gut sein muss...

Wir werden ja sehen. Bei ACU und FC4 werden wir Gameworks mal genauer unter die Lupe nehmen, da sollten sich ja genügend Möglichkeiten bieten...
Sehr gut, erstmal Fakten schaffen sollte das Geflame eindämmen (weil einer Seite die Argumentationsgrundlage entzogen wird). :cool:

-/\-CruNcher-/\-
2014-11-07, 18:51:02
30fps mehr als auf den Konsolen. ;D


Dir ist schon aufgefallen das das Video 720p ist?


Hier 1080p etwas weniger verunschandelt als der Youtube schrott

http://www.gamersyde.com/news_far_cry_4_nvidia_gameworks_trailer-16033_en.html

Gameworks kann man schon in anderen titeln Ingame testen auch Hairworks z.b in Cod Ghost

Einen generelen overhead und latenz eindruck bekommt man auch gut mit Nvidias Hairviewer selbst

Die suche nach Gameworks titeln ist auch recht einfach

GFSDK_

suchen

M4xw0lf
2014-11-07, 18:59:41
[SIZE="1"]Sehr gut, erstmal Fakten schaffen sollte das Geflame eindämmen (weil einer Seite die Argumentationsgrundlage entzogen wird). :cool:
Und wenn zufällig die falsche Seite gestützt wird? ;)

Hübie
2014-11-07, 19:08:08
Es ist zwar ot, aber ich will mal eben was zu AMD & den Konsolen sagen:

Das ist ein Markt der kostenintensiv für jeglichen Anbieter ist. Der Ansturm hat sich gelegt und die konjunkturelle Kurve von Umsatz und Gewinn wird sich glätten. Man muss hier also Drehzahl machen um im schwarzen Bereich zu bleiben. Es wird AMD sich gelingen dies über den Zyklus aufrecht erhalten zu können, aber es wird weniger und es federt nicht alle Sparten ab.
Die Integration bzw. das Etablieren von Seamicro kostet z.B. nicht nur in der Aquisition sondern eben auch im kompletten Folgeverlauf noch Arbeit, Zeit und Geld. Wir können da nun stundenlang schwadronieren. Fakt ist AMD macht damit Kohle, ist aber auch stark vom Absatz abhängig, da der Preis fix verhandelt wurde.
Ich freue mich übrigens das AMD langsam fahrt aufnimmt. Wobei das "langsam" noch etwas euphemistisch klingt.

Und so wie ich die Sache betrachte wurde damals erst mal ein Fass aufgemacht was schön sprudelte und nun vor sich hin plätschert, da es ja doch nicht so sehr "ursurpt" ...X-D

aufkrawall
2014-11-07, 19:30:13
Und wenn zufällig die falsche Seite gestützt wird? ;)
Dann wird gewechselt und gegen die andere Seite geflamed, was sonst?

Unicous
2014-11-12, 13:45:22
Könnte mir jetzt mal jemand erklären, warum auch Far Cry 4 eine GTX 680 oder 290X benötigt, genauso wie AC:U. Langsam ist das nicht mehr heilig was Ubisoft (Montréal) da veranstaltet.

Es sind verschiedene Engines und dennoch die gleichen ("optimale") GPU-Vorraussetzungen?

edit:

LOL

AMD Graphics Cards Compatibility with Assassin's Creed Unity
We are aware that the graphics performance of Assassin’s Creed Unity on PC may be adversely affected by certain AMD CPU and GPU configurations. This should not affect the vast majority of PC players, but rest assured that AMD and Ubisoft are continuing to work together closely to resolve the issue, and will provide more information as soon as it is available.

http://steamcommunity.com/app/289650/discussions/0/620696934063518061/

;D;D


Who cares about AMD right :wink:(Oh they're in both Consoles?:eek:).

aufkrawall
2014-11-12, 13:55:52
Könnte mir jetzt mal jemand erklären, was das mit GW zu tun hat?

Unicous
2014-11-12, 13:58:59
Könnte mir jetzt mal jemand erklären, was das mit GW zu tun hat?

Far Cry 4 ist wie AS:U ein GameWorks Titel der mehrere Effekte implementiert.

TobiWahnKenobi
2014-11-12, 13:59:41
Könnte mir jetzt mal jemand erklären, warum auch Far Cry 4 eine GTX 680 oder 290X benötigt, genauso wie AC:U. Langsam ist das nicht mehr heilig was Ubisoft (Montréal) da veranstaltet.

Es sind verschiedene Engines und dennoch die gleichen ("optimale") GPU-Vorraussetzungen?

edit:

LOL


http://steamcommunity.com/app/289650/discussions/0/620696934063518061/

;D;D


Who cares about AMD right :wink:(Oh they're in both Consoles?:eek:).

vllt. weil es diese karten mit 4GiB VRAM gibt/gab und die GPUs ausreichende grundleistung mitbringen.


(..)

mfg
tobi

M4xw0lf
2014-11-12, 14:01:30
Wenn man sich die Performance von AC:U auf den Konsolen anschaut, dann hätte Ubi ganz eindeutig besser daran getan, sich weniger um Nvidia-eigenen Schnickschnack und mehr um die Optimierung auf die vorliegende Hardware zu kümmern.

nalye
2014-11-12, 14:01:42
Hier geht es bitte nur noch um das Thema, jeder weitere Verstoß gibt Punkte!

Grestorn
2014-11-12, 14:23:49
Wenn man sich die Performance von AC:U auf den Konsolen anschaut, dann hätte Ubi ganz eindeutig besser daran getan, sich weniger um Nvidia-eigenen Schnickschnack und mehr um die Optimierung auf die vorliegende Hardware zu kümmern.

Das waren sicher unterschiedliche Teams (PC und Konsole). Und deswegen hat der "nVidia-eigene Schnickschnak" sicher keinen Einfluss auf die Performance auf den Konsolen. Vielleicht sind die einfach Hardware-Technisch überfordert?

HOT
2014-11-13, 12:11:14
Das waren sicher unterschiedliche Teams (PC und Konsole). Und deswegen hat der "nVidia-eigene Schnickschnak" sicher keinen Einfluss auf die Performance auf den Konsolen. Vielleicht sind die einfach Hardware-Technisch überfordert?
Ist das so? Sind die tollen Effekte, die ja auch auf der Konsole zu sehen sind, wirklich nicht mit Gameworks gemacht? Warum benutzt man den Murks denn dann überhaupt, wenn man die Effekte anders schon hat?
Wir werden sehen, wie das mit Gameworks zusammenhängt. Das Spiel ist mit Sicherheit ein halbes Jahr zu früh dran und hätte so niemals released werden dürfen. Ist schon ne ziemlich peinliche Aktion. Hoffentlich kommt das nicht öfter vor, nicht das Ubi das Geld ausgeht und wie JoWood oder 3DO wird :D.

Kartenlehrling
2014-11-13, 13:15:06
Das waren sicher unterschiedliche Teams (PC und Konsole). Und deswegen hat der "nVidia-eigene Schnickschnak" sicher keinen Einfluss auf die Performance auf den Konsolen. Vielleicht sind die einfach Hardware-Technisch überfordert?

Da der PC anscheinen Lead-platform war schon... ausserdem "profitiert" die Console von einfluss, da Gamework sehr wohl von der XBone unterstützt wird jedenfalls haben sie das bei Release der XBone gesagt.
Und nur nebenbei zum zeitpunkt dieser Aussage gab es den Überbegriff "Nvidia Gameworks" noch nicht darum schreiben sie direkt von PhysX und APeX .


Microsofts neue Konsole soll dank PhysX-Unterstützung beeindruckende Grafik liefern. Die Technik stellt Partikel - etwa Rauch oder Splitter - aufwendig dar.
Nvidias PhysX- und APEX-Software-Development-Kits unterstützen die kürzlich vorgestellte Xbox One von Microsoft , teilte die Grafikkartenschmiede mit. Game-Designer verwenden Nvidias PhysX- und APEX-Technologien für die Kollisionserkennung und Simulation von starren Körpern, Kleidung, Flüssigkeiten, Partikel-Systemen und weiteren Elementen auf einer breiten Palette von Plattformen, einschließlich Desktop-PCs, Spielekonsolen sowie mobilen und tragbaren Geräten.

Die PhysX-Technologie ist die weltweit am meisten verbreitete Physik-Lösung für die Gestaltung von realistischen Echtzeit-Effekten in interaktiver Unterhaltungssoftware, sagt Nvidia. Die APEX-Technologie ermögliche das Erschaffen von komplexeren, Physik-fähigen Umgebungen. Mit APEX lasse sich die Anzahl und visuelle Qualität von zerstörbaren Objekten sowie von Rauch und anderen Partikel-basierten Flüssigkeiten erhöhen. Ebenso könne realitätsgetreue Kleidung entworfen werden, die mit dem Körper des Charakters interagiert und so mehr Realismus in Spielen vermittelt.

„Wir freuen uns sehr, die PhysX- und APEX-Technologien auf der Xbox One von Microsoft verfügbar zu machen", sagt Mike Skolones, Produkt-Manager für das PhysX-SDK bei Nvidia. "Die Xbox-Entwickler-Community wird PhysX und APEX zusammen mit der Xbox-One-Rechenleistung, -Programmierbarkeit und -Funktionalität der nächsten Generation nutzen können, um innovative Spiele zu erschaffen. Die Spieler können sich auf ein unvergleichliches und ultra-realistisches Erlebnis freuen.“

Nvidias PhysX- und APEX-Technologie ist auf diversen CPU-Architekturen lauffähig und kann von jeder Nvidia-GPU mit CUDA-Architektur, einschließlich der GeForce-8-Serie oder neuer, beschleunigt werden. In der Xbox One wird eine AMD-CPU verbaut. Auch die Playstation 4 soll übrigens PhysX und APEX unterstützen.

Skysnake
2014-11-13, 18:03:05
Ach mal noch was bzgl. OpenSource, und jeder ist ja dumm, der Sachen OpenSource macht, und nVidia liegt daher auch völlig "richtig" damit, alles nur propritär zu machen.

http://www.heise.de/newsticker/meldung/Kommentar-zu-NET-Die-Hoelle-friert-zu-2456674.html

Die Welt hat sich weiter gedreht...

Mancko
2014-11-13, 22:13:33
Ach mal noch was bzgl. OpenSource, und jeder ist ja dumm, der Sachen OpenSource macht, und nVidia liegt daher auch völlig "richtig" damit, alles nur propritär zu machen.

http://www.heise.de/newsticker/meldung/Kommentar-zu-NET-Die-Hoelle-friert-zu-2456674.html

Die Welt hat sich weiter gedreht...

Ja richtig. M$ hat erkannt, dass sie auch mal was OpenSource machen müssen. Guess what? Nvidia macht auch nicht alles closed. In dem Artikel steht aber nirgends, dass nun alles OpenSource wird oder ist Office etwas OpenSource? Überlass es einfach den Unternehmen, was sie OpenSource machen und was nicht.

Locuza
2014-11-13, 23:04:50
Bei CB gibt es übrigens wieder einmal den "Beweis".
GameWorks verhindert das AMD gute Treiber für die CPU-Auslastung schreibt :rolleyes: :
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/

Nvidia 980 GTX:
2 Kerne/ 3,5 Ghz = 30,8 FPS (Basis)
2 Kerne + HTT = 49.2 (+60%)
4 Kerne = 50.2 (+63%)

AMD 290X:
2 Kerne / 3,5 Ghz = 30.8 FPS (Basis)
2 Kerne + HTT = 33,6 (9%)
4 Kerne = 43 FPS (+40%)

Das hält zwar die ganze Meute auf der Welt nicht auf Gameworks die Schuld an Krebs und schlechter Performance bei AMD in Relation zu Nvidia zu geben, aber die Ergebnisse beeindrucken mich doch stark.

Hübie
2014-11-13, 23:28:47
Ach mal noch was bzgl. OpenSource, und jeder ist ja dumm, der Sachen OpenSource macht, und nVidia liegt daher auch völlig "richtig" damit, alles nur propritär zu machen.

http://www.heise.de/newsticker/meldung/Kommentar-zu-NET-Die-Hoelle-friert-zu-2456674.html

Die Welt hat sich weiter gedreht...

Dennoch gibt es Unterschiede in den Lizenzen.
Mach dir doch mal den Spaß und fange ein Grafikprojekt an und frage bei nVidia nach Ressourcen zu Gameworks an. Musst dein Projekt nur kurz präsentieren, samples schicken oder so dann bekommst du das.
Dann kannst du sehen wie viel du verändern kannst ;) Also wie offen es ist - oder eben nicht ist.
Sonst ist der Bezug hier im Thread nicht so deutlich. Nur weil du es nicht bekommst heißt es nicht dass es nicht dennoch open source ist.

Mr. Lolman
2014-11-13, 23:49:21
Bei CB gibt es übrigens wieder einmal den "Beweis".
GameWorks verhindert das AMD gute Treiber für die CPU-Auslastung schreibt :rolleyes: :
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/

Nvidia 980 GTX:
2 Kerne/ 3,5 Ghz = 30,8 FPS (Basis)
2 Kerne + HTT = 49.2 (+60%)
4 Kerne = 50.2 (+63%)

AMD 290X:
2 Kerne / 3,5 Ghz = 30.8 FPS (Basis)
2 Kerne + HTT = 33,6 (9%)
4 Kerne = 43 FPS (+40%)

Das hält zwar die ganze Meute auf der Welt nicht auf Gameworks die Schuld an Krebs und schlechter Performance bei AMD in Relation zu Nvidia zu geben, aber die Ergebnisse beeindrucken mich doch stark.

Danke für den Post. Hier sieht man, dass die schlechte Grundperformance absolut nichts mit dem hohen CPU-Load des Treibers, oder mit dem Treiber generell zu tun hat, sondern, dass NV den mit Gameworks anfallenden Workload offenbar besser auf verschiedene CPU-Threads (!!!) aufteilen kann, als AMD.

Eigentlich eine bodenlose Frechheit!



EDIT: Bezeichnend, dass es dafür ein Forenpost braucht, anstatt dass irgendjemand von den etablierten Medien die Eier hätt, auf diesen Missstand aufmerksam zu machen.

N0Thing
2014-11-14, 00:37:27
Ja, da muß AMD echt mal etwas Arbeit in den Treiber stecken. Andererseits sollte man auch bedenken, daß die GTX 980 in AC:Unity generell schneller ist als eine 290x, von daher sind die größeren Gewinne dieser Karte selbst erklärend. Die 290x gewinnt durch 900MHz Takt nichts hinzu (4770K @ 3,5 GHz @ 4K+HTT vs. 4770K @ 4,4 GHz @ 4K+HTT). Offensichtlich hängt man da schon im GPU-Limit, sofern die Karte auch wirklich komplett ausgelastet ist.

Locuza
2014-11-14, 01:07:14
Ja, da muß AMD echt mal etwas Arbeit in den Treiber stecken. Andererseits sollte man auch bedenken, daß die GTX 980 in AC:Unity generell schneller ist als eine 290x, von daher sind die größeren Gewinne dieser Karte selbst erklärend.
Mit 2 Kernen performen beide GPUs gleich, 30,8 FPS. (Okay, nehmen wir an Nvidias Treiber funktioniert bei 2 Threads einfach schlechter)
AMD gewinnt bei 4 Kernen von 2,5 Ghz auf 3,5 Ghz (+40%) nur 8% insgesamt zu.
Nvidia setzt die 40% mehr Takt allerdings in bis zu 26% zu.
Da sieht man schon, dass AMDs Treiber viel früher sperrt.

Egal ob Kerne/Threads oder Takt, Nvidia setzt es deutlich mehr um.
Es ist offensichtlich, dass Nvidia primär wegen dem Treiber gewinnt.

Edit: Okay, kleine Mystery Time.

2K 3,5 Ghz 980 und 290X = 30.8 FPS.
4K 2,5 Ghz 980 und 290X = 39.9 FPS.

Ich bin gerade verwundert mich welch göttlicher Fügung, beide GPUs das absolut gleiche Resultat erzielen (Zwei mal, trotzt jeder Messungenauigkeit).
In diesem Fall skaliert Nvidia nur über Takt und Threads.
Das sorgt aber gerade für Verwirrung bei mir.

-/\-CruNcher-/\-
2014-11-14, 01:35:04
So langsam sollte man gelernt haben das reine FPS nicht alles sind ;)

N0Thing
2014-11-14, 01:49:57
Edit: Okay, kleine Mystery Time.

2K 3,5 Ghz 980 und 290X = 30.8 FPS.
4K 2,5 Ghz 980 und 290X = 39.9 FPS.

Ich bin gerade verwundert mich welch göttlicher Fügung, beide GPUs das absolut gleiche Resultat erzielen (Zwei mal, trotzt jeder Messungenauigkeit).
In diesem Fall skaliert Nvidia nur über Takt und Threads.
Das sorgt aber gerade für Verwirrung bei mir.

2x CPU-Limit, würde ich sagen. Erstaunlicher finde ich die Unterschiede der beiden Karten beim FX-8370. 34,4 vs. 46,9. Könnte darauf hindeuten, daß der AMD Treiber am liebsten 2 und 4 Kerne vorfindet und mit Hyper-Threading und erstaunlicherweise auch mit CMT ins straucheln kommt.

Aber das Thema gehört eher in einen anderen Thread.

M4xw0lf
2014-11-14, 07:27:30
Mit 2 Kernen performen beide GPUs gleich, 30,8 FPS. (Okay, nehmen wir an Nvidias Treiber funktioniert bei 2 Threads einfach schlechter)
AMD gewinnt bei 4 Kernen von 2,5 Ghz auf 3,5 Ghz (+40%) nur 8% insgesamt zu.
Nvidia setzt die 40% mehr Takt allerdings in bis zu 26% zu.
Da sieht man schon, dass AMDs Treiber viel früher sperrt.

Egal ob Kerne/Threads oder Takt, Nvidia setzt es deutlich mehr um.
Es ist offensichtlich, dass Nvidia primär wegen dem Treiber gewinnt.

Edit: Okay, kleine Mystery Time.

2K 3,5 Ghz 980 und 290X = 30.8 FPS.
4K 2,5 Ghz 980 und 290X = 39.9 FPS.

Ich bin gerade verwundert mich welch göttlicher Fügung, beide GPUs das absolut gleiche Resultat erzielen (Zwei mal, trotzt jeder Messungenauigkeit).
In diesem Fall skaliert Nvidia nur über Takt und Threads.
Das sorgt aber gerade für Verwirrung bei mir.
Das ist auch Unsinn. Die bessere Skalierung der GTX980 aka "weniger CPU-Overhead" "bessere CPU-Nutzung" liegt daran, dass die 290X im CB-Test einfach bereits bei 4 Kernen und 2,5 GHz im GPU-Limit läuft.
Im CPU-Limit, sprich bei 2 und 4 Kernen, letzteres mit reduziertem Takt, sind die 980 und die 290X absolut gleich schnell - wo ist hier also die Treiberbremse bitte? Wenn die GPU nicht schneller kann, dann bringt mehr CPU-Takt eben nichts. Das einzige was man sehen kann ist, dass AMDs Treiber bei zwei Kernen + HTT praktisch nichts dazugewinnt gegenüber 2 Kernen ohne HTT. Die Performance von Radeon + FX CPU ist schon von Ubisoft als kaputt identifiziert worden: We are aware that the graphics performance of Assassin’s Creed Unity on PC may be adversely affected by certain AMD CPU and GPU configurations. (http://forums.ubi.com/showthread.php/946542-AMD-Graphics-Cards-Compatibility-with-Assassin-s-Creed-Unity?)
Man kann aus diesen Ergebnissen also absolut keinen schlechten Treiberoverhead bei AMD ableiten.

Wirf stattdessen mal einen Blick hier drauf:

http://www.extremetech.com/wp-content/uploads/2014/11/ACU-8xMSAA.png
http://www.extremetech.com/gaming/194123-assassins-creed-unity-for-the-pc-benchmarks-and-analysis-of-its-poor-performance/2

PCSS und HBAO+ sind Gameworks-Features, und bei Ultra natürlich aktiv.

Skysnake
2014-11-14, 08:09:58
Dennoch gibt es Unterschiede in den Lizenzen.
Mach dir doch mal den Spaß und fange ein Grafikprojekt an und frage bei nVidia nach Ressourcen zu Gameworks an. Musst dein Projekt nur kurz präsentieren, samples schicken oder so dann bekommst du das.
Dann kannst du sehen wie viel du verändern kannst ;) Also wie offen es ist - oder eben nicht ist.
Sonst ist der Bezug hier im Thread nicht so deutlich. Nur weil du es nicht bekommst heißt es nicht dass es nicht dennoch open source ist.
Keine Sorge, ich kenne nVidias Kooperationsbereitschaft schon aus eigener Erfahrung. Bevor die auch nur eine Zeile Code rausrücken, musste Sie auf Knien anflehen, dass Sie was rausrücken.

Ich weiß aber auf jeden Fal, das ich mich nicht freue, wenn ich mit nVidia ein Projekt hätte, so lange ich mehr auf Sie angewiesen sind, als Sie auf mich.

Unicous
2014-11-14, 13:15:06
Kann mir das jemand mal erklären.

AS:Unity läuft auf beiden Konsolen mit 8-Kern Prozessoren anscheinend ganz ordentlich und die GPU wird sicherlich auch normal ausgelastet, aber auf dem PC ist es auf einmal einzig und allein AMDs Schuld und Ubisoft hat dafür extra noch einen "Verkündigungsthread" in mehreren Foren geschaltet.

Es ist also einzig und allein AMDs Unvermögen zuzuschreiben, dass ausgerechnet ein AS-Spiel das noch nie AMD-GPUs mochte schlecht performt.

Gibt es ähnliche Fälle, losgelöst von Ubisoft(Montréal)-Spielen die sich so verhalten?

Und soweit ich das mitbekommen habe, gibt es auch unzählige Probleme auf Nvidia Karten, warum gibt es für AMD einen extra Thread, für Nvidia aber nicht? Ich finde das Verhalten von Ubisoft mehr als mysteriös.

Kartenlehrling
2014-11-14, 13:22:42
AS:Unity läuft auf beiden Konsolen mit 8-Kern Prozessoren anscheinend ganz ordentlich,...

Bis du dir sicher?
Es wird immer behaupte nur 6 Kerne von den 8 sind für das Spiel freigegeben.
Ausserdem dafür wie ...gut es auf dem PC läuft sind die Consolen noch gut weggekommen.

Unicous
2014-11-14, 13:25:55
Ich habe nicht gesagt, dass es auf allen 8 läuft sondern, dass die Konsolen 8 Kerne haben, was soll die Spitzfindigkeit.

Beim nächsten Mal schreibe ich dann auf "8-Kern Prozessoren aber wahrscheinlich nicht auf allen Kernen" oder wie?

N0Thing
2014-11-14, 13:44:04
AMD scheint ja keine Probleme mit echten Kernen zu haben, sondern mit HT und CMT. Und soweit ich weiß, stecken in den Konsolen nur "echte" Kerne, richtig?

Unicous
2014-11-14, 13:50:21
Windows behandelt einen CMT-Kern wie einen HT-Kern, afaik, ich glaube da sollte das Problem nicht liegen. Deswegen hat man ja auch Probleme beim Core-Parking wenn ich mich nicht irre(@Win 7).

N0Thing
2014-11-14, 13:54:52
Es fällt bei den Computerbase-Benchmarks eben auf, daß AMD aus HT und CMT keinen Vorteil zieht, ganz im Gegensatz zu Nvidia. Bei zusätzlichen echten Kernen skalieren beide Hersteller deutlich nach oben. Leider hängt die 290x bei 4770K @ 3,5 GHz @ 4K schon im GPU-Limit.

Unicous
2014-11-14, 14:19:56
Das sehe ich. Und warum skaliert Nvidia so unwahrscheinlich gut, sodass 4 Kerne gegenüber 2Kernen+HT keinen nennenswerten Vorteil bringt? Und 4 Kerne plus HT im Vergleich nur noch mickrige 6 Prozent (ich weiß: GPU-Limit)?

Kann man das auch bei anderen Spielen beobachten, dass AMD GPUs nicht mit HT umgehen können? Oder nur bei AS:U?

So legt die Radeon R9 290X bei vier Kernen und 2,5 GHz zum Beispiel nur um acht Prozent zu, wenn der Intel-Prozessor auf 4,5 GHz übertaktet wird.

No shit, CB-Sherlock. Offensichtlich ist man ja schon im GPU-Limit.

Warum wird eigentlich kein Sterbenswörtchen zur Auslastung der Kerne verloren? Warum wird so etwas eigentlich nicht mitgeloggt?


Es sieht für mich momentan einfach so aus, dass man sich bei der AMD-Optimierung nicht sooo die Mühe gemacht hat, oder mit AMD nicht zusammengearbeitet hat und jetzt AMD die Schuld daran gibt. Ob AMD wirklich die Schuld trägt kann ich nicht erkennen, weil AS:U generell ein Bughaufen ist.
Ich frage mich, ob AMD wirklich so inkompetent ist, oder mehr dahinter steckt. Denn bei anderen Spielen erscheinen die Probleme nicht so eklatant zu sein. Oder liege ich da falsch?

Grestorn
2014-11-14, 14:24:07
Ist doch klar, nVidia ist evil. Die haben sicher in GameWorks extra Warteschleifen für AMD Hardware eingebaut.

aufkrawall
2014-11-14, 14:30:13
Das Spiel ist technisch halt noch nicht ganz fertig polished.

Die HBAO+ scheint im Gegensatz zu Watch Dogs immerhin kaum noch zu flimmern. Es gibt nur weiterhin diese Tiefen-Ungenauigkeit.
Die PCSS find ich nicht vollständig gelungen, es gibt teilweise mehr Artefakte als mit Standard-Schatten.
Befremdlich finde ich auch, dass Ubi angeblich keine eigene Lösung dafür hätte. Selbst Risen 3 hat hübsche contact hardening shadows...

Unicous
2014-11-14, 14:30:40
@Grestorn

Danke für diesen erhellenden Beitrag. Ich erinnere gerne nochmals an deine Bitte um "emotionslose" Debatten.

kruemelmonster
2014-11-14, 14:35:41
Während die relativ schwache Radeon-Performance auf die Zusammenarbeit zwischen Nvidia und Ubisoft zurückzuführen ist...
Quelle (http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/)

Ist dieser direkte Zusammenhang mittlerweile konkret nachweisbar, oder stellt PCGH hier unbewiesene Tatsachenbehauptungen auf?

Grestorn
2014-11-14, 14:37:24
@Unicous:

Es tut mir leid, aber praktisch kein Posting von Dir kommt ohne Stichelei gegen nVidia aus.

Es gibt Spiele, wie Ryse z.B., die bei Release nicht sonderlich gut auf nVidia laufen. Ein paar Tage später ist das dann behoben. Ich wünsche Dir (und allen anderen AMD Anwendern), dass es hier ähnlich ist. Und ich frage mich ganz genauso, warum man diese Optimierung nicht *vor* dem Release hinbekommt.

Aber das Hüben wie Drüben nicht anders.

aufkrawall
2014-11-14, 14:39:15
Quelle (http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/)

Ist dieser direkte Zusammenhang mittlerweile konkret nachweisbar, oder stellt PCGH hier unbewiesene Tatsachenbehauptungen auf?
Sie selber haben es wohl bisher nicht mit Benchmarks bewiesen.
Ohne Quelle ist so eine Behauptung journalistisch schon Bild-Niveau.
Fehlen nur noch Titten. Ach, die gibts bei PCGH ja auch...

fondness
2014-11-14, 14:40:23
@Unicous:

Es tut mir leid, aber praktisch kein Posting von Dir kommt ohne Stichelei gegen nVidia aus.

Es gibt Spiele, wie Ryse z.B., die bei Release nicht sonderlich gut auf nVidia laufen. Ein paar Tage später ist das dann behoben. Ich wünsche Dir (und allen anderen AMD Anwendern), dass es hier ähnlich ist. Und ich frage mich ganz genauso, warum man diese Optimierung nicht *vor* dem Release hinbekommt.

Aber das Hüben wie Drüben nicht anders.


Äpfel/Birne. Ryse ist kein AMD Gaming Evolved Titel, die Leistung bei Geforce-Karten wurde von Crytec selbst per Patch zumindest ein bisschen gesteigert (allerdings schlägt eine 290X noch immer einer GTX980).

Zu den geschlossenen Gameworks Libs wurde hier ja bereits mehr als genug gesagt. Die Optimierungen vor Release sind schlicht nicht erwünscht ganz einfach.

M4xw0lf
2014-11-14, 14:53:24
@Unicous:

Es tut mir leid, aber praktisch kein Posting von Dir kommt ohne Stichelei gegen nVidia aus.

Es gibt Spiele, wie Ryse z.B., die bei Release nicht sonderlich gut auf nVidia laufen. Ein paar Tage später ist das dann behoben. Ich wünsche Dir (und allen anderen AMD Anwendern), dass es hier ähnlich ist. Und ich frage mich ganz genauso, warum man diese Optimierung nicht *vor* dem Release hinbekommt.

Aber das Hüben wie Drüben nicht anders.
Nicht sonderlich gut = nur so schnell wie bei vergleichbaren AMD-Karten. Muahaha.

Kartenlehrling
2014-11-14, 14:55:26
Die AMD CPU haben ja auch keine Luft mehr nach oben, schon vor einem Jahr bei BF4 Benchmark wurde das festgestellt.
Ich gehe ja schon immer damit haussieren das selbst ein i3-4360 in Gaming jeden FX8xxx killt oder wenigsten schlecht aussehen läst.
Und daran wird auch Mantle und DX12 "nicht viel" ändern.
Es ist auch erwiesen das ein FX8350 mehr von einer GTX780 profitiert als von einer Hauseigenen R9290x.
Was ich aber auch festgestellt haben das der grosse Vorteil der minFPS womit Nvidia Jahrelang punkten konnte mit der Maxwell Reihe eingebrochen sind.

Mit der Einführung von Freesysnc/G-sync wird das Benchmark noch schwieriger weil damit bestimmt 10-20% weniger FPS gemessen werden.
Wie soll man da nur objektive sein, weil ich verzichte gern auf 20fps wenn ich damit die min.FPS erhöhe und das Spiel geschmeidiger läuft.

Und wieder zum Thema zu kommen,
auf die AC:U Tesslation Benchmarks bin ich sehr gespannt.

Unicous
2014-11-14, 15:00:36
@ Grestorn Woher weißt du, dass ich AMD-Anwender bin?

Mein Gerätemanager, sagt mir je nach System, etwas anderes.

Ich wüsste auch nicht, wie man Ryse und Ubisoft-Titel vergleichen muss.

Ryse läuft gut auf AMD Hardware, dank CryEngine. Far Cry 4, benötigt eine 290X bzw. eine GTX 680...dank CryEngine (eigentlich ja Dunia Engine).

Diese Diskrepanz kann ich nicht nachvollziehen.

Oder bist du als nHancer auch ein nForcer, der seine Emotionen nicht unter Kontrolle hat?

Was du als Stichelei empfindest (Krokodilsträne im Knopfloch), ist mMn eine Sorge darum, dass egal ob grün, blau, rot, orange die Nähe zu den (AAA-)Spielestudios bzw. Publishern eine schlechte Wirkung auf die Industrie hat. Und da kann man noch zig mal mit den tollen Indies kommen, die das ja dann wieder ausgleichen.

Nochmals, warum stellt Ubisoft explizit AMD heraus wenn es um Probleme mit dem Spiel geht, die mannigfaltig sind. Das hat nur indirekt mit Nvidia zu tun, könnte aber u.U. seinen Ursprung bei GameWorks haben. Dass bei AMD GE Titeln auch Optimierungsbedarf und u.U. sogar verschleppte Optimierung für Nvidia-Karten stattfindet, darf doch nicht das Gleiche bei (explizit) Nvidia-optimierten Spielen rechtfertigen.

aufkrawall
2014-11-14, 15:03:05
Far Cry 4, benötigt eine 290X bzw. eine GTX 680...dank CryEngine (eigentlich ja Dunia Engine).

Nicht nur eigentlich, was soll soll denn dieser hanebüchene Vergleich?

Unicous
2014-11-14, 15:08:06
Was macht die DuniaEngine, die auf der CryEngine aufbaut, anders, sodass sie bei AMD deutlich schlechter performt?

Ist AMD seit Jahren zu dämlich, da ordentlich auf die Ubisoft Montréal Spiele zu optimieren?

Warum sagt nur Ubisoft, dass bei den neuen Konsolen schon das Ende der Fahnenstange erreicht ist. Ich verstehe es nicht. Warum ist 30 FPS und 900p ein tolles Konsolenerlebnis?

Fragen über Fragen, die irgendwie kein Medium anfassen möchte.


Was ich bei Ubisoft sehe, ist dass sie unfertige Spiele herausbringen und ihre Entwicklerstudios arge Probleme mit ihren Engines haben. Die Minimalanforderungen auch auf Nvidia-Seite sind lächerlich.

aufkrawall
2014-11-14, 15:11:13
Dunia hat wahrscheinlich so gut wie nichts mehr mit Cryengine zu tun, du konstruierst da einen Zusammenhang.

Kartenlehrling
2014-11-14, 15:34:32
Der Grad zwischen schlampig programiert und absichtlich ausbremsen ist halt sehr fliesend.

Grestorn
2014-11-14, 15:37:46
Der Grad zwischen schlampig programiert und absichtlich ausbremsen ist halt sehr fliesend.

nVidia wird kaum schlampig programmieren, wenn sie die Techniken bei den Spieleentwicklern platzieren wollen. Natürlich sind die Shader nicht explizit auf AMD Hardware optimiert. Das passiert bei AMD / NextGen-Konsolen Spielen schließlich umgekehrt für nVidia Hardware auch nicht. Deswegen optimieren Treiber die Shader ja selbst nach, entsprechend gibt es für jedes wichtige Spiel entsprechend angepasste Treiber von beiden Herstellern. Dieses Spielchen gibt es nun schon seit Jahren und es funktioniert erstaunlich gut.

Aber absichtliches Benachteilen ist etwas ganz anderes.

Bei GameWorks könnte man sogar sagen, dass AMD nur einmal den Aufwand hat, die dort genutzten Techniken in ihrem Treiber zu erkennen und zu optimieren. Und das diese Optimierungen dann bei allen GW-Spielen mit evtl. nur geringen Anpassungen sofort zu guten Ergebnissen führen.

Unicous
2014-11-14, 15:39:15
Du weißt schon, dass AC:U ein NextGen Konsolenspiel ist?



Bei GameWorks könnte man sogar sagen, dass AMD nur einmal den Aufwand hat, die dort genutzten Techniken in ihrem Treiber zu erkennen und zu optimieren. Und dass dann bei allen GW-Spielen mit evtl. nur geringen Anpassungen sofort zu guten Ergebnissen führt.

edit zum edit:

AMD behauptet, sie haben keinen Zugriff auf die Source und die Entwickler dürfen sie nicht rausgeben, wie soll AMD dann vernüftig darauf optimieren können? (e: Und woher weißt du eigentlich, dass Nvidia die GW-Libraries etc. nicht für jedes Spiel "anpasst" und AMD immer von Neuem "optimieren" müsste?)

Du relativierst GW und vergleichst es mit GE bzw. Konsolenspielen. Das sind eher Ausflüchte als Argumente.

Erklärung, pls.

Grestorn
2014-11-14, 15:43:32
Du weißt schon, dass AC:U ein NextGen Konsolenspiel ist?Und? Nicht *alle* NextGen Konsolen Spiele müssen ja automatisch in der PC Version auf AMD optimiert sein.

AMD behauptet, sie haben keinen Zugriff auf die Source und die Entwickler dürfen sie nicht rausgeben, wie soll AMD dann vernüftig darauf optimieren können?

Erklärung, pls.
Meinst Du, nVidia hat auf den Code von AMD gesponsorten Spielen Zugriff? Trotzdem schaffen sie es, den Treiber zu optimieren. Was auch nicht schwer ist, denn die Shader lassen sich immer komplett dumpen und dann optimieren. Und AMD hat es bisher auch nicht abgehalten, keinen Zugriff auf den Source-Code zu haben, wenn sie einen Performance-Treiber herausgebracht haben.

Unicous
2014-11-14, 15:49:19
@Grestorn

Natürlich haben sie darauf Zugriff. Es geht explizit um die GW Libraries und die Verträge dahinter. AMD hat keinen Zugriff auf den Quellcode und muss daher GW also GuessWork betreiben (man erlaube mir diesen kleinen EMOTIONSGELADENEN pun).

Gaming Evolved ist eine Marketing-Kampagne wie TWIMTBP und nur einige Spiele bekommen extra Aufmerksamkeit z.B. durch TressFX, das OpenSource ist.
Ja Crystal Dynamics und oder AMD haben da am Anfang Schindluder getrieben und den Source Code zu spät weitergegeben, aber das war ein fuck up der behoben wurde.

AMD hat bei GW bei den meisten Libraries keinen Zugriff bzw. muss auf andere Renderpfade ausweichen... . Nicht zum Scherz wird GW als black box... von Entwicklern bezeichnet.

Die Lippenbekenntnisse von Nvidia dahingehend reichen mir nicht.

Grestorn
2014-11-14, 15:51:27
Der Code von AMD ist OpenSource und direkt auf der AMD-Homepage so zu beziehen.Genau, das gilt selbstverständlich für jeden Code, den irgendein Spieleentwickler in Zusammenarbeit mit AMD erstellt, um bestimmte Dinge in seinem Spiel zu optimieren. Ach so, sowas würde AMD ja nie tun... :rolleyes:

Gaming Evolved ist eine Marketing-Kampagne wie TWIMTBP und nur einige Spiele bekommen extra Aufmerksamkeit z.B. durch TressFX, das OpenSource ist. Wenn Gaming Evolved genau so wie TWIMTBP funktioniert, dann stellt AMD bzw. nVidia Spezialisten bereit, die den Spieleentwicklern helfen, Code optimieren und Tipps geben. Angeblich ist bei TWIMTBP nie Geld geflossen sondern nur Know-How. Ich würde es für AMD hoffen, dass es bei GE nicht anders ist.

Grundsätzlich ändert es so oder so aber nichts daran, dass im Allgemeinen die Treiberentwickler keinen Zugriff auf den SourceCode eines Spiels haben. Natürlich muss nVidia nicht für GameWorks optimieren, das sollte ja klar sein.

Kartenlehrling
2014-11-14, 15:57:33
AMD hat bei Batman: Origin behaupt das für den Schnee bzw. Schneespuren zuviel Tessellation genommen wurde,
es wär nicht nötig gewesen um das gleiche optische ergebnis zu erzielen.
In Metro2033 gibt es Feuerpartikel-Berechnunge die obwohl sie nicht mehr sichbar sind weiter berechnend werden.
Und es gibt bestimmt genug Spiele wo die Wasserberechnung unter dem Hafen, Land weiter in die Berechnunge einfliesen,
auch wenn das Wasser auf dem Monitor nicht sichbar sind.

@Grestorn
Wie willst du solche Punkte aufdecken wenn du keinen vollkommend zugriff auf die Software Development Kit (SDK) hast?

Unicous
2014-11-14, 15:58:13
Grundsätzlich ändert es so oder so aber nichts daran, dass im Allgemeinen die Treiberentwickler keinen Zugriff auf den SourceCode eines Spiels haben. Natürlich muss nVidia nicht für GameWorks optimieren, das sollte ja klar sein.

Das macht nicht mal ansatzweise Sinn. Nvidia muss nicht für GW optimieren?:confused:

Treiberentwickler haben keinen Zugang zum Source Code?

M4xw0lf
2014-11-14, 15:58:46
Wenn Gaming Evolved genau so wie TWIMTBP funktioniert, dann stellt AMD bzw. nVidia Spezialisten bereit, die den Spieleentwicklern helfen, Code optimieren und Tipps geben. Angeblich ist bei TWIMTBP nie Geld geflossen sondern nur Know-How. Ich würde es für AMD hoffen, dass es bei GE nicht anders ist.
Schon alleine für das Abspielen der jeweiligen Herstellerlogos nach dem Spielstart fließt Geld. Nochmal mehr, wenn das Spiel auch mit Hardware gebundlet wird.

Blediator16
2014-11-14, 15:59:24
Wenn Gaming Evolved genau so wie TWIMTBP funktioniert, dann stellt AMD bzw. nVidia Spezialisten bereit, die den Spieleentwicklern helfen, Code optimieren und Tipps geben. Angeblich ist bei TWIMTBP nie Geld geflossen sondern nur Know-How. Ich würde es für AMD hoffen, dass es bei GE nicht anders ist.

Grundsätzlich ändert es so oder so aber nichts daran, dass im Allgemeinen die Treiberentwickler keinen Zugriff auf den SourceCode eines Spiels haben. Natürlich muss nVidia nicht für GameWorks optimieren, das sollte ja klar sein.

Du glaubst beim besten Willen nicht, dass Nvidia umsonst Werbung in Spielen machen darf.

N0Thing
2014-11-14, 15:59:34
Na gut. Da du ja sehr gut über die Dunia Engine (wahrscheinlich) Bescheid weißt kannst du ja dennoch die Fragen beantworten, oder?

Dass die DuniaEngine rein gar nichts mit der CryEngine gemein hat wissen wir ja jetzt.

Kommen wir doch mal davon weg, irgendwelche Behauptungen in den Raum zu stellen und fangen an Fakten sprechen zu lassen.

Die Gemeinsamkeiten zwischen der CryEngine (aus der zeit von Far Cry) und der Dunia Engine (aus der Zeit von Far Cry 2) lagen laut Ubisoft bei 2-3 Prozent.

http://tweakers.net/nieuws/50850/ubisoft-licht-tipje-van-de-sluier-over-far-cry-2-op.html

Jetzt kannst du ja deine Quellen beisteuern, die eine gleiche oder gar größere Ähnlichkeit zwischen der Engine von Ryse und der von Far Cry 4 belegen.

Unicous
2014-11-14, 16:09:32
Bethesda behauptet auch, dass die Creation Engine nichts mit der Gamebryo Engine zu tun hat und komplett neu entwicklet wurde, warum dann überhaupt 2-3% des Codes verwenden?

Entschuldige wenn ich auf diese Aussagen erst einmal wenig gebe.


Aber ist es nicht auch scheiß egal? Warum schmeckt die Dunia Engine seit Jahren AMD Karten nicht bzw. warum ist AMD offensichtlich zu doof darauf zu optimieren schafft es aber bei anderen Engines, die sagen wir mal...ähnlich aufgebaut zu sein scheinen(:rolleyes:) deutlich besser zu performen. Was kann eine Nvidia GPU besser, was eine AMD GPU nicht zu leisten vermag? Warum kann eine AMD GPU bei AC:U HTT nicht ausnutzen und skaliert deswegen schlecht, bei anderen Spiele scheint es aber deutlich besser zu funktionieren.

Warum ist AMD offenbar bei Ubisoft-Titeln noch einmal extra dilletantischer, als sie ja ohnehin schon sind.;)

Grestorn
2014-11-14, 16:10:40
Das macht nicht mal ansatzweise Sinn. Nvidia muss nicht für GW optimieren?:confused:DEIN Posting las sich so, als hätte nVidia Treiberentwickler einen Vorteil, da sie den GW Code kennen. Darauf bezog sich meine Bemerkung. Wenn Du etwas anderes meinest, dann verstehe ich Deine Bemerkung "Natürlich haben sie darauf Zugriff. Es geht explizit um die GW Libraries und die Verträge dahinter." nicht.

Treiberentwickler haben keinen Zugang zum Source Code?Auf den Sourcecode des Spiels haben sie sicher keinen Zugriff.

Schon alleine für das Abspielen der jeweiligen Herstellerlogos nach dem Spielstart fließt Geld. Nochmal mehr, wenn das Spiel auch mit Hardware gebundlet wird.
Du glaubst beim besten Willen nicht, dass Nvidia umsonst Werbung in Spielen machen darf.

Beim Bundlen fliest natürlich Geld.

nVidia (und einige Spielehersteller) haben behauptet, dass für das TWIMTBP kein Geld fliest sondern nur Know How. Ich kann das nicht beweisen, aber auch nicht das Gegenteil. Und in meinen Augen macht es auch mehr Sinn für den Spielehersteller, als ein paar läppische zig 1000€ für das Logo einzunehmen. Mehr wäre es kaum wert.

Schnoesel
2014-11-14, 16:14:32
Na Farcry 4 und the Crew und alle anderen top optimierten Spiel von Nvidias Hafennutte werden sicher nicht besser auf AMD laufen.

Einfach nicht kaufen. Problem gelöst.

fondness
2014-11-14, 16:18:44
nVidia (und einige Spielehersteller) haben behauptet, dass für das TWIMTBP kein Geld fliest sondern nur Know How. Ich kann das nicht beweisen, aber auch nicht das Gegenteil. Und in meinen Augen macht es auch mehr Sinn für den Spielehersteller, als ein paar läppische zig 1000€ für das Logo einzunehmen. Mehr wäre es kaum wert.

Siehe PCGH-Interview des Witcher 3 Lead Designers, welche die Verwendung eines NV-Features als Entscheidung des Managements bezeichnet.

Unicous
2014-11-14, 16:22:08
@Grestorn

Die Nvidia Leute haben keinen Zugriff auf den Source Code?

Sie haben über Jahre buchstäblich neben dem Entwickler gesessen und haben PhysX und Co. implementiert und du erzählst mir sie haben keinen Zugriff auf den Source Code? Ohne Source Code fischt du im Dunkeln und suchst tagelang danach wo und wann der Fehler auftritt.

Entwickler-Studios die das alles selbst implementieren gibt es so weit ich das über die Jahre mitbekommen habe, nicht.

Dafür gibt es dann natürlich entsprechende gegenseitige NDAs. Niemand verrät gar nichts über den jeweiligen Code sonst gibt es Konditionalstrafen.

Und bei GameWorks ist es nicht anders. Nur lässt sich Nvidia noch extra für die Implementation (und Support) bezahlen. Es gibt ja soweit öffentlich mehrere Stufen. Einmal mit, einmal ohne Zugriff auf den GW Source Code.

nVidia (und einige Spielehersteller) haben behauptet, dass für das TWIMTBP kein Geld fliest sondern nur Know How.

Das ist natürlich Blödsinn. Warum sollte ein Entwickler bzw. eher Publsiher aus reiner Nettigkeit ein Nvidia-Logo vor dem Startbildschirm platzieren, das vom eigenen Logo ablenkt.

Das ist ein Geben und Nehmen. Ob das dann ein Nullsummenspiel ist, ist fraglich, aber völlig nebensächlich. In irgendeiner Form fließt Geld. Und sei es nur das "Bezahlen" des KnowHows, wie es jetzt bei GW sichtbar für die Öffentlichkeit passiert.


Ich weiß ja nicht ob du diesen Artikel schon kennst, daher verlinke ich ihn nochmal: http://www.extremetech.com/gaming/183411-gameworks-faq-amd-nvidia-and-game-developers-weigh-in-on-the-gameworks-controversy

Hier werden beide Seiten beleuchtet und ja man benötigt um "optimal" optimieren zu können, den Source Code. Ansonsten verpulverst du endlose Stunden mit guess work.

captain_drink
2014-11-14, 16:24:22
Bethesda behauptet auch, dass die Creation Engine nichts mit der Gamebryo Engine zu tun hat und komplett neu entwicklet wurde, warum dann überhaupt 2-3% des Codes verwenden?

Entschuldige wenn ich auf diese Aussagen erst einmal wenig gebe.


Aber ist es nicht auch scheiß egal? Warum schmeckt die Dunia Engine seit Jahren AMD Karten nicht bzw. warum ist AMD offensichtlich zu doof darauf zu optimieren schafft es aber bei anderen Engines, die sagen wir mal...ähnlich aufgebaut zu sein scheinen(:rolleyes:) deutlich besser zu performen. Was kann eine Nvidia GPU besser, was eine AMD GPU nicht zu leisten vermag? Warum kann eine AMD GPU bei AC:U HTT nicht ausnutzen und skaliert deswegen schlecht, bei anderen Spiele scheint es aber deutlich besser zu funktionieren.

Warum ist AMD offenbar bei Ubisoft-Titeln noch einmal extra dilletantischer, als sie ja ohnehin schon sind.;)

Bislang wurde die Dunia-Engine in Far Cry 2 und 3 eingesetzt, aus deren Benches man klar sehen kann, dass AMD genauso oder sogar besser performt als Nvidia: http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/
http://www.pcgameshardware.de/Far-Cry-2-PC-147080/Tests/Bilder-aus-dem-Benchmark-Tool-663809/3/

Die vermeintliche Nvidia-Affinität der Dunia-Engine konstruierst du also aus den Systemanforderungen zu Far Cry 4, die weder stimmen müssen noch klare Rückschlüsse auf irgendeine GW-Implementierung zulassen.

Ungeachtet dessen ist es ja (unabhängig von GW) absolut nichts Neues, dass bestimmte Spiele und eingesetzte Techniken auf einen bestimmten IHV optimiert werden und der jeweils andere dann nachziehen muss. Es ist allerdings falsch, aus dem Umstand, dass ein IHV gleich nach Release die Optimierung nachholt bzw. vorlegt, während der andere dies nicht tut, zu schließen, dass der erstere den letzteren benachteiligt oder gar aktiv daran hindert. Mit demselben Recht ließe sich nämlich annehmen, dass IHV A einfach weniger Ressourcen hat (Zeit und Geld) als IHV B, um dieselbe Optimierungsarbeit vorzunehmen. Ich behaupte sogar, dass es sich tatsächlich so verhält und AMD dort wenig oder gar nicht optimiert, wo es im Verhältnis zu aufwendig ist, da die Kapazitäten des Treiberteams nunmal begrenzt sind. Die Schuld dafür auf eine Benachteiligung seitens Nvidia zu schieben, ist hingegen kein zwangsläufiger Schluss.

Grestorn
2014-11-14, 16:27:57
@Unicous: Natürlich geht es jeweils um den Source-Code der Spiele, die durch den jeweils anderen IHV mit KnowHow oder meinetwegen auch mit Geld gesponsort wurden.

KnowHow ist für Spieleentwickler viel mehr als ein paar Kröten für das Logo wert. Sonst würden sie auch kein GW einsetzen.

Aber wie Du schon sagst: Es spielt keine Rolle. Das Spielfeld ist ausgeglichen, da beide IHVs die gleichen Waffen und Möglichkeiten haben und es eben sowohl TWIMTB und GE Spiele gibt.

Dass nVidia mit TWIMTBP da Anfangs aktiver war und mehr investiert hat, ist eine aus ihrer Sicht ziemlich gute Strategie gewesen. Und natürlich nicht aus Altruismus, sondern um einen Vorteil ggü. dem Mitbewerber zu haben. Also einen Vorteil für die eigene Hardware und deren Käufer herauszuholen. Etwas verwerfliches kann ich da aber weiterhin nicht entdecken.

Unicous
2014-11-14, 16:42:32
Tja, und ich finde Nvidia hätte sich da von Anfang an heraushalten sollen. Denn das einzige was sie geschafft haben... ist Geld damit zu scheffeln (wenn nicht durch die Kooperation an sich, dann eben durch GPU-Verkäufe).

Die Gamer und die Industrie hat dadurch nichts Wesentliches "gewonnen" außer ein paar Gimmicks.

Wir haben weiterhin schrottige Physik, die Effektlandschaft wurde nicht grundlegend durch Nvidia bereichert, das haben die Entwickler dann schon auch alleine hinbekommen.

Ich komme immer wieder auf die Frage zurück: Warum kann man nicht einfach die Tools zur Verfügung stellen und dann die Entwickler machen lassen. Warum muss man einen Grabenkampf inszenieren?

Warum kann man nicht einfach die Möglichkeiten für den Entwickler schaffen sich zu "entfalten" und blühende Landschaften mit korrekt simulierten Gras zu erstellen.

Warum muss man künstlich eingreifen aber am Ende sagen, wir begrüßen jedweden Wettbewerb.

Das ist ja nicht auf GW beschränkt. Das betrifft die ganze Industrie die sich seit Jahren im "Kulturkampf" befindet. Aber der "Gamer" profitiert davon nicht im Geringsten.

Außer man denkt, dass 60 Euro Ubisoft Spiele eine Bereicherung für die Industrie sind.

Schnoesel
2014-11-14, 16:45:37
Ubisoft schaffts offensichtlich ja nicht mal selbst Tesselation zum implementieren, sogar das kommt von Nvidia (irgendwann später, wenn das dann auch so gut performt wie das nachträglich implementierte PhysX bei Black Flag ...). Eigentlich logisch, denn Ubisoft hat die Priorität wohl klar auf Marketing gesetzt. Wie man mit deren Werbung zugemüllt wird ist ja kaum auszuhalten.

captain_drink
2014-11-14, 16:50:32
Tja, und ich finde Nvidia hätte sich da von Anfang an heraushalten sollen. Denn das einzige was sie geschafft haben... ist Geld damit zu scheffeln (wenn nicht durch die Kooperation an sich, dann eben durch GPU-Verkäufe).


Was war noch mal das Ziel eines börsennotierten Unternehmens? Sags mir bitte, ich komm grad nicht drauf...

Unicous
2014-11-14, 17:08:18
@ captain_drink

Mehr kommt da nicht? War zu erwarten.

captain_drink
2014-11-14, 17:23:40
@ captain_drink

Mehr kommt da nicht? War zu erwarten.

Was soll da noch kommen? Den Beitrag meinerseits bzgl. Dunia-Engine hattest du doch schon generös überlesen.

Unicous
2014-11-14, 17:37:25
Was soll ich darauf antworten? Far Cry 2 nutzt Version 1, danach wird Version 2 benutzt.

AC:U nutzt auch Version 2 (sicherlich mit Modifkationen) und AMD GPUs performen im vergleich schlechter als bei Far Cry 3 wo man zumindest bei dem einen Test den du verlinkt hast Parität bzw. bessere Ergebnisse im Vergleich zur 680 sieht. Ich bin aber einem Fehler aufgesessen: ich dachte, dass AC:BF auch die Dunia Engine nutzt. Es ist natürlich die Anvil Engine.

Was also macht den großen Unterschied aus? Bei Far Cry 3 bessere Ergebnisse beim verlinkten Test für AMD, bei AC:U wird auf einmal eine 290X gebraucht, während man sich auf Nvidia Seite mit einer 680 begnügt. Das Gleiche bei Far Cry 4. Was hat sich in dem Jahr fundamental getan, dass AMDs ehemaliges Flaggschiff nicht mehr mit der 680 mithalten kann?

Das ist die Frage die mir keiner beantworten mag.

y33H@
2014-11-14, 17:48:19
ACU nutzt Anvil, nicht Dunia.

captain_drink
2014-11-14, 17:56:29
Unity verwendet ebenfalls die AnvilNext-Engine. Noch mal zur Übersicht:
Assassin's Creed III/Black Flag/Unity: AnvilNext
Far Cry 2-4: Dunia
Watch Dogs: Disrupt (Mischung aus Dunia, AnvilNext und Neuentwicklung)

AMD performt bei Dunia bislang erwartungsgemäß bzw. sogar leicht besser als NV; NV hingegen liegt traditionell bei AnvilNext vorne. Gameworks wurde bei ersterer bisher nicht eingesetzt, bei letzterer ab Black Flags (AC III hatte lediglich eine TXAA-Implementierung). Disrupt wurde bislang nur einmal verwendet und lässt somit keine Entwicklungsschlüsse zu.

Unicous
2014-11-14, 18:01:20
Hmm... ok. Ich hatte irgendwo gelesen, dass Unity die Dunia Engine nutzt... keine Ahnung wo... und wie gesagt auch angenommen, dass Black Flag Dunia nutzt. Sry.

Locuza
2014-11-14, 20:32:51
Das ist auch Unsinn. Die bessere Skalierung der GTX980 aka "weniger CPU-Overhead" "bessere CPU-Nutzung" liegt daran, dass die 290X im CB-Test einfach bereits bei 4 Kernen und 2,5 GHz im GPU-Limit läuft.
Im CPU-Limit, sprich bei 2 und 4 Kernen, letzteres mit reduziertem Takt, sind die 980 und die 290X absolut gleich schnell - wo ist hier also die Treiberbremse bitte? Wenn die GPU nicht schneller kann, dann bringt mehr CPU-Takt eben nichts. Das einzige was man sehen kann ist, dass AMDs Treiber bei zwei Kernen + HTT praktisch nichts dazugewinnt gegenüber 2 Kernen ohne HTT. Die Performance von Radeon + FX CPU ist schon von Ubisoft als kaputt identifiziert worden: We are aware that the graphics performance of Assassin’s Creed Unity on PC may be adversely affected by certain AMD CPU and GPU configurations. (http://forums.ubi.com/showthread.php/946542-AMD-Graphics-Cards-Compatibility-with-Assassin-s-Creed-Unity?)
Man kann aus diesen Ergebnissen also absolut keinen schlechten Treiberoverhead bei AMD ableiten.

Wirf stattdessen mal einen Blick hier drauf:

http://www.extremetech.com/wp-content/uploads/2014/11/ACU-8xMSAA.png
http://www.extremetech.com/gaming/194123-assassins-creed-unity-for-the-pc-benchmarks-and-analysis-of-its-poor-performance/2

PCSS und HBAO+ sind Gameworks-Features, und bei Ultra natürlich aktiv.
Nvidia setzt beim Takt 3 mal soviel davon um wie AMD.
Um wie viel schneller müsste die 980 im Ranking sein, damit es einzig und allein darauf zurück zu führen ist, dass die 980 eben um soviel stärker ist und deswegen auf der CPU-Seite soviel besser skaliert?
Im Rating selber kommen am Ende "nur" 25% mehr bei 1080P heraus.
Schade das man jetzt nicht wünsch dir was spielen kann, aber würden sie eine 780Ti verwenden, ich wäre sehr überrascht wenn sich an den Verhältnissen größere Gräber auftun.
Und ich bin hier mehr davon überzeugt, dass AMDs Hardware bei der Wanderung von 1080P-> 4K nicht nur davon profitiert, dass mehr Pixel der AMD Hardware besser schmecken, sondern die CPU weniger kümmert.
Unter 1600P hat sich das Verhältnis zwischen 780 und 290X schon merklich gedreht.

Und die GameWorks Effekte, schön das damit endlich jemand vergleicht, auffällig sind dann "nur" die Maxwell-Resultate.
Bei Unity stehen die Radeons aber durch die Bank weg schlechter dar (Und das schon auffällig unter 1080P).

Unicous
2014-11-14, 21:20:27
ROFL;D


Update on Performance Issues

As previously reported on the Assassin’s Creed Live Updates Blog, our team is furiously working to resolve bugs and performance issues for Assassin’s Creed Unity on all platforms. On PC, some media outlets have misinterpreted a forum post indicating that we were working on resolving issues that were AMD-specific. We apologize for any confusion and want to be clear that we are working with all of our hardware partners to address known issues that exist across various PC configurations. We care deeply about a smooth and enjoyable Assassin’s Creed experience and we will continue to update customers as these issues are fixed via the AC Live Updates Blog.
http://forums.ubi.com/showthread.php/950269-Update-on-Performance-Issues?p=10338099#post10338099

:crazy:

Sowat kannste dir nich ausdenken.

aufkrawall
2014-11-14, 21:55:10
Wenn ich AMD wär, würd ich auch nicht für Unity optimieren. Der Shitstorm trifft offenbar nicht sie.
Unternehmerisch klever, auf Kosten der Kunden.

Btw. genau so unbewiesen wie der meiste abstruse Stuss hier.

fondness
2014-11-14, 22:12:51
Es gab sogar einen Beta-Treiber von AMD für Unity vor Release. Nur wenn der halbe Code von Nvidia in Form von closed Source Libs kommt und Ubisoft wie üblich Müll abliefert macht es die Sache nicht gerade leichter.

Unity ist jedenfalls wieder mal eine tolle Werbung für das Gameworks Programm von Nvidia. :ugly:

Unicous
2014-11-14, 22:55:13
@aufkrawall

Jaja. Die Verschwörungsterroristen machen dir schon wieder das Leben schwer.
:ubash2:

https://www.google.de/?gfe_rd=cr&ei=VnlmVPC7IaqK8QeAhoD4Cw#q=amd+ubisoft&tbm=nws

oder auch

https://news.google.com/news?ncl=dq4m2-rWCux0TbMyEjz4q3d6Dh-zM&q=ubisoft+blames+amd&lr=German&hl=en&sa=X&ei=YnpmVKnnCaWaygOIxYDYBg&ved=0CCsQqgIwAA

aufkrawall
2014-11-14, 23:28:55
Nur wenn der halbe Code von Nvidia in Form von closed Source Libs kommt und Ubisoft wie üblich Müll abliefert macht es die Sache nicht gerade leichter.

"halber Code", untertreib doch nicht.. 3/4 werdens schon sein.
Und den Unity-Code hast du eigenhändig überprüft? Komisch, dass er bei mir überhaupt nicht müllig läuft...
AMD wird den Code sicherlich rechtzeitig gehabt haben, sonst hätten sie nicht zeitig einen Treiber bringen können. Nur haben sie den offenbar verkackt, wenn das mit den Rucklern stimmt (ganz unabhängig von GW).

Jetzt macht kein Fass auf wegen zwei Grafikoptionen, die GW sind (wovon auch noch eine schlecht ist).
Unglaublich kleinkariert, aber gleichzeitig ahnungslos wie Dieter...

Wird Unicous eigentlich dafür bezahlt, hier das Niveau in die Tonne zu befördern?

Schnoesel
2014-11-14, 23:34:03
TXAA , HBAO+ , PCSS und später dann noch per Patch Nvidia Tesselation. Also ich zähle 4 spätestens mit Tesselation dann wohl unspielbar aber dafür cineastisch :rolleyes:

aufkrawall
2014-11-14, 23:35:47
Und wie soll sich ein zukünftiges Feature auf die momentane Performance auswirken?
Hast wohl den Argumentationsfaden verloren.
TXAA ist im Vergleich zu FXAA + DSR auch einfach nur schlecht.

Raff
2014-11-15, 00:02:37
Das Tessellation-Upgrade wird auf jeden Fall interessant. Nvidia könnte darauf pochen, dass sie höhere Zerlegungsfaktoren als 16x nehmen, um sich von AMD abzusetzen, selbst wenn der restliche Abstand durch Code-Optimierungen hüben wie drüben Geschichte ist. Da simmer gespannt.

MfG,
Raff

Kartenlehrling
2014-11-15, 00:11:50
Dann kann man ja immer noch einen geringer Tessellation Wert im CCC erzwingen oder nicht, jedenfalls gibt es so eine Funktion im AMD CCC.

Locuza
2014-11-15, 00:13:25
Das Tessellation-Update ist eig. die einzige Komponente, wo ich ein faules Ei erwarte.
Und gerade möchte ich auch gar nicht wissen, wie die FPS danach aussehen. :freak:

Danach wäre FarCry 4 mit HairWorks interessant.

@ Kartenlehrling

Meinte nicht jemand hier, dass der Schalter leider nicht mehr funktioniert?

-/\-CruNcher-/\-
2014-11-15, 00:18:26
Das wird bei The Witcher 3 nicht anders werden aber AMD hat vorgesorgt da Tonga jetzt Effizienter an das Thema geht man hatt diesen Part einfach unterschätzt bei AMD (Man beschwert sich und hintenrum rüstet man selber auf und korrigiert Fehlentscheidungen), Nvidia hat in Maxwell aber auch schonmal gleich vorgesorgt und die Leistung nochmal gesteigert im Vergleich zu Kepler und nun wird das Massiv gefördert mit GeometryWorks.
.
Tesselation setzt sich momentan als ein verdammt wichtiger Hardware Faktor durch seit der Einführung mit DX 11 :)

Und in vielen dieser Details zeigen sich ja auch die Unterschiede zwischen GTX 970/980 da geht es um weit mehr als nur reine FPS aber die meisten Reviewer sind einfach zu Blind und konzentrieren sich zu sehr auf FPS, Stabilität wird in Zukunft eine viel höhere rolle spielen und hier bereitet Nvidia schon einiges vor ;)

kruemelmonster
2014-11-15, 07:02:56
@Grestorn

Die Nvidia Leute haben keinen Zugriff auf den Source Code?

Sie haben über Jahre buchstäblich neben dem Entwickler gesessen und haben PhysX und Co. implementiert und du erzählst mir sie haben keinen Zugriff auf den Source Code? Ohne Source Code fischt du im Dunkeln und suchst tagelang danach wo und wann der Fehler auftritt.

NV Personal ist keine homogene Masse. Die Treiberprogrammierer werden im HQ sitzen und die Bugreports und Todo Listen abarbeiten während (mit Sicherheit auch analog zu AMD) Content und Effect Artist zu den Entwicklern geschickt werden. Nur weil ein NV Artist neben einem Ubi Artist und einem Ubi Dev an einem Schreibtisch im Ubi HQ saß heißt es nicht das der NV (oder AMD) Treiberprogrammierer Einblick in den Spielequellcode hat oder diesen zur Optimierung zwingend benötigen würde.

Glaubst du allen Ernstes die IHV haben die Quellcodes quasi aller Spiele bei sich auf den Servern liegen um ihre Treiber zu optimieren? Falls ja glaubst du dann folgerichtig auch daran dass quasi alle ISVs ihre Heiligtümer einfach so herausgeben?
Kannst du dieses ganze Quellcode Thema überhaupt qualifiziert beurteilen?

id Software hat in der Tat mal den Fehler gemacht und ATI eine Vorabversion von Doom 3 zur Verfügung gestellt welche durch ATI dann geleakt wurde (http://www.geek.com/games/more-evidence-that-ati-leaked-the-doom-iii-alpha-550036/). Und dann wird sich gewundert dass manche Entwicklungsstudio Antipathien und Sympathien für bestimmte Chipentwickler hegen, und bspw Rage und Wolfenstein eine CUDA Option haben?


Nvidia könnte darauf pochen, dass sie höhere Zerlegungsfaktoren als 16x nehmen, um sich von AMD abzusetzen...

Wurden etwa vor einiger Zeit Verschwörungstheorien konstruiert dass AMD die Einbindung von 8x MSAA in Spieleengines forciert um GT200 schlecht dastehen zu lassen?

Die von allen IHVs abgesegnete Spec ermöglicht Zerlegungsfaktoren bis 64x, warum sollten diese nicht auch mal genutzt werden wenn das Ergebnis dann der Vision des Devs entspricht? Nur weil AMD seit über 4 Jahren Tesselation nicht vernünftig auf die Reihe bekommt? Es muss nicht immer die grüne Seite der Macht hinter Entscheidungen stecken die die rote Seite in einem schlechten Licht dastehen lassen.

HOT
2014-11-15, 11:01:11
Die Tesselationsdiskusstion gehört hier nicht rein und war auch von Anfang an abstrus. Da war mMn nie wirklich eine Bevorzugung das Motiv sondern eher was möglich ist (bei Crysis2 beispielsweise). Die Vorteilsnahme kann sich nur auf die proprietären Gameworks-Shader beziehen.
Der Schuss mit Gameworks wird aber eh fett nach hinten los gehen, denn das treibt Intel geradezu in die Mantle-Ecke. Spiele die mit Mantle-Schnittstelle kommen bedeuten für Intel weniger Aufwand in der Treiberentwicklung, das war bei Intel immer wichtig. Gameworks behindert nicht nur AMD-Shaderreplacements sondern auch Intel, das darf man dabei nicht vergessen. Das mag jetzt noch nicht sooo relevant sein, aber bei einem GT4-Skylake kann das schon ganz anders aussehen. Mit einem Mantle-Treiber könnte Intel dafür sorgen beispielsweise, dass CivBE auf einem CoreM prima läuft.

Raff
2014-11-15, 11:18:17
Die von allen IHVs abgesegnete Spec ermöglicht Zerlegungsfaktoren bis 64x, warum sollten diese nicht auch mal genutzt werden wenn das Ergebnis dann der Vision des Devs entspricht? Nur weil AMD seit über 4 Jahren Tesselation nicht vernünftig auf die Reihe bekommt? Es muss nicht immer die grüne Seite der Macht hinter Entscheidungen stecken die die rote Seite in einem schlechten Licht dastehen lassen.

Wenn man mal alle Verschwörungstheorien ausblendet und sich ganz gelassen mit dem Thema auseinandersetzt, landet man meiner Meinung nach bei der Frage, was besser ist: Faktor 64x für die Charaktere und das Tee-Service auf dem Tisch rechts (bisherigen Vorgehensweise) oder Faktor 16x auf die Hälfte des Bildes? Letzteres scheint bei Dragon Age Inquisition der Fall zu sein. Ich sage "scheint", weil ich nur ein paar Minuten von dem Spiel sah und der genaue Faktor bislang unbestimmt ist. Jedenfalls ist es IMO (!) sinnvoller, viele Objekte mit einem moderaten Zerlegungsfaktor zu pimpen als wenige Objekte mit Faktoren, die einem nur mit der Lupe Vorteile bringen und außerdem einen IHV plattmachen.

Btw: WoW Warlords of Draenor: Grafikkarten-Benchmarks, CPU-Kernskalierung, Anti-Aliasing-Vergleich und mehr (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/Specials/Test-Benchmarks-Tuning-Tipps-1142547/)

Ein Beispiel dafür, wo AMD ganz ohne irgendwelches Gameworks deutlich hinter Nvidia rangiert. Warum? Wir können nur spekulieren. Interessant ist's allemal.

MfG,
Raff

Schnoesel
2014-11-15, 11:24:25
Wieso spekulieren? Fragt doch mal direkt bei AMD nach warum Nvidia in WOW AMD platt macht und ob sie dafür auch Nvidia und closed libs die Schuld geben möchten.

Fragen kostet ja nix.

PS: Zu Tesselation. Viel hilft nicht immer viel und ganz spannend wird es wenn man sich selbst (seine Kunden) benachteiligt nur um die Konkurrenz noch mehr einzubremsen als sich selbst.

aufkrawall
2014-11-15, 11:39:44
Ein Beispiel dafür, wo AMD ganz ohne irgendwelches Gameworks deutlich hinter Nvidia rangiert. Warum? Wir können nur spekulieren.
Es kommt jedenfalls häufiger vor, dass AMD einen speziellen Optimierungstreiber braucht.
Für mich scheint am wahrscheinlichsten, dass der Treiber einfach generell schlechter optimiert ist. Das muss sich nicht bemerkbar machen, kann aber auch so enden wie bei WoW.
Bei NV ist der Abstand bei Dragon Age ja noch im Rahmen des Akzeptablen, bei Ryse mit Patch auch.

dildo4u
2014-11-15, 11:49:02
Es passiert genau das was ab zu sehen war,die Ressourcen werden in Mantle gesteckt und man keine Zeit mehr eins der meist verkauften PC Spiele überhaupt zu optimieren.

HOT
2014-11-15, 11:53:25
Das jetzt so hinzustellen ist aber auch falsch. Blizzard-Spiele waren bisher immer Sonderfälle und technisch immer allerunterste Liga. Da liegts wohl kaum an Gameworks. Aber jetzt wird wieder wie immer der Schwachsinn postuliert, dass AMD ja immer die schlechteren Treiber hat...
Es passiert genau das was ab zu sehen war,die Ressourcen werden in Mantle gesteckt und man keine Zeit mehr eins der meist verkauften PC Spiele überhaupt zu optimieren.
Das ist sicher einfach Unsinn. Es hatte einfach keine Priorität und seinen Status als "wichtigestes Spiel der Welt" kann man hier wohl kaum gelten lassen. Denn deshalb wird wohl kaum einer Hardware aufrüsten. Eine Catalyst-Version später und das Problem ist eh gelöst.

Demirug
2014-11-15, 11:54:06
Nur weil ein NV Artist neben einem Ubi Artist und einem Ubi Dev an einem Schreibtisch im Ubi HQ saß heißt es nicht das der NV (oder AMD) Treiberprogrammierer Einblick in den Spielequellcode hat oder diesen zur Optimierung zwingend benötigen würde.

Er ist nicht nötig da man an der Treiberschnittstelle ja alles sieht was ankommt. Solange man den Code auch nicht ändern kann muss man genau auf dieser Grundlage optimieren. Der Aufwand irgendwelchen Spielequellcode einfach mal so zum laufen zu bekommen sollte man dabei auch nicht unterschätzen. Es ist viel einfacher einfach mal mit den entsprechenden Tools das Spiel zu starten und zu schauen wo die Hotspots und andere Probleme sind.

Glaubst du allen Ernstes die IHV haben die Quellcodes quasi aller Spiele bei sich auf den Servern liegen um ihre Treiber zu optimieren? Falls ja glaubst du dann folgerichtig auch daran dass quasi alle ISVs ihre Heiligtümer einfach so herausgeben?

Sowohl AMD wie auch nvidia wollten immer nur lauffähige Versionen von mir haben. Nach Quellcode wurde noch nicht einmal gefragt.

Der Schuss mit Gameworks wird aber eh fett nach hinten los gehen, denn das treibt Intel geradezu in die Mantle-Ecke. Spiele die mit Mantle-Schnittstelle kommen bedeuten für Intel weniger Aufwand in der Treiberentwicklung, das war bei Intel immer wichtig. Gameworks behindert nicht nur AMD-Shaderreplacements sondern auch Intel, das darf man dabei nicht vergessen. Das mag jetzt noch nicht sooo relevant sein, aber bei einem GT4-Skylake kann das schon ganz anders aussehen. Mit einem Mantle-Treiber könnte Intel dafür sorgen beispielsweise, dass CivBE auf einem CoreM prima läuft.

Intel setzt voll auf DX12.

Raff
2014-11-15, 11:55:50
Das jetzt so hinzustellen ist aber auch falsch. Blizzard-Spiele waren bisher immer Sonderfälle. Da liegts wohl kaum an Gameworks. Aber jetzt wird wieder wie immer der Schwachsinn postuliert, dass AMD ja immer die schlechteren Treiber hat...

Mists of Pandaria (WoW 5.x) hatte AMD gut im Griff, solange MSAA zum Einsatz kam, erst mit SGSSAA rannte Nvidia davon: WoW Mists of Pandaria: Benchmarks von 20 Grafikkarten in Ultra HD und mit Supersample-AA (http://www.pcgameshardware.de/World-of-Warcraft-Mists-of-Pandaria-PC-238645/Tests/WoW-Mists-of-Pandaria-Ultra-HD-Benchmarks-1121139/)

MfG,
Raff

dildo4u
2014-11-15, 11:57:57
Das jetzt so hinzustellen ist aber auch falsch. Blizzard-Spiele waren bisher immer Sonderfälle und technisch immer allerunterste Liga. Da liegts wohl kaum an Gameworks. Aber jetzt wird wieder wie immer der Schwachsinn postuliert, dass AMD ja immer die schlechteren Treiber hat...


Weil sie besonders CPU lastig sind wirkt sich das nur extrem aus,das ganze gilt aber so gut wie für alle MMO's und halt alle Open World Games wie Watch_Dogs,AC Unity und vermutlich GTA5.
Wer sich mal wirklich mit diesen Games beschäftigt hat und keine Intel CPU nutzt weiß das Gameworks bei diesen Games nicht's mit der miesen Treiber Performance von AMD zu tun hat.

Schnoesel
2014-11-15, 11:59:44
Es passiert genau das was ab zu sehen war,die Ressourcen werden in Mantle gesteckt und man keine Zeit mehr eins der meist verkauften PC Spiele überhaupt zu optimieren.

Ist genauso Spekulation. In vielen nicht Mantle Spielen oder nicht Gaming Evolved Titel fällt AMD gegenüber Nvidia nicht so ab oder ist teils schneller. Siehe Shadows of Mordor, Ryse, Risen 3, Call of Duty, Evil Within etc.

Krasse Ausreißer wie WOW oder AC sind eher selten.

HOT
2014-11-15, 12:00:53
Weil sie besonders CPU lastig sind wirkt sich das nur extrem aus,das ganze gilt aber so gut wie für alle MMO's und halt alle Open Wolrd Games wie Watch_Dogs,AC Unity und vermutlich GTA5.
Auch das ist nicht vergleichbar. Denn im Gegensatz zu Unity und co. braucht Blizzard wegen mangeldem Multithreading und beschissener Optimierung immer nur 2 Kerne (nur 2 Threads SMT/CMT reichen da meist nicht sondern verursachen eher Probleme). WoW ist nicht etwa so CPU-Lastig, weil es viel Prozessorleistung braucht, sondern weil es ungefähr so beschissen optimiert ist wie Skyrim bei Release. Das war es schon immer (auch in meiner aktiven Zeit) und das wird sich sicher niemals ändern, dafür ist das schon zu alter Gammel.

Hübie
2014-11-15, 12:03:08
Die Tesselationsdiskusstion gehört hier nicht rein und war auch von Anfang an abstrus. Da war mMn nie wirklich eine Bevorzugung das Motiv sondern eher was möglich ist (bei Crysis2 beispielsweise). Die Vorteilsnahme kann sich nur auf die proprietären Gameworks-Shader beziehen.
Der Schuss mit Gameworks wird aber eh fett nach hinten los gehen, denn das treibt Intel geradezu in die Mantle-Ecke. Spiele die mit Mantle-Schnittstelle kommen bedeuten für Intel weniger Aufwand in der Treiberentwicklung, das war bei Intel immer wichtig. Gameworks behindert nicht nur AMD-Shaderreplacements sondern auch Intel, das darf man dabei nicht vergessen. Das mag jetzt noch nicht sooo relevant sein, aber bei einem GT4-Skylake kann das schon ganz anders aussehen. Mit einem Mantle-Treiber könnte Intel dafür sorgen beispielsweise, dass CivBE auf einem CoreM prima läuft.

Warte mal ab was Intel mit Mantle macht. Im Hintergrund tuschelt man über drei Optionen: Mantle verwerfen, im mobile-market etablieren und/oder für den Profi-Bereich einsetzen. Erst dann kommt denen die Idee sowas für Spiele am Desktop einzusetzen.

Raff
2014-11-15, 12:03:28
[...] Blizzard-Spiele waren bisher immer Sonderfälle und technisch immer allerunterste Liga. [...]

Blizzard protzt wahrlich nicht mit Technik, aber WoW wird diesbezüglich immer schlechter gemacht, als es ist. Was viele vergessen: Die Engine nutzt seit Jahren DX11, 64 Bit und beherrscht ordentliches Multithreading. Shaderexzesse an der Oberfläche sind nur ein Teil der Technik.

Auch das ist nicht vergleichbar. Denn im Gegensatz zu Unity und co. braucht Blizzard wegen mangeldem Multithreading und beschissener Optimierung immer nur 2 Kerne (nur 2 Threads SMT/CMT reichen da meist nicht). WoW ist nicht etwa so CPU-Lastig, weil es viel Prozessorleistung braucht, sondern weil es ungefähr so beschissen optimiert ist wie Skyrim bei Release.

Lies bitte den aktuellen PCGH-Artikel (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/Specials/Test-Benchmarks-Tuning-Tipps-1142547/), denn das ist schlicht und ergreifend falsch. Skyrim ist im Vergleich "technisch allerunterste Liga" (dein Zitat) und wird hinsichtlich Multithreading vom aktuellen WoW plattgewalzt.

MfG,
Raff

Unicous
2014-11-15, 12:07:25
Blau GTX 780
Rot R9 290X
Grün GTX 980
http://www.extremetech.com/wp-content/uploads/2014/11/FrameTimeComparison.png
http://www.extremetech.com/gaming/194123-assassins-creed-unity-for-the-pc-benchmarks-and-analysis-of-its-poor-performance/3

Ubisoft hat sich wohl auf Maxwell konzentriert und den Rest eher stiefmütterlich behandelt.
FRAPS ist natürlich nicht mehr "the place to go", aber dennoch ähneln sich die Fluktuation bei GK110 und Hawaii.

HOT
2014-11-15, 12:07:59
Blizzard protzt wahrlich nicht mit Technik, aber WoW wird diesbezüglich immer schlechter gemacht, als es ist. Was viele vergessen: Die Engine nutzt seit Jahren DX11, 64 Bit und beherrscht ordentliches Multithreading. Shaderexzesse an der Oberfläche sind nur ein Teil der Technik.



Lies bitte den aktuellen PCGH-Artikel (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/Specials/Test-Benchmarks-Tuning-Tipps-1142547/), denn das ist schlicht und ergreifend falsch. Skyrim ist im Vergleich "technisch allerunterste Liga" (dein Zitat) und wird hinsichtlich Multithreading vom aktuellen WoW plattgewalzt.

MfG,
Raff
Ok, damit lag ich vielleicht falsch. Aber ich bin trotzdem weiterhin skeptisch, was die technische Qualität bei Blizzard-Titeln angeht.

dildo4u
2014-11-15, 12:13:08
Blau GTX 780
Rot R9 290X
Grün GTX 980
http://www.extremetech.com/wp-content/uploads/2014/11/FrameTimeComparison.png
http://www.extremetech.com/gaming/194123-assassins-creed-unity-for-the-pc-benchmarks-and-analysis-of-its-poor-performance/3

Ubisoft hat sich wohl auf Maxwell konzentriert und den Rest eher stiefmütterlich behandelt.
FRAPS ist natürlich nicht mehr "the place to go", aber dennoch ähneln sich die Fluktuation bei GK110 und Hawaii.
Schlechter Test die 780 könnte nicht genug Vram haben und deshalb gibts die miesen Frametime's.

Grestorn
2014-11-15, 12:30:49
Ubisoft hat sich wohl auf Maxwell konzentriert und den Rest eher stiefmütterlich behandelt.
FRAPS ist natürlich nicht mehr "the place to go", aber dennoch ähneln sich die Fluktuation bei GK110 und Hawaii.

Ich bekomme mit Fraps nachvollziehbar heftigste Ruckler, man muss eigentlich eher Hänger sagen. Deswegen würde ich auf Frametime Verläufe von Fraps nichts geben.

Kriton
2014-11-15, 13:19:02
Es gibt Spiele, wie Ryse z.B., die bei Release nicht sonderlich gut auf nVidia laufen. Ein paar Tage später ist das dann behoben.

Das war ein Bug von Crytek. Das hat Coda in irgendeinem Post mal erwähnt und Besserung angekündigt.

Kriton
2014-11-15, 13:33:30
Tja, und ich finde Nvidia hätte sich da von Anfang an heraushalten sollen. Denn das einzige was sie geschafft haben... ist Geld damit zu scheffeln (wenn nicht durch die Kooperation an sich, dann eben durch GPU-Verkäufe).

Die Gamer und die Industrie hat dadurch nichts Wesentliches "gewonnen" außer ein paar Gimmicks.

Wir haben weiterhin schrottige Physik, die Effektlandschaft wurde nicht grundlegend durch Nvidia bereichert, das haben die Entwickler dann schon auch alleine hinbekommen.

Ich komme immer wieder auf die Frage zurück: Warum kann man nicht einfach die Tools zur Verfügung stellen und dann die Entwickler machen lassen. Warum muss man einen Grabenkampf inszenieren?

Warum kann man nicht einfach die Möglichkeiten für den Entwickler schaffen sich zu "entfalten" und blühende Landschaften mit korrekt simulierten Gras zu erstellen.

Warum muss man künstlich eingreifen aber am Ende sagen, wir begrüßen jedweden Wettbewerb.

Das ist ja nicht auf GW beschränkt. Das betrifft die ganze Industrie die sich seit Jahren im "Kulturkampf" befindet. Aber der "Gamer" profitiert davon nicht im Geringsten.

Außer man denkt, dass 60 Euro Ubisoft Spiele eine Bereicherung für die Industrie sind.

Ich denke, dass ist der Punkt an dem einige aneinander vorbei reden. Manche reden davon, was auf einem (abstrakten) Markt für alle (gemeint sind eigentlich die Konsumenten) besser ist (ich nenne das einfach mal als Laie volkswirtschaftlich) und andere betrachten das was aus Sicht einer einzelnen Firma sind macht (betriebswirtschaftlich) - das ist natürlich nicht kompatibel. Aus Sicht einer einzelnen Firma (betriebswirtschaftlich) ist ein Monopol sinnvoll (sofern es keine kartellrechtlichen Folgen gibt, ansonsten will man so nahe an ein Monopol ran wie es geht ohne dass es kartellrechtliche Folgen hat), aus Sicht des Marktes/Konsumenten sicherlich nicht.

Beide Sichtweisen sind aus ihrer jeweiligen Perspektive logisch ableitbar. Was wünschenswert ist, ist also eine Frage der Perspektive. Allerdings wundert es mich auch wenn einige eine Position vertreten, die eigentlich (unter logischen Gesichtspunkten - und Logik ist nur die Lehre der Folgerichtigkeit) ein Vorgehen propagieren, das im konkreten Fall (nicht auf einer abstrakten Ebene wo es ggfs., wenn sie sich in die Sichtweise des anderen versetzen) für sie eigentlich keinen Sinn macht, weil die Folgen tatsächlich negativ für sie selbst sind.

Kriton
2014-11-15, 13:40:58
Es passiert genau das was ab zu sehen war,die Ressourcen werden in Mantle gesteckt und man keine Zeit mehr eins der meist verkauften PC Spiele überhaupt zu optimieren.

Mein Fehler, ich dachte der Thread dreht sich um GW :biggrin:

-/\-CruNcher-/\-
2014-11-15, 14:04:11
Ich denke, dass ist der Punkt an dem einige aneinander vorbei reden. Manche reden davon, was auf einem (abstrakten) Markt für alle (gemeint sind eigentlich die Konsumenten) besser ist (ich nenne das einfach mal als Laie volkswirtschaftlich) und andere betrachten das was aus Sicht einer einzelnen Firma sind macht (betriebswirtschaftlich) - das ist natürlich nicht kompatibel. Aus Sicht einer einzelnen Firma (betriebswirtschaftlich) ist ein Monopol sinnvoll (sofern es keine kartellrechtlichen Folgen gibt, ansonsten will man so nahe an ein Monopol ran wie es geht ohne dass es kartellrechtliche Folgen hat), aus Sicht des Marktes/Konsumenten sicherlich nicht.

Beide Sichtweisen sind aus ihrer jeweiligen Perspektive logisch ableitbar. Was wünschenswert ist, ist also eine Frage der Perspektive. Allerdings wundert es mich auch wenn einige eine Position vertreten, die eigentlich (unter logischen Gesichtspunkten - und Logik ist nur die Lehre der Folgerichtigkeit) ein Vorgehen propagieren, das im konkreten Fall (nicht auf einer abstrakten Ebene wo es ggfs., wenn sie sich in die Sichtweise des anderen versetzen) für sie eigentlich keinen Sinn macht, weil die Folgen tatsächlich negativ für sie selbst sind.


Ist alles egal solange die Balance gehalten wird :)

tdon
2014-11-15, 14:17:15
Quelle (http://www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/)

Ist dieser direkte Zusammenhang mittlerweile konkret nachweisbar, oder stellt PCGH hier unbewiesene Tatsachenbehauptungen auf?


Schau oben links auf die Namen und schon ist die Sache klar. Wiederholt unseriös. Als Außenstehender wird man das wohl letztlich nicht beweisen können. Behaupten lässt sich natürlich immer viel, siehe PCGH.

aufkrawall
2014-11-15, 16:36:49
Er ist nicht nötig da man an der Treiberschnittstelle ja alles sieht was ankommt. Solange man den Code auch nicht ändern kann muss man genau auf dieser Grundlage optimieren. Der Aufwand irgendwelchen Spielequellcode einfach mal so zum laufen zu bekommen sollte man dabei auch nicht unterschätzen. Es ist viel einfacher einfach mal mit den entsprechenden Tools das Spiel zu starten und zu schauen wo die Hotspots und andere Probleme sind.

Etwas ähnliches hattest du ja schon im PCGH-Interview gesagt. Will wohl einfach nicht ankommen.
Zumindest nicht bei AMD-Mitarbeitern, die hier inoffiziell unterwegs sind (Wen könnte ich meinen?).


Sowohl AMD wie auch nvidia wollten immer nur lauffähige Versionen von mir haben. Nach Quellcode wurde noch nicht einmal gefragt.

:freak:

Raff
2014-11-15, 16:41:14
Schau oben links auf die Namen und schon ist die Sache klar. Wiederholt unseriös. Als Außenstehender wird man das wohl letztlich nicht beweisen können. Behaupten lässt sich natürlich immer viel, siehe PCGH.

So ein Schmarrn.

MfG,
Raff

Grestorn
2014-11-15, 17:00:47
Ich denke, dass ist der Punkt an dem einige aneinander vorbei reden. Manche reden davon, was auf einem (abstrakten) Markt für alle (gemeint sind eigentlich die Konsumenten) besser ist (ich nenne das einfach mal als Laie volkswirtschaftlich) und andere betrachten das was aus Sicht einer einzelnen Firma sind macht (betriebswirtschaftlich) - das ist natürlich nicht kompatibel. Aus Sicht einer einzelnen Firma (betriebswirtschaftlich) ist ein Monopol sinnvoll (sofern es keine kartellrechtlichen Folgen gibt, ansonsten will man so nahe an ein Monopol ran wie es geht ohne dass es kartellrechtliche Folgen hat), aus Sicht des Marktes/Konsumenten sicherlich nicht.

Aus der Sicht des Konsumenten ist ein Monopol nie gut. Und deswegen ist es einfach extrem wichtig, dass AMD und nVidia beide auf dem Markt stark bleiben.

Deswegen wirst Du auch kein Posting von mir finden, wo ich mich freue, wenn AMD irgendwo scheitert. Im Gegenteil, ich freue mich ehrlich über jeden Erfolg und jedes gute Produkt von AMD.

Worauf ich immer nur echt allergisch reagiere sind die Hate-Beiträge von AMD Fans gegen nVidia. Irgendwie fühle ich mich da als überzeugter nVidia Kunde immer auch persönlich mit angegriffen. Doof eigentlich, aber ich kann da nicht aus meiner Haut.

aths
2014-11-15, 17:19:25
Das jetzt so hinzustellen ist aber auch falsch. Blizzard-Spiele waren bisher immer Sonderfälle und technisch immer allerunterste Liga. Da liegts wohl kaum an Gameworks.Selbst SC2 hat Parallaxmapping, Full-Screen-Ambient-Occlusion, komplexe Shader für Wasser-Rendering mit Causic-Effekt und mit verzerrter Spiegelung der Umgebungslandschaft. Allerdings alles auf DX9 basierend, wobei mir unklar ist welche Shaderversion zum Einsatz kommt.

Hübie
2014-11-15, 17:29:30
Etwas ähnliches hattest du ja schon im PCGH-Interview gesagt. Will wohl einfach nicht ankommen.
Zumindest nicht bei AMD-Mitarbeitern, die hier inoffiziell unterwegs sind (Wen könnte ich meinen?).


:freak:

Welches Interview? Kannst mir mal bitte n link posten :)

captain_drink
2014-11-15, 18:08:23
Btw: WoW Warlords of Draenor: Grafikkarten-Benchmarks, CPU-Kernskalierung, Anti-Aliasing-Vergleich und mehr (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/Specials/Test-Benchmarks-Tuning-Tipps-1142547/)

Ein Beispiel dafür, wo AMD ganz ohne irgendwelches Gameworks deutlich hinter Nvidia rangiert. Warum? Wir können nur spekulieren. Interessant ist's allemal.

MfG,
Raff

Mein Tipp wäre: Relativ niedrige Shaderlast gegenüber relativ hoher Textur- und Geometrielast. Ersteres liegt GCN nicht, Letzteres schmeckt dafür Kepler, was erklären würde, warum Maxwell (neben dem CPU-Limit) im Vergleich schwächer unterwegs ist. Skyrim verhält sich diesbezüglich recht ähnlich.

Raff
2014-11-15, 18:22:57
GM204 hat ziemlich wenig rohe Texturleistung gegenüber GK110, auf eine relativ hohe Geometrielast der alten Schule, d.h. ohne Tessellation, spekuliere ich aber auch.

MfG,
Raff

Kriton
2014-11-15, 18:45:17
Ist alles egal solange die Balance gehalten wird :)

Ich bin nicht sicher, ob Du meinen Post gelesen/verstanden hast (no pun inteded). Bevor Du jetzt "ja" sagst vielleicht doch noch mal neu lesen.

Pentium M
2014-11-15, 19:47:40
Welches Interview? Kannst mir mal bitte n link posten :)

Link (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Gameworks-Special-1126441/)

Mr. Lolman
2014-11-15, 22:47:58
GM204 hat ziemlich wenig rohe Texturleistung gegenüber GK110, auf eine relativ hohe Geometrielast der alten Schule, d.h. ohne Tessellation, spekuliere ich aber auch.

MfG,
Raff

Die Engine ist uralt und ich versteh auch nicht, warum ihr alle paar Monate dieses Spiel mit dieser Gammelgrafik bencht (wo auch jedesmal die gleichen Ergebisse rauskommen), anstatt zB endlich mal eine Perle wie "The Vanishing of Ethan Carter".

Kartenlehrling
2014-11-15, 23:15:44
Schon mit dieser Aussage mach sich Blizzard lächerlich.

Anstatt dem bisher gewohnten Multisample-Anti-Aliasing (MSAA) besteht nun die Wahl zwischen zwei Post-Processing-Filtern,
namentlich FXAA (Fast Aproximate Anti-Aliasing) und CMAA (Conservative Morphological Anti-Aliasing).
MSAA wird nicht mehr angeboten.


Blizzard begründet diesen Schritt damit, dass WoW jahrelang CPU-limitiert war und deshalb Grafikkarten eher Däumchen drehten.

aufkrawall
2014-11-16, 01:16:47
Die offizielle Begründung wird irgendein PR-Irrer verzapft haben.

kruemelmonster
2014-11-16, 04:50:27
Er [der Quellcode] ist nicht nötig [zur Optimierung] da man an der Treiberschnittstelle ja alles sieht was ankommt.

Sowohl AMD wie auch nvidia wollten immer nur lauffähige Versionen von mir haben. Nach Quellcode wurde noch nicht einmal gefragt.

Danke für die erneute Bestätigung.

Wäre unglaublich toll wenn wir künftig mit dieser Faktenlage statt dagegen diskutieren könnten.

Schau oben links auf die Namen und schon ist die Sache klar. Wiederholt unseriös.

PCGH hat zu Recht einen guten Leumund, gerade deshalb ist es mir ja so rätselhaft wie diese Aussage zustande kam.

Knuddelbearli
2014-11-16, 12:45:58
Auch wenn ich mich aus der Diskussion hier raushalten da auf beiden Seiten vielzuviele Fanboys sind.

Aber PCGH hat ihren guten Leumund schon lange verspielt

Kartenlehrling
2014-11-16, 13:01:06
Der Mensch ist ja aus der Natur raus Faul, darum erfinde er immer was neues.
Wenn man aber diese Middleware und Gameworks Module nicht hinterfragt ob es wirklich das Beste Ergebnis liefert wird es gefährlich und da sehe ich das Problem.

Aber das es auch anders geht hat ja letzt der Landwirtschafts-Simulator von Gigante Soft gezeigt, das sich nach 6 Jahren Nvidia PhysX sich davon getrennt hat.

Skysnake
2014-11-16, 13:44:03
An Middleware der GPU-Hersteller ist vor allem problematisch, dass die ihre Hardware am allerbesten kennen, und im Falle eigener Software, im Zweifel lieber mit Doku zur HArdware hinterm Berg halten, um sich einen unfairen Vorteil gegenüber der (Middleware-) Konkurrenz zu verschaffen.

Das war/ist ein sehr zweischneidiges Schwert, denn dadurch verschenkt man eventuell Potenzial der eigenen HArdware, kann aber eben auch die Konkurrenz bei Software ausstechen.

An sich sollten Hardwarehersteller sich daran halten, was Sie am besten können sollten. Hardware produzieren, und diese inkl APIs eben dokumentieren.

Grestorn
2014-11-16, 14:11:40
Auch wenn ich mich aus der Diskussion hier raushalten da auf beiden Seiten vielzuviele Fanboys sind.

Aber PCGH hat ihren guten Leumund schon lange verspielt

Der letzte Satz ist eigentlich nur der übliche Vorwurf eines Fanboys, der seine vorgefertigte Meinung nicht von der jeweiligen Publikation nicht uneingeschränkt bestätigt fühlt.

-/\-CruNcher-/\-
2014-11-16, 14:15:25
Naja wer macht heute noch alles Inhouse Ubisoft mal eine riesen Ausnahme mit ihrem Middleware Portofolio aber auch die brauchen dann wieder sachen wie Havok ;)

Selbst mit DX 12 wird sich da nicht viel ändern

Ist schon traurig wenn es einige Studios nichtmal hinbekommen ein vernüftiges dynamisches Occlussion Culling zu implementieren und dann als beispiel zu Umbra greifen müssen.

Andere würden sicher gerne aber dann sagt das Management (seit ihr verrückt).

Nach diesen worten wird dann der Taschenrechner auf den Tisch gefeuert.

Gimmick
2014-11-16, 16:33:20
https://www.youtube.com/watch?v=TOaNGwEl0vU

GTX980 in dem Video teilweise 50% schneller als die R9s.

aufkrawall
2014-11-16, 17:03:31
Es scheinen momentan weder PCSS noch Hairworks enthalten zu sein. Nvidia Godrays sind im Video deaktiviert, bleibt nur HBAO+.
Wird wieder nicht an GW liegen. Langsam nervt dieser naive Generalverdacht...

Kartenlehrling
2014-11-16, 17:07:57
Und was regst du dich wieder künstlich auf,
willst du dein Nickname gerecht werden?

aufkrawall
2014-11-16, 17:08:59
Ich komm dir gleich da rüber!
Ernsthaft, ich glaube, mein Blutdruck ist niedriger als deiner.

Kartenlehrling
2014-11-16, 17:11:40
https://www.youtube.com/watch?v=TOaNGwEl0vU

GTX980 in dem Video teilweise 50% schneller als die R9s.

laut einen PCgame bericht ist der Russentest ... nichtsagend.

Die PC-Codes werden wohl erst am Dienstag an die Redaktionen verschickt, am Tag des Far Cry-4-Launches.
Nun kann man verschiedenste Spekulationen darüber anstellen, warum die PC-Version von Far Cry 4 noch nicht für die Reviews bereit steht.
Ubisoft gibt in diesem Fall an,
dass für diesen Montag ein weiteres Update für Far Cry 4 geplant sei und man die PC-Version erst danach zum Testen an die Redaktionen schicken werde.

Gimmick
2014-11-16, 17:13:33
Es scheinen momentan weder PCSS noch Hairworks enthalten zu sein. Nvidia Godrays sind im Video deaktiviert, bleibt nur HBAO+.
Wird wieder nicht an GW liegen. Langsam nervt dieser naive Generalverdacht...

Eigentlich bin ich eh dafür die r9 Reihe eher mit den 780ern zu vergleichen und nicht mit Maxwell.
Es ist dennoch interessant wie unterschiedlich die Unterschiede in der Performance von Spiel zu Spiel sein können.
Mittlerweile lohnt es sich schon deutlich den GPU Kauf von den bevorzugten Spielen abhängig zu machen. So einen "Universalvorsprung" scheint es nicht mehr zu geben.

Da frag ich mich dann auch ob die Spielehersteller, je nach Partner, auch entsprechend auf die Vorzüge und Schwächen der jeweiligen GPUs achten. Und damit meine ich jetzt weniger so fragwürdige Entscheidungen wie das Million-Poly-Cape von Batman sondern eher das Grunddesign vom Spiel.
Falls jetzt verständlich war was ich meine :freak:

laut einen PCgame bericht ist der Russentest ... nichtsagend.

Jo, sind wohl auch schon gecrackte Versionen im Umlauf. Ob jetzt ein Patch so extrem viel ändert? Erfahrungsgemäß ja eher nicht, ich denke die Richtung wird schon stimmen.

Kartenlehrling
2014-11-16, 17:24:16
Boxen-Version lassen sich ja ohne problem bei Uplay anmelden und spielen, man muss nicht immer gleich von crack schreiben, nur fehlt halt der DayOne-patch.
Ich frag mich wirklich wie man vor 15 Jahren auf der Console ohne diese DayOne-Patche bloss spielen könnte.

dildo4u
2014-11-16, 17:26:08
Das ist das selbe wie bei AC Unity der AMD Treiber erzeugt eine zu hohe CPU last,in 1440p und 4k werden sich die GPU's wieder annähern.Das selbe gabs auch bei Call of Duty das nur HBAO+ hat.

http://www.computerbase.de/2014-11/benchmarks-amd-treiber-cod-advanced-warfare/

Neuer Treiber 1600p 970=290X,schon mit dem alten Treiber war die 290X schneller als 780TI.Die Zuwächse sind in 1080p am hösten was ebend darauf hin deutet,das es nich an Nvidia Shadern liegt sondern an schlechter CPU Auslastung.

M4xw0lf
2014-11-16, 17:33:35
Das ist das selbe wie bei AC Unity der AMD Treiber erzeugt eine zu hohe CPU last,in 1440p und 4k werden sich die GPU's wieder annähern.Das selbe gabs auch bei Call of Duty das nur HBAO+ hat.

http://www.computerbase.de/2014-11/benchmarks-amd-treiber-cod-advanced-warfare/

Neuer Treiber 1600p 970=290X,schon mit dem alten Treiber war die 290X schneller als 780TI.Die Zuwächse sind in 1080p am hösten was ebend darauf hin deutet,das es nich an Nvidia Shadern liegt sondern an schlechter CPU Auslastung.

Die Abstände sind aber generell geringer und auf einer schnellen CPU praktisch nicht existent.