PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum AMD nicht mit Crysis wirbt


Gmax
2007-11-28, 23:19:30
So erklärte er auch ganz offen, warum in AMDs Präsentationen zu den neuen Grafikkarten der HD-3800-Serie und der Spider-Plattform das Wort "Crysis" nicht ein einziges Mal vorkommt: "Nvidia hat die exklusiven Marketing-Rechte an Crysis, also können wir das Spiel für unsere Vorführungen nicht verwenden."

http://www.golem.de/0711/56246.html

Wird das künftig gängige Praxis werden? Ich wundere mich auch, weshalb ich nirgends ein ATI Logo im Abspann eines Games sehe, die von nV jedoch zuhauf.

Gast
2007-11-28, 23:33:13
HL2 mit ATI anyone?

Super Grobi
2007-11-28, 23:36:38
Finde ich alles nicht gut. Bedeutet doch nur, das man den Entwickler aufträgt, daß das Spiel auf der eigenen Graka gut läuft, bzw. (jetzt wird es interessant) auf der anderen Karte schlecht läuft, damit man selber besser da steht.

Nicht gut!

SG

Coda
2007-11-29, 01:14:00
Bedeutet doch nur, das man den Entwickler aufträgt, daß das Spiel auf der eigenen Graka gut läuft, bzw. (jetzt wird es interessant) auf der anderen Karte schlecht läuft
Nein tut es nicht.

Das Auge
2007-11-29, 01:20:23
Naja, ist doch wie mit dem "the it's meant to be played" Logo: Das muß auch nicht zwingend heißen, daß das betreffende Game auf nv-Karten besser läuft.

beos
2007-11-29, 02:23:47
Nein tut es nicht.

Nun ja - als betreffende Firma bekommst Du Interna des Spiels und kannst den Treiber darauf optimieren - noch bevor das Spiel rauskommt - was dann wiederrum in besseren Benchmarks des Spiel bei Erscheinen resultiert

Gast
2007-11-29, 09:36:09
Umso lächerlicher, als dann bei NV urplötzlich ein "Bugtreiber" zum Release des Spiels erschien. Natürlich ist's bei den Pappheimern niemandem aufgefallen, dass tonnenweise Details fehlen. Pah, diese Bude kotzt sowas von an....

Gast
2007-11-29, 09:39:21
Wird das künftig gängige Praxis werden? Ich wundere mich auch, weshalb ich nirgends ein ATI Logo im Abspann eines Games sehe, die von nV jedoch zuhauf.
Beschwer dich bei der Marketingabteilung von AMD bzw vorher ATI. Die sind mit ihrem GITG-Programm wohl so auf die Fresse geflogen, dass sie es nun sein lassen.
Außerdem spielt wohl der Geldmangel eine Rolle. Aber ob man gerade in solchen Zeiten an PR sparen sollte, sei mal dahingestellt. 3DFX läßt grüßen.

Monger
2007-11-29, 10:15:07
Nein tut es nicht.
Zumindest im Fall von Crysis hat nVidia ja eine ganze Horde von Entwicklern gestellt, die auch ganz aktiv mitentwickelt haben.
In aller Regel beschränkt sich der Einfluss der IHVs ja auf Support, aber was nVidia diesmal getrieben hat, geht wohl weit darüber hinaus. Und das werden sie wohl nicht aus lauter Menschenfreundlichkeit getan haben.

MadManniMan
2007-11-29, 10:26:13
Zumindest im Fall von Crysis hat nVidia ja eine ganze Horde von Entwicklern gestellt, die auch ganz aktiv mitentwickelt haben.
In aller Regel beschränkt sich der Einfluss der IHVs ja auf Support, aber was nVidia diesmal getrieben hat, geht wohl weit darüber hinaus. Und das werden sie wohl nicht aus lauter Menschenfreundlichkeit getan haben.

Der Freund des nicht hinreichend Informierten ist die Übertreibung...

Es waren genau 2 Programmierer, die nV abstellte und keine Horde... zudem sollte mindestens 95% aller Arbeit auch ATi gut tun.

mapel110
2007-11-29, 10:29:20
Zumindest im Fall von Crysis hat nVidia ja eine ganze Horde von Entwicklern gestellt, die auch ganz aktiv mitentwickelt haben.
In aller Regel beschränkt sich der Einfluss der IHVs ja auf Support, aber was nVidia diesmal getrieben hat, geht wohl weit darüber hinaus. Und das werden sie wohl nicht aus lauter Menschenfreundlichkeit getan haben.
Eine Horde von Entwicklern = 2
Warum soll sich nvidia darum scheren, dass ATI nicht ausm Quark kommt?! Wenn die keine Lust/Geld haben, sich in der Spieleentwicklung zu engagieren, dann ist das nicht ihr Problem.
.. zudem sollte mindestens 95% aller Arbeit auch ATi gut tun.
Joah, das überhaupt neue Effekte eingebaut werden halt.

MadManniMan
2007-11-29, 10:37:47
Joah, das überhaupt neue Effekte eingebaut werden halt.

Nicht nur das: inzwischen ist es auch unheimlich schwer geworden, überhaupt auf irgend eine Architektur ganz besonders hinzuarbeiten, was soetwas anbelangt.

Gast
2007-11-29, 13:59:33
Bedeutet doch nur, das man den Entwickler aufträgt, daß das Spiel auf der eigenen Graka gut läuft, bzw. (jetzt wird es interessant) auf der anderen Karte schlecht läuft, damit man selber besser da steht.
Ja - genauso ist es. Allerdings schicken sowohl nvidia als auch AMD ihre Söldner aus, um die Konkurrenz in Verruf zu bringen. Und AMD kann sich nicht beschweren - ich sag nur: Anno1701. Sunflowers hatte das Spiel zum Verkaufsstart auf Radeon-Chips optimiert, so daß es auf den konkurrierenden Chips von nvidia zum Teil zwar noch erträgliche FPS lieferte, dafür aber echt mies aussah (weil so gut wie alles abgeschaltet werden mußte).
Ich hab (..) eine 8800GTS, (..) einen E6400 und 2GB RAM, und hab (..) die unterschiedlichen Einstellungen ausprobiert. Dabei fings dann deutlich an zu ruckeln, wenn ich die Texturfilterungsqualität auf "Hohe Qualität" stellte (..)
http://www.gamestar.de/community/gspinboard/showthread.php?t=272570
Auf meiner alten X800XT lief Anno 1701 von Anfang an ohne Mucken. Was will uns der Dichter damit sagen? :uponder:

Was übrigens auch recht interessant ist: Kaum ist eine Final von Crysis in Umlauf, bringt nvidia den 8800GT in die Läden. Ein Chip der für Crysis optimiert wurde und sogar die 8800GTS um 30% abwatscht. Und alle Spieleheftchen überschlagen sich mit Benchmarks.
Tja - warum ging das nicht gleich so? - Antwort: Marketing.
Erst kommt die Kinoversion (8800GTS) und ein Jahr später zu Weihnachten dann der extended Director's Cut (8800GT). Und schon muß man sich das Produkt neu kaufen.

Perfekt. ;D

Back to Topic: Crysis ist nun mal nvidias Sandkiste. Und ich bin mal gespannt, ob Crysis wirklich der lang prophezeite Renner wird. Im Moment seh ich jedenfalls keinen Run auf Crysis. Vermutlich, weil man den umgekehrten Fehler gemacht hat, wie bei der PS3. Die PS3 ist eine Platform ohne Software und Crysis ist eine Software ohne Platform. Und Erfolg wird nunmal in $ gemessen. Und solange nur ein paar Geeks in neue Hardware investieren und sich gleichzeitig auch noch Vista antun, wird Crysis ganz schön Probleme kriegen. Und bei all der ganzen Grafikpracht ist die eigentliche Frage: Ob Crysis im Netz auch tatsächlich Spaß macht oder nur eine teure Hardware-Demo ist völlig untergegangen.

Solange Crysis praktisch noch keine Relevanz am Markt hat, können sich die AMD-Verantwortlichen gratulieren. Jeder Cent, der nicht in Crysis-Werbung investiert wurde, kann dazu verwendet werden, um sich auf dem tatsächlichen Markt zu profilieren. Wenn Spiele wie Crysis massentauglich werden (also in ca. 2-3 Jahren), dann ist die AMD/ATi-Crysis längst ausgestanden und Chips der 8800er-Reihe werden dann nur noch onboard mit Hyper/Turbocache recycelt. ;)

Gast
2007-11-29, 14:12:24
Nicht nur das: inzwischen ist es auch unheimlich schwer geworden, überhaupt auf irgend eine Architektur ganz besonders hinzuarbeiten, was soetwas anbelangt.

Das halte ich für ein Grücht. nV könnte mit bestimmten Abhängigkeiten bei den Shadern die AMD-Karten immens ausbremsen und damit die eigenen Karte, denen das nichts ausmacht in ein gutes Licht rücken. Auch kann man über das ALU/TEX-Verhltnis der Shader einiges machen. Das ist bei dieser Generation deutlich ärger geworden als noch bei der letzten.

reunion

Coda
2007-11-29, 14:17:58
Ich sag's nochmal: Die Shader sind im Plaintext in HLSL lesbar und dort ist nichts was auf sowas hindeutet.

Gast
2007-11-29, 14:18:49
Eine Horde von Entwicklern = 2


Seit mittlerweile 1.5 Jahren.


Warum soll sich nvidia darum scheren, dass ATI nicht ausm Quark kommt?! Wenn die keine Lust/Geld haben, sich in der Spieleentwicklung zu angagieren, dann ist das nicht ihr Problem.


So ist es ja dann auch nicht:

In der Vergangenheit, so Huddy, habe man öfter Studios nach Demos gefragt und diese auch bei Produktvorstellungen verwendet. Hinterher sei aber "Nvidia zu denen gegangen und sagte: 'Was macht ihr da, das Zeug ATI zu geben, das ist unmöglich!'". Man wolle aber nicht die Beziehungen der Entwickler zu anderen Firmen belasten und habe sich Crysis-Demos daher diesmal gespart, erklärte Richard Huddy weiter. Er betonte aber auch: "Wir arbeiten mit Crytek sehr eng zusammen, gerade in dieser Woche war einer unserer Programmierer bei ihnen zu Besuch." Nach der Veröffentlichung von Far Cry habe man mit den Frankfurtern unter anderem das ATI-Demo "The Project" erstellt.

Dennoch läuft Crysis auf vergleichbaren AMD-Grafikkarten langsamer als auf Nvidia-Karten. Es gebe aber "fast keine Shader Replacements" für Crysis in den AMD-Treibern erklärte Richard Huddy. Bei dieser umstrittenen Praktik werden manche Shader-Programme eines Spiels durch Code des Grafikkarten-Herstellers ersetzt, so dass ein Spiel unter Umständen anders aussieht, als sich sein Entwickler das gedacht hat - aber deutlich schneller läuft. Laut Huddy will AMD weiterhin an seinen Treibern feilen, denn "der Code von Crysis gehört Crytek, nicht Nvidia." Es gebe also auch für AMD noch allerhand Raum für Optimierungen.

Dass an Crysis sichtbar wird, wie sehr man ein Spiel auf die eine oder andere Plattform anpassen kann, findet Richard Huddy im Allgemeinen enttäuschend: "Unsere Architektur unterscheidet sich ganz deutlich von der von Nvidia. Microsoft wollte diese Unterschiede mit DirectX-10 nahezu auslöschen, weil die Schnittstelle 'Caps free' werden sollte". Über die "Caps", oder "Capabilities", können die Grafiktreiber melden, was die GPUs beherrschen und was nicht.

reunion

Gast
2007-11-29, 14:20:00
Ich sag's nochmal: Die Shader sind im Plaintext in HLSL lesbar und dort ist nichts was auf sowas hindeutet.

Ich habe ja nicht gesagt, dass es so ist. Weiß ich ich nicht. Nur die prinzipiellen Möglichkeiten sind allemal vorhanden.

reunion

Fatality
2007-11-29, 14:21:21
amd hat einfach kein geld mehr für solche sachen.
jetzt wo sie aus den top10 der chiphersteller sind erst recht.

beos
2007-11-29, 14:26:03
amd hat einfach kein geld mehr für solche sachen.
jetzt wo sie aus den top10 der chiphersteller sind erst recht.

Jetzt schon - ich hab gerade EINE 3850 gekauft :biggrin:

Coda
2007-11-29, 14:33:15
Ich habe ja nicht gesagt, dass es so ist. Weiß ich ich nicht. Nur die prinzipiellen Möglichkeiten sind allemal vorhanden.
Wenn dann müsste man soweit gehen und sagen, dass man einen Effekt eben auf eine gewisse Art und Weise implementiert (und er möglicherweise dann auch etwas anders aussieht) um eben die Architektur auf die man entwickelt optimal auszunützen. Das kann schon sein.

Aber der Shadercode an sich wird sicher nicht speziell auf einen IHV zugeschnitten. Bei Crytek glaube ich aber auch allgemein nicht an sowas, weil man die Engine ja auch weiterverkaufen will.

Auch damals bei HL² war nichts auf ATI zugeschnitten. Es hat ihnen einfach besser geschmeckt. Ich halte aus Entwicklersicht einfach nichts von solchen Verschwörungstheorien.

BAGZZlash
2007-11-29, 14:49:03
Die sind mit ihrem GITG-Programm wohl so auf die Fresse geflogen, dass sie es nun sein lassen.


GITG?


amd hat einfach kein geld mehr für solche sachen.
jetzt wo sie aus den top10 der chiphersteller sind erst recht.


Wieso? Kostet das Geld, da 'rauszufliegen?

Gast
2007-11-29, 14:51:42
GITG?


Get in the Game.
http://en.wikipedia.org/wiki/Get_in_the_game

Gast
2007-11-29, 14:53:20
Ich habe ja nicht gesagt, dass es so ist. Weiß ich ich nicht. Nur die prinzipiellen Möglichkeiten sind allemal vorhanden.

reunion

Nein, sind sie eben nicht.

Fatality
2007-11-29, 14:54:28
GITG?



Wieso? Kostet das Geld, da 'rauszufliegen?

weil man weniger umsetzt? :wink:

reunion
2007-11-29, 17:32:04
Nein, sind sie eben nicht.

Und ob.

No.3
2007-12-01, 14:31:30
Es waren genau 2 Programmierer, die nV abstellte und keine Horde...

wenn 2 Gallier mit Zaubertrank vollgepumpt nen Römerlager verwüsten sieht das schon aus wie eine Horde ;)

d.h. kommt ganz darauf an welcher Stelle diese 2 Leute sitzen, je nachdem können die dann nicht viel bis sehr arg viel in nVidias Sinne "manipulieren"...

Gast
2007-12-01, 14:40:39
je nachdem können die dann nicht viel bis sehr arg viel in nVidias Sinne "manipulieren"...
Zb. könnten sie die nv Treibercheat Detailausparungen ins Spiel integrieren. :(

Gast
2007-12-01, 15:20:51
Und ob.

HLSL enthält keinen chipspezifischen Code, es ist daher unmöglich, damit programmierte Engines speziell auf einen Chip anzupassen.

Liszca
2007-12-01, 17:17:13
Und bei all der ganzen Grafikpracht ist die eigentliche Frage: Ob Crysis im Netz auch tatsächlich Spaß macht oder nur eine teure Hardware-Demo ist völlig untergegangen.

So sehe ich das auch, wahrscheinlich steht man mal wieder lange zeit auf fast leeren servern rum, und kann nur hoffen dass endlich mal jemand auf den server kommt.

Da hole ich mir doch lieberst erst mal UT 3, dass finde ich hat für dei gebotene grafik einen verdammt geringen hardware-hunger.

und ausserdem habe ich mich noch nicht mal für eine gescheite grafikkarte entschieden...

Rooter
2007-12-01, 20:39:18
Es waren genau 2 Programmierer, die nV abstellte und keine Horde... zudem sollte mindestens 95% aller Arbeit auch ATi gut tun.
Hier (http://winfuture.de/news,35780.html) steht etwas anderes. :|

Ich kann mir schon vorstellen das man ein Spiel auf eine bestimmte GraKa Serie optimieren kann. Z.B. Karte A kann zwei Texturen pro Takt mit Operation xyz bearbeiten, Karte B aber drei. Wenn das Spiel jetzt auf drei besteht muss Karte A aufteilen. Wenn das Spiel auf zwei besteht freut sich Karte A aber Karte B ist nicht optimal ausgelastet usw.
Die Karten bzw. Serien haben ja alle ihre Stärken und Schwächen, da kann man sicher viele Dinge so programmieren das sie zumindest für eine Karte optimal sind. Schlimmstenfalls ist diese Vorgehensweise dann aber für die andere Karte sogar kontraproduktiv.

MfG
Rooter

Liszca
2007-12-01, 20:44:44
Hier (http://winfuture.de/news,35780.html) steht etwas anderes. :|

Ich kann mir schon vorstellen das man ein Spiel auf eine bestimmte GraKa Serie optimieren kann. Z.B. Karte A kann zwei Texturen pro Takt mit Operation xyz bearbeiten, Karte B aber drei. Wenn das Spiel jetzt auf drei besteht muss Karte A aufteilen. Wenn das Spiel auf zwei besteht freut sich Karte A aber Karte B ist nicht optimal ausgelastet usw.
Die Karten bzw. Serien haben ja alle ihre Stärken und Schwächen, da kann man sicher viele Dinge so programmieren das sie zumindest für eine Karte optimal sind. Schlimmstenfalls ist diese Vorgehensweise dann aber für die andere Karte sogar kontraproduktiv.

MfG
Rooter

das hört sich irgendwie so an als hätte nvidia die arbeit für crytek gemacht;D

gibts eigentlich auch eine angebe über die totalen arbeitsstunden?

Gast
2007-12-01, 21:42:00
so weit kann es mit den spezifischen Optimierungen auf nv nicht sein, schliesslich läuft das Spiel auch auf nv-HW eher mässig gut obwohl im Treiber wieder alles weggelassen wird, was weniger auffällt - driver-cheats FTW

aths
2007-12-01, 22:12:58
Ich habe ja nicht gesagt, dass es so ist. Weiß ich ich nicht. Nur die prinzipiellen Möglichkeiten sind allemal vorhanden.

reunionBei der Programmierung? Fast gar nicht – und was hätte Crytek davon?

aths
2007-12-01, 22:17:27
Naja, ist doch wie mit dem "the it's meant to be played" Logo: Das muß auch nicht zwingend heißen, daß das betreffende Game auf nv-Karten besser läuft.Ganz genau – einerseits mietet NV auf der Verpackung Werbefläche, andererseits gibt es Support für die Entwickler, damit es auf GeForce-Karten so gut wie möglich läuft. Dass es auf GeForce-Karten am besten laufe ("meant to be played") ist Marketing-Gewäsch.

Ich will bei Spielen gar keine Logos im Vorspann sehen, sondern möglichst schnell losspielen.

Gynoug MD
2007-12-02, 23:53:05
Der selbe Scheiß wie damals mit FarCry.

Was wurde nicht auf ganzseitigen Werbe-Seiten in Spiele-Blättchen dafür geworben, wie toll die Nvidia-Hardware mit dem Spiel performen soll, und wie toll die Zusammenarbeit zwischen Nvidia und den Entwickern war.

Wie toll dann FarCry auf damaligen FX-Karten lief (und wie sie gegen die Ati-Karten abgeraucht sind,bei schlechterer BQ...), ist wohl jedem hier noch in Erinnerung.:biggrin:

Das ganze HL2-/Ati-Getue war auch nicht besser, wenn gleich hier die Atis wirklich besser waren (im Vergleich zur unsäglichen FX).

Ich finde allerdings, aktuell sollte AMD mal endlich aus dem Quark kommen, Nvidia hat (zu-) viele Trümpfe in der Hand, egal in welcher Preisklasse.

Und ohne Konkurrenz sind die Karten-Preise leider so stabil wie lange nicht mehr.

Gast
2007-12-05, 22:44:31
Ich sag's nochmal: Die Shader sind im Plaintext in HLSL lesbar und dort ist nichts was auf sowas hindeutet.
Zeigt nur wie eingeschränkt und nichtssagend deine Sicht ist.

Gast
2007-12-05, 22:57:53
HLSL enthält keinen chipspezifischen Code, es ist daher unmöglich, damit programmierte Engines speziell auf einen Chip anzupassen.
Jeder Hardware schmeckt jeder Code anders. Du kannst viele Dinge auf verschiedenen Wegen erreichen, und wenn du mit NV zusammenarbeitest, nimmst du den Weg der darauf am besten läuft, entsprechend das selbe mit ATI.
Dass UE3 und CryEngine2 besser auf NV laufen und HL2 und Call of Juarez besser auf ATI laufen ist ein Resultat daraus, man muss schon echt naiv und von sich zu überzeugt sein, um das nicht zu sehen.

Gast
2007-12-06, 09:41:18
Jeder Hardware schmeckt jeder Code anders. Du kannst viele Dinge auf verschiedenen Wegen erreichen, und wenn du mit NV zusammenarbeitest, nimmst du den Weg der darauf am besten läuft, entsprechend das selbe mit ATI.
.

Der Aufwand dafür ist absolut nicht vertretbar, weil man erst einmal die verschiedenen Wege in HLSL programmieren müsste um DANN herauszufinden, was auf der eigene Hardware besser läuft

Coda
2007-12-06, 12:41:12
Zeigt nur wie eingeschränkt und nichtssagend deine Sicht ist.
Dann erzähl mir doch mal was an den Crysis-Shadern (du kannst das Shader-Package mit einem gängigen Packprogramm entpacken) so nVIDIA-spezifisch ist.

Falls du das nicht kannst: Klappe halten und dich trollen.

Dass UE3 und CryEngine2 besser auf NV laufen und HL2 und Call of Juarez besser auf ATI laufen ist ein Resultat daraus, man muss schon echt naiv und von sich zu überzeugt sein, um das nicht zu sehen.
Das ist ganz sicher kein Resultat davon dass ein Programmierer sich vorgenommen hat "so, jetzt lass ich mal IHV x schlecht aussehen". Ganz sicher nicht.

Gast
2007-12-06, 14:19:15
Der Aufwand dafür ist absolut nicht vertretbar, weil man erst einmal die verschiedenen Wege in HLSL programmieren müsste um DANN herauszufinden, was auf der eigene Hardware besser läuft
Ach und du glaubst NVidia weiß das nicht und gibt dementsprechend keine optimierungs Tipps? lol

Grestorn
2007-12-06, 14:30:58
Ach und du glaubst NVidia weiß das nicht und gibt dementsprechend keine optimierungs Tipps? lol

Genau. Und 9/11 ist vom CIA eingefädelt, die Mondlandung inszeniert und die Illuminati beherrschen die Welt.

Gast
2007-12-06, 14:33:36
Dann erzähl mir doch mal was an den Crysis-Shadern (du kannst das Shader-Package mit einem gängigen Packprogramm entpacken) so nVIDIA-spezifisch ist.Ich muss mich hier nicht Profilieren wie du es versuchst, ich weiss es, du sagst du weisst es nicht. Benchmarks der einzelnen games beweisen es.


Falls du das nicht kannst: Klappe halten und dich trollen.Ja, das ist dein Niveau, du siehst nichts und wenn du Gott nichts siehst kann es auch nicht sein.


Das ist ganz sicher kein Resultat davon dass ein Programmierer sich vorgenommen hat "so, jetzt lass ich mal IHV x schlecht aussehen". Ganz sicher nicht.
Aber ganz sicherlich das Resultat davon der jeweilige IHV gesagt hat "Mach das, das und das nicht, das schmeckt unserer Hardware nicht, macht es lieber auf dem dem und dem Wege".


Statt also nur dumm die Klappe aufzureissen solltest du vielleicht mehr Zeit in deine Analyse stecken wie z.B. Demirug damals (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=183257) um mit eigenen Augen zu sehen wie "seltsam" manches realisiert wird nur damit sie dem IHV gefällt der der Firma ein paar Mille zuschiebt.

Wenn du weiterhin nicht dazu fähig bist, lass dein Halbwissen stecken und befolge deinen Tipp selbst: Klappe halten und dich trollen.

Gast
2007-12-06, 14:42:11
Genau. Und 9/11 ist vom CIA eingefädelt, die Mondlandung inszeniert und die Illuminati beherrschen die Welt. Du hast definitiv Ahnung, bist ein ganz schlauer Insider. All die Spinner die meinen jemand z.B. Eidos würde für Reviews bezahlen und wer sich nicht dran hällt wird nach 10Jahren gefeuert oder dass die Erde keine Scheibe ist, ist ja lachhaft. Alles läuft immer ganz so ab wie man es uns sagt... deswegen ist dein Lieblingssport sicher auch Wrestling.

Grestorn
2007-12-06, 14:43:29
Du hast definitiv Ahnung, bist ein ganz schlauer Insider. All die Spinner die meinen jemand z.B. Eidos würde für Reviews bezahlen und wer sich nicht dran hällt wird nach 10Jahren gefeuert oder dass die Erde keine Scheibe ist, ist ja lachhaft. Alles läuft immer ganz so ab wie man es uns sagt... deswegen ist dein Lieblingssport sicher auch Wrestling.

Warum sollte ich jemanden erst nehmen, der nur rumbasht, unbewiesene Behauptungen aufstellt und zu allem Überfluss auch noch persönlich wird? Troll Dich einfach.

P.S.: Natürlich sind die Shader von optimiert, auch mit Tipps von nVidia. Die werden sicher auch nV Hardware im Blick haben, weil sie die besser kennen. Aber der Schluss, dass die Shader absichtlich so geschrieben wurden, dass ATI Hardware mit ihnen Probleme hat, ist absurd, aus einem ganzen Stapel an Gründen.

Gast
2007-12-06, 15:00:28
Warum sollte ich jemanden erst nehmen, der nur rumbasht, unbewiesene Behauptungen aufstellt und zu allem Überfluss auch noch persönlich wird? Troll Dich einfach.
Tja, nicht anders auf deiner Seite, hast nichts kompetentes zu sagen ausser deinem nutzlosen Flame... du darfst zwar was sagen, musst du aber nicht! Bedenke das wenn du nur dumm rumlabern willst ohne den Thread auch nur im geringsten weiter zu bringen.


P.S.: Natürlich sind die Shader von optimiert, auch mit Tipps von nVidia. Die werden sicher auch nV Hardware im Blick haben, weil sie die besser kennen. Aber der Schluss, dass die Shader absichtlich so geschrieben wurden, dass ATI Hardware mit ihnen Probleme hat, ist absurd, aus einem ganzen Stapel an Gründen.
Lies nochmal richtig was ich schrieb bevor du deinen Unsinn reininterpretierst. NV hat einfach nur dafür gesorgt, dass alle für sie ungünstigen Stellen von Crytek/Epic wegoptimiert werden. Was am Ende da ist, ist Software an ziemlich allen Stellen genau so gut oder besser ist auf NV Karten als auf ATI karten. ATI karten bekommen dagegen quasi eine vanilla Implementierung wie vermutlich jeder Student ohne ahnung von Hardware auch schreiben würde (hinsichtlich Optimierung, beide haben natürlich das selbe Binary am laufen). Du hast nunmal immer Stellen bei denen du dich entscheiden musst in welche Richtung du optimieren wirst, das ist absolut kein Zufall wie es Coda einem weiss machen will wenn die von NV unterstützten Herstelle am Ende immer besser auf NV-Karten laufen (oder im fall von den GfFX5800 etc. gleich schnell trotz scheiss Hardware) genau so wie es bei ATI ist.

Grestorn
2007-12-06, 15:07:21
Lies nochmal richtig was ich schrieb bevor du deinen Unsinn reininterpretierst. NV hat einfach nur dafür gesorgt, dass alle für sie ungünstigen Stellen von Crytek/Epic wegoptimiert werden. Was am Ende da ist, ist Software an ziemlich allen Stellen genau so gut oder besser ist auf NV Karten als auf ATI karten. ATI karten bekommen dagegen quasi eine vanilla Implementierung wie vermutlich jeder Student ohne ahnung von Hardware auch schreiben würde (hinsichtlich Optimierung, beide haben natürlich das selbe Binary am laufen). Du hast nunmal immer Stellen bei denen du dich entscheiden musst in welche Richtung du optimieren wirst, das ist absolut kein Zufall wie es Coda einem weiss machen will wenn die von NV unterstützten Herstelle am Ende immer besser auf NV-Karten laufen (oder im fall von den GfFX5800 etc. gleich schnell trotz scheiss Hardware) genau so wie es bei ATI ist.

Das was die "Gäste" (Du?) in diesem Thread geschrieben haben, klang ganz anders.

Denn das was Du da schreibst, stimmt wohl. Ich sehe da aber auch kein Problem.

Niemand hat ATI daran gehindert, ein paar Ingenieure zu Crytek zu schicken, um dafür zu sorgen, dass auch für ihre Hardware optimiert wird.

Außerdem: "Optimiert von nVidia Ingenieuren" dürfte in den allermeisten Fällen auch dazu führen, dass der Code generell optimaler läuft. Nur in einem kleineren Teil der Fälle ist die Optimierung, die nVidia etwas bringt, gleichzeitig für ATI kontraproduktiv.

Gast
2007-12-06, 15:16:02
@Grestorn

Ist der Shadercompiler nicht Teil des Grafiktreibers, so dass es letztendlich nur am Treiber liegt, wie gut die Hardware mit einem Shader zurechtkommt?

Gast
2007-12-06, 15:19:06
Das was die "Gäste" (Du?) in diesem Thread geschrieben haben, klang ganz anders. ja ICH.


Denn das was Du da schreibst, stimmt wohl. Ich sehe da aber auch kein Problem.

Niemand hat ATI daran gehindert, ein paar Ingenieure zu Crytek zu schicken, um dafür zu sorgen, dass auch für ihre Hardware optimiert wird. Das weisst weder du noch ich. Exklusivverträge können durchaus dafür sorgen, dass manche Konkurenten ausgeschlossen werden.

Außerdem: "Optimiert von nVidia Ingenieuren" dürfte in den allermeisten Fällen auch dazu führen, dass der Code generell optimaler läuft. Nur in einem kleineren Teil der Fälle ist die Optimierung, die nVidia etwas bringt, gleichzeitig für ATI kontraproduktiv.
Wenn du bei NV arbeiten würdest, würdest du auch alles dafür tun damit die Spiele NV-Hardware möglichst gut dastehen lassen. Entsprechend würdest du bei jeder Optimierung die du vorschlägst abwegen, ob sie NV einen Vorteil bringt. Vorteil auch wenn es dem anderen Hersteller einen Nachteil bringt, den dann heisst es NV ftw und ATI who cares und auch Epic/Crytek werden sich nicht bei jeder dieser Optimierungen das Laufzeitverhalten auf jeder Karte vom Konkurenten ansehen. Denn wozu 5 verschiedene Implementierungen von etwas testen, wenn NV sagt "DIE wird bei uns am Besten laufen".

Grestorn
2007-12-06, 15:25:56
Das weisst weder du noch ich. Exklusivverträge können durchaus dafür sorgen, dass manche Konkurenten ausgeschlossen werden.
Und was würde ATI daran hindern, genau einen solchen Exklusivvertrag als Skandal gegen nVidia auszuschlachten?

beos
2007-12-06, 15:58:57
Und was würde ATI daran hindern, genau einen solchen Exklusivvertrag als Skandal gegen nVidia auszuschlachten?

Ich vermute mal - das zu hohe Schmiergeld, das Nvidia zahlte :biggrin:

Grestorn
2007-12-06, 16:01:42
Ich vermute mal - das zu hohe Schmiergeld, das Nvidia zahlte :biggrin:

Genau, das Schmiergeld, dass nVidia an ATI gezahlt hat... Jetzt ist mir alles klar! :biggrin:

Coda
2007-12-06, 16:16:48
Ich muss mich hier nicht Profilieren wie du es versuchst, ich weiss es, du sagst du weisst es nicht. Benchmarks der einzelnen games beweisen es.
Ich "profilier" mich überhaupt nicht. Hab ich auch nicht im geringsten nötig. Du stellst hier absurde Behauptungen auf und verhälst dich absolut assozial - nicht ich. Deshalb: Fakten auf den Tisch, oder still sein.

Die Benchmarks "beweisen" nur, dass ein Spiel der einen oder anderen Architektur besser liegt, sonst nichts. Crytek und co. würde sich ins eigene Fleisch schneiden was Relizenzierung ihrer Engine angeht, wenn sie ATI ohne Grund benachteiligen würden.

Das Half-Life² heute auf nVIDIA-Karten auf einmal besser läuft als auf ATIs ist natürlich auch nur eine Folge von Optimierungen auf nVIDIA-Hardware :hammer:

Ist doch alles totaler Blödsinn. Wenn ATI mehr Texturleistung hätten und nicht nur vergleichbare Rechenleistung, dann könnten sie in allen Spielen mithalten - so halt nicht. Aber das liegt ganz sicher nicht an den Entwicklern.

DerKleineCrisu
2007-12-06, 16:53:37
@Coda

Haste es nicht gewußt nvidia graka´s sind umgelabelte ATI graka´s

deswegen läuft auch HL 2 nun besser;D.

beos
2007-12-06, 17:11:12
Genau, das Schmiergeld, dass nVidia an ATI gezahlt hat... Jetzt ist mir alles klar! :biggrin:

böse...böse :biggrin:

-> AMD braucht zur Zeit leider jedes Kapital, dass sie bekommen können - da kommen Nvidia's Schmiergelder gerade recht ;D

aths
2007-12-06, 19:26:21
Lies nochmal richtig was ich schrieb bevor du deinen Unsinn reininterpretierst. NV hat einfach nur dafür gesorgt, dass alle für sie ungünstigen Stellen von Crytek/Epic wegoptimiert werden. Was am Ende da ist, ist Software an ziemlich allen Stellen genau so gut oder besser ist auf NV Karten als auf ATI karten. ATI karten bekommen dagegen quasi eine vanilla Implementierung wie vermutlich jeder Student ohne ahnung von Hardware auch schreiben würde (hinsichtlich Optimierung, beide haben natürlich das selbe Binary am laufen). Du hast nunmal immer Stellen bei denen du dich entscheiden musst in welche Richtung du optimieren wirst, das ist absolut kein Zufall wie es Coda einem weiss machen will wenn die von NV unterstützten Herstelle am Ende immer besser auf NV-Karten laufen (oder im fall von den GfFX5800 etc. gleich schnell trotz scheiss Hardware) genau so wie es bei ATI ist.Shader werden längst nicht mehr in "Assembler" geschrieben, selbst wenn, können heutige Shader-Optimierungs-Tools (die jeder Treiber hat) auch solchen Code umsortieren so dass die Mathematik dieselbe bleibt, die Hardware jedoch besser damit zurecht kommt.

Man kann komplexere Shader wie Crysis sie nutzt nicht speziell auf bestimmte Hardware optimieren. Sowohl R600 als auch G80 fressen suboptimalen Shader-"Rohcode" (auch dank automatischer Optimierung im Treiber) ganz gut.

R600 hat mehr Shader-Rohleistung als der G80, wobei der G80 (dank skalarer Rechenweise und kleinerer Batches) effizienter arbeitet. Wenn sich Berechnungen so schreiben lassen, dass aus skalaren ALUs ein Vorteil gezogen werden kann, ist der einzig "Schuldige" ATI, die noch immer jeweils ganze Vektoren bearbeiten. Es wäre doch sinnlos, G80-Optimierungspotenzial brachliegen zu lassen nur weil R600 daraus wenige oder keine Vorteile zieht.

Crysis scheint auch viele Texturen zu nutzen. Dies schmeckt dem G80 natürlich eher als dem R600. Aber die Entscheidung Texturen zu nutzen ist eine Content-Frage. Wenn R600 (deutlich!) weniger Texturierungsleistung hat und ein Spiel welches viele Texturen nutzt auf dem R600 nicht ganz so gut performt, ist das ATI anzukreiden.

Piffan
2007-12-06, 21:15:53
Nach der Verschwörungsphase nun mal ne ganz konkrete Frage: Können die Shader vom Treiber in Echtzeit sortiert werden? Und wenn, hat das nicht irgendwelche Nachteile?

Reine Hypothese von mir: Wenn die Shader vorsortiert werden, könnte das neben einer Erhöhung der FPS nicht aber auch für eine "unrunde" Performance sorgen, sprich Schluckauf oder "Denkpausen"?
Wie läuft das genau ab, wird der Compiler auf den anderen Kern der CPU verlagert, so dass der Gameloop auf dem anderen Kern nicht gestört wird? Man munkelt ja, dass allein wegen der Treiberoptimierungen sich ein Dual- Core lohnen würde....

Und noch mal: Wenn nun diese Shadersortierung out of the Box schon für ein Spiel geleistet wurde, dann ist es doch indirekt ein Nachteil für die Konkurrenz, denn die muss erst dynamisch zur Laufzeit sortieren.


Aber mal davon ab: Wenn Ati im Moment schwächelt, weil es eh an der Texturleistung hapert, dann machen die paar Prozente Nachteil bei den Shadern auch nix mehr kaputt....

Demirug
2007-12-06, 21:26:51
Shader werden bevorzugt beim Spielstart oder beim Laden eines Levels/Maps vom Spiel erzeugt. Im Gameloop versucht man das eher zu vermeiden.

Der Treiber kann die Optimierung also auch schon außerhalb des Gameloops machen. Nun gibt es aber auch noch Online Optimierung die sich aus der Kombination von Shadern oder bestimmter Shader Parameter ergeben. Diese können erst gemacht werden wenn diese Situation zum ersten Mal auftaucht (außer der Treiber kennt das Spiel und weiß genau dass sie auftauchen wird).

All diese Optimierungen sind natürlich auch auf einem zweiten Kern möglich.

Coda
2007-12-06, 21:47:06
Aber mal davon ab: Wenn Ati im Moment schwächelt, weil es eh an der Texturleistung hapert, dann machen die paar Prozente Nachteil bei den Shadern auch nix mehr kaputt....
Jain. Manche Texturen können erst gesampled werden wenn die Berechnungen dazu abgeschlossen sind.

Im Extremfall können sich Arithmetik und Texturzugriffe vollständig gegenseitig blockieren.

Der Treiber kann die Optimierung also auch schon außerhalb des Gameloops machen. Nun gibt es aber auch noch Online Optimierung die sich aus der Kombination von Shadern oder bestimmter Shader Parameter ergeben. Diese können erst gemacht werden wenn diese Situation zum ersten Mal auftaucht (außer der Treiber kennt das Spiel und weiß genau dass sie auftauchen wird).
Oder das Spiel macht einen Cache-Warmup beim Laden indem es verdeckt Dreiecke mit allen verwendeten Parametern rendert. Wird ja von ATi empfohlen.

Piffan
2007-12-07, 00:07:20
Folgendes beobachte ich bei Fear: Wenn ich in den Catalyst- Optionen "AI" einschalte, dann wird die Performance recht stotterig. Es kommt immer wieder zu kompletten Stops für Sekundenbruchteile......

Stelle ich bei diesem Spiel AI auf off, ist die Performance wesentlich glatter und wird nur noch von gelegentlichen Nachladerucklern gestört, wenn die Texturen auf Max stehen.

Diese Unruhe bei aktiviertem AI habe ich mir erklärt mit "Shaderoptimierungen", die wohl für Benches gut sind, aber das Zocken eher stören. Könnte es sein, dass die Online- Optimierung hier hakelt? Ist übrigens auf einem Singlecore keinen Deut anders....

Vielleicht ist es auch ein Placebo- Effekt, aber auch bei anderen Spielen lasse ich AI grundsätzlich aus.......Der Leistungsverlust wiegt weniger als eine unrunde Performance.

Gast
2007-12-07, 11:39:52
Ich "profilier" mich überhaupt nicht. Hab ich auch nicht im geringsten nötig. Du stellst hier absurde Behauptungen auf und verhälst dich absolut assozial - nicht ich.
stimmt, du bist ja nie derjenige der leere und unbewiesene Behauptungen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6068447&postcount=4) in den Raum stellt.


Die Benchmarks "beweisen" nur, dass ein Spiel der einen oder anderen Architektur besser liegt, sonst nichts. Crytek und co. würde sich ins eigene Fleisch schneiden was Relizenzierung ihrer Engine angeht, wenn sie ATI ohne Grund benachteiligen würden.Es ist nicht ohne Grund, sie arbeiten mit NV zusammen und optimieren entsprechend. Ob ATI auf der Strecke bleibt oder selbst irgendwie optimierungen in ihre Treiber einbauen kann interresiert Epic/Crytek nicht. Das Resultat sieht man an der Marktsituation, die 8800 Reihe geht weg wie warme Semmeln und die 2900 wird als Benchmark-looser gehandelt. Zur Zeiten der 5800 und 9800 galt NV bei Spielern trotz hyperschlechter Hardware trotzdem als ziemlich gleichwertig zu ATI-Hardware.
Alles durch Developersupport seitens NV. Wenn du das nicht als Beweis ansiehst, dann kann dir auch kein Globus vom Glauben an die Scheibe abhelfen.

Das Half-Life² heute auf nVIDIA-Karten auf einmal besser läuft als auf ATIs ist natürlich auch nur eine Folge von Optimierungen auf nVIDIA-Hardware :hammer:Wieder mal so eine leere Behauptung von dir. http://www.google.com/search?hl=en&q=benchmark+half+life+2+8800+2900 gleich erster link
"This is the first time we’ve seen the Radeon HD 2900 XT come this close to the performance of the GeForce 8800 GTX"

Labberlippe
2007-12-07, 15:56:39
Hi

Ach Du meine Güte wieder ein Thread zum bashen und sinnlosen Argumentieren.

Als ob nVIDIA hergehen würde und bei Crysis extra Fehler einbauen nur damit deren Hardware besser da steht.

Schwachsinn.

Dann hätte auch ATi bei "deren" Spielen Fehler einbauen müssen.

Klar hat jeder seine Lieblingsfavouriten nur sollte man bitte dennoch Objektiv bleiben.

Beiden Herstellern steht das Recht zu mit deren Marketing für Werbung zu sorgen, seis nVIDIA für Crysis oder ATi für die Steam Produkte.

Gruss Labberlippe

Gast
2007-12-07, 19:13:03
Hi

Ach Du meine Güte wieder ein Thread zum bashen und sinnlosen Argumentieren.

du meinst wie z.B.:

Als ob nVIDIA hergehen würde und bei Crysis extra Fehler einbauen nur damit deren Hardware besser da steht.

Schwachsinn.? scheint so.


Dann hätte auch ATi bei "deren" Spielen Fehler einbauen müssen.wie z.B. (http://www.giga.de/show/gigagames/maxx/00139330_nvidia_call_of_juarez/)?

Klar hat jeder seine Lieblingsfavouriten nur sollte man bitte dennoch Objektiv bleiben.LieblingsLiebling? welchen hab ich denn wenn ich sage dass NV mit UE3/CryEngine2 genau das selbe macht wie ATI mit HL2 und Call of Juarez?

Man sollte einfach nur akzeptieren, dass es automatisch eine benachteiligung des anderen Konkurenten gibt sobald eine Spiele/Engine-Hersteller mit dem anderen GPU-Hersteller zusammenarbeitet.

Labberlippe
2007-12-07, 20:26:47
Hi

Lieber Gast lese nochmal den Thread, vielleicht kommst dann darau wie ich es z.B meine.

Zu deinen Argument, natürlich wird nVIDIA und ATI deren Implementation versuchen besser den Spiele Hersteller vor Ort schmackhaft zu machen.

Dennoch können die einfach quasi die Shader so ändern das nur deren Produkt besser rennt, optimieren ja zaubern nein.

In der Vergangheit haben beide Hersteller im Treiber selbst optimierungen für entsprechende Spiele angepasst.

Jetzt darüber eine "Verschwörung" herbei zu zaubern nur weil der andere Hersteller nicht in der Liste ist, ist in meine Augen weit her geholt.

Darauf will ich z.B hinaus.

und eine Benachteiligung sehe ich nicht da jeder Hersteller dementsprechend vorgehen kann.

Gruss Labberlippe

aths
2007-12-09, 02:56:44
Man sollte einfach nur akzeptieren, dass es automatisch eine benachteiligung des anderen Konkurenten gibt sobald eine Spiele/Engine-Hersteller mit dem anderen GPU-Hersteller zusammenarbeitet.Wieso automatisch? Viele Optimierungen kommen allen Architekturen zugute. Und falls Dinge für Hardware A eleganter gelöst werden hat Hardware B daraus doch nicht "automatisch" einen Nachteil – das wäre nur der Fall, wenn die Programmierung Hardware B benachteilt. Dies ist aber kein Automatismus.