PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AI-Optimierungen an HDR-Formaten


AnarchX
2010-03-27, 15:06:01
Mal ein aktueller Einblick, was am Treiber so alles "optimiert" sein kann:
Während der Vorbereitungen zum Launch der Geforce GTX 480/470 teile Nvidia uns mit, dass man bei den Catalyst-Treiber von AMD Unregelmäßigkeiten in den folgenden Spielen entdeckt habe: Dawn of War 2, Empire Total War, Far Cry, Need for Speed: Shift, TES IV: Oblivion und Serious Sam 2. Genauer gesagt sollten AMDs Treiber über die Funktion "Catalyst A.I." in den genannten Spielen FP16-Rendertargets gegen solche im R11G11B10-Format ersetzen und damit die Leistung potenziell auf Kosten der Bildqualität erhöhen. Damit, so Nvidia, verschaffe man sich einen unfairen Vorteil im Wettbewerb. Diese Einschätzung können wir durchaus nachvollziehen und haben das Thema deshalb weiter verfolgt.

Nachdem in unserem Benchmark-Parcours Need for Speed: Shift betroffen war, haben wir uns Screenshots unserer Szene sowohl mit aktivem als auch deaktiviertem "Catalyst A.I." angesehen. Die Unterschiede fallen hier marginal aus. Nachdem wir AMD bezüglich dieses Themas kontaktierten, gaben uns Antal Tungler, Technical PR für Deutschland und John Story aus AMDs Treiber-Team bereitwillig Auskünfte darüber: Ja, es stimmt, dass man in den genannten Titeln (und nur dort!) diese Optimierung anwendet, um die Leistung zu erhöhen. AMD sagt, ihre Chips könnten durch die Änderung eines 64-Bit- auf ein 32-Bit-Format sehr viel Leistung sparen, ohne dass dem Kunden eine veränderte Bildqualität ins Auge stechen würde. Außerdem, so John Story weiter, hätten Radeon-Nutzer ja weiterhin die Wahl, diese Optimierung durch Deaktivieren von Catalyst A.I. zu umgehen. Man habe sich in diesen DX9-Titeln zu dieser Maßnahme entschieden, weil das leistungssparende Format Entwicklern unter der alten API noch nicht zur Verfügung stehe.

Auf unsere Nachfragen hin, ob es nicht sinnvoll wäre, die allgemeinen Optimierungen von den spielespezifischen zu trennen, zeigte man sich interessiert und sagte zu, diesen Vorschlag an das Treiber-Team weiterzuleiten. [...]
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=14

Armaq
2010-03-27, 15:09:42
Schon allein die Meldung von Nvidia an PCGH ist fragwürdig. Wenn das der Support seitens Nvidia ist, na dann gute Nacht.

Die Antwort von ATI ist jetzt nicht gerade eine Nachricht wert.

dildo4u
2010-03-27, 15:13:55
Schon allein die Meldung von Nvidia an PCGH ist fragwürdig. Wenn das der Support seitens Nvidia ist, na dann gute Nacht.

Die Antwort von ATI ist jetzt nicht gerade eine Nachricht wert.
Hä ATI bestätigt das was NV festgestellt hat was gibt's da zu deuteln?

Frank1974
2010-03-27, 15:18:15
Schon allein die Meldung von Nvidia an PCGH ist fragwürdig. Wenn das der Support seitens Nvidia ist, na dann gute Nacht.

Die Antwort von ATI ist jetzt nicht gerade eine Nachricht wert.

Es ist wohl wirklich so, alles was ATI macht ist egal, wenn NV so was machen würde, dann wäre hier schon die Hölle los...

Auch wenn man die Unterschiede kaum sehen sollte, wer weiß was AI noch alles kontrolliert.

Und jetzt NV noch als fragwürdig hin zu stellen setzt dem ganzen noch die Krone auf, es ist ATI die da betrügen wollen, nicht Nvidia.

ATI hat wohl immer Narrenfreiheit.

mfg
Frank

Gast
2010-03-27, 15:19:47
Es ist wohl wirklich so, alles was ATI macht ist egal, wenn NV so was machen würde, dann wäre hier schon die Hölle los...

Auch wenn man die Unterschiede kaum sehen sollte, wer weiß was AI noch alles kontrolliert.

Und jetzt NV noch als fragwürdig hin zu stellen setzt dem ganzen noch die Krone auf, es ist ATI die da betrügen wollen, nicht Nvidia.

ATI hat wohl immer Narrenfreiheit.

mfg
Frank

Seit wann erwähnt NV seine Optimierungen?

Odal
2010-03-27, 15:20:58
frag ich mich auch, daran is nix zu deuteln die "optimieren" wo es nur geht
auch wenn man es vielleicht bei stichproben nicht sah aber

AMD sagt, ihre Chips könnten durch die Änderung eines 64-Bit- auf ein 32-Bit-Format sehr viel Leistung sparen, ohne dass dem Kunden eine veränderte Bildqualität ins Auge stechen würde.

ins auge stechen ist ja ein sehr dehnbarer begriff wie man von AF "optimierungen" kennt

naja "freuen" wir uns es heisst ja immer die fangen mit dem optimieren erst an ;D

FX12 "HDRR" anyone? :D

wenigstens gibts ein fünkchen hoffnung das AI mal von "Optimierungen" getrennt aktivierbar ist

Frank1974
2010-03-27, 15:23:25
Seit wann erwähnt NV seine Optimierungen?

Optimieren kann man solange wie die BQ gleich "gut" bleibt, wenn es schlechter wird, ist es mehr als nur optimieren.

mfg
Frank

Gast
2010-03-27, 15:33:01
wenigstens gibts ein fünkchen hoffnung das AI mal von "Optimierungen" getrennt aktivierbar ist
[Rant on]
Das versprechen doch einige Offzielle bei dem Verein doch schon seit Ewigkeiten. Kommt nur nix raus dabei. Ein weiters Manko ist, dass es immer noch keine Profilerkennung per exe gibt. Bei ihrem CF-Rotz benutzen die das doch auch. Was spricht dagegen, als User verschiedene Profile erstellen zu können und diese automatisch per game.exe-Erkennung zu starten, so wie das bei nV seit mehreren Jahren der Fall ist? Aber bei diesen Ati-Stümpern ist das nicht drin. Kein Budget mehr für die Treiberentwicklung da oder was ist in dieser dilletantischen Frickelbude los?
[Rant off]

derguru
2010-03-27, 16:07:15
das sind jetzt nicht gerade die aktuellen benchmark titel,wundert mich warum gerade die genommen wurden.

Gast
2010-03-27, 16:08:18
Das ist schon ein starkes Stück, soweit ich weiß hat sich nicht mal NV getraut zur NV3x-Zeit SM2-Shader einfach mit FX12 zu rechnen obwohl der Unterschied wohl kaum aufgefallen wäre.

Noch schlimmer finde ich allerdings die Reaktion von PCGH, das ganze einfach mit einer kleinen Notiz hinzunehmen, anstatt endlich mal mit AI-off zu testen.

_DrillSarge]I[
2010-03-27, 16:18:59
hab gerade bei serious sam 2 nachgeschaut, dort keinerlei unterschied (oder gibts szenen in denen das besonders auffallen sollte?). mal gucken, was far cry so macht.

dildo4u
2010-03-27, 16:19:56
das sind jetzt nicht gerade die aktuellen benchmark titel,wundert mich warum gerade die genommen wurden.
Shift wird doch öfter gebencht.

Gast
2010-03-27, 16:30:50
das sind jetzt nicht gerade die aktuellen benchmark titel,wundert mich warum gerade die genommen wurden.

Shift, Oblivion, Farcry werden doch ziemlich oft gebencht. Warum sie gerade die nehmen ist auch klar, bei anderen Spielen würde man den Unterschied höchstwahrscheinlich auf den ersten Blick sehen. Soweit ich weiß verwenden zumindest Farcry und Serious Sam je nach Detailstufe auch selbst das fragliche Bildformat. Dass man es aber von außen erzwingt ist eine Frechheit.

Aber das ganze hat ja Tradition, schon bei Quake hat man ja 16bit verwendet, wenn 32 gefordert waren, nur blöd dass es damals aufgefallen ist.

_DrillSarge]I[
2010-03-27, 16:37:46
in FarCry gibts auch keinen unterschied.
das ganze lässt sich doof auf screenshots abbilden, weil dynamisch und man exakt die selbe position braucht, da es sonst immer anders aussieht.

_DrillSarge]I[
2010-03-27, 16:46:56
hab doch was gefunden in SS2: (an der waffe unten und der boden davor, sowie das hausdach hinten rechts.). imo "strahlt" es bei ai on weniger stark.


ai off

http://www.abload.de/img/aioffms8l.jpg

ai on

http://www.abload.de/img/aion9sji.jpg

deekey777
2010-03-27, 16:48:22
Wie erkennt man eigentlich den Unterschied zwischen FP16-HDRR und INT8-LDRR?

I[;7932653']hab doch was gefunden in SS2: (an der waffe unten und der boden davor, sowie das hausdach hinten rechts.). imo "strahlt" es bei ai on weniger stark.


Das Überstrahlen ist ja ein Postprocessing-Effekt, oder?

Während der Vorbereitungen zum Launch der Geforce GTX 480/470 teile Nvidia uns mit, dass man bei den Catalyst-Treiber von AMD Unregelmäßigkeiten in den folgenden Spielen entdeckt habe: Dawn of War 2, Empire Total War, Far Cry, Need for Speed: Shift, TES IV: Oblivion und Serious Sam 2. Genauer gesagt sollten AMDs Treiber über die Funktion "Catalyst A.I." in den genannten Spielen FP16-Rendertargets gegen solche im R11G11B10-Format ersetzen und damit die Leistung potenziell auf Kosten der Bildqualität erhöhen. Damit, so Nvidia, verschaffe man sich einen unfairen Vorteil im Wettbewerb. Diese Einschätzung können wir durchaus nachvollziehen und haben das Thema deshalb weiter verfolgt.
Keine Bits für den Alpha-Kanal?

Bucklew
2010-03-27, 17:34:19
Hat das was mit dem Catalyst 10.3 zu tun? Oder trat das schon vorher auf?

Aber schon krass, wo überall optimiert wird, um ja das letzte bisschen Leistung rauszuholen. Was der Huddy dazu wohl sagt? ;D

Exxtreme
2010-03-27, 17:36:29
Naja, es ist abschaltbar. Dummerweise fliegen dann auch andere Optimierungen raus.

Blaire
2010-03-27, 17:53:35
Außerdem, so John Story weiter, hätten Radeon-Nutzer ja weiterhin die Wahl, diese Optimierung durch Deaktivieren von Catalyst A.I. zu umgehen.

Sollen sie mal den Crossfire-Usern sagen diese S**bande.

Gast
2010-03-27, 17:54:53
Es ist wohl wirklich so, alles was ATI macht ist egal, wenn NV so was machen würde, dann wäre hier schon die Hölle los...

Auch wenn man die Unterschiede kaum sehen sollte, wer weiß was AI noch alles kontrolliert.

Und jetzt NV noch als fragwürdig hin zu stellen setzt dem ganzen noch die Krone auf, es ist ATI die da betrügen wollen, nicht Nvidia.

ATI hat wohl immer Narrenfreiheit.

mfg
Frank

Und wo genau siehst du Bildqualitätsunterschiede? AMD erklärt es ja schön, damals gab es nich kein 1010102-Format, obwohl das für diese Spiele wohl locker gereicht hätte. Deshalb kann man diesen Schritt nachvollziehen. Das NV natürlich ausgerechnet PCGH davon unterrichtet kommt auch nicht ganz überraschend.

Coda
2010-03-27, 17:56:53
Wie erkennt man eigentlich den Unterschied zwischen FP16-HDRR und INT8-LDRR?
Das kommt auf den Content an und was genau für ein Tonemapping man macht. Im Allgemeinen kann man diese Frage nicht beantworten.

WDas Überstrahlen ist ja ein Postprocessing-Effekt, oder?
Das Tonemapping hat als Eingabe das Offscreen-HDR-Rendertarget. Das 11-11-10-Format hat natürlich weniger dynamic range als das eigentlich verwendete FP16-Format, was an dieser Stelle dazu führt, dass es "weniger strahlt".

Keine Bits für den Alpha-Kanal?
Jup. Verwendet man aber eh eher selten.

mapel110
2010-03-27, 17:57:51
Solange Leistung da ist, sollte man AI sowieso ausschalten. Aber das machen die wenigsten.

Bucklew
2010-03-27, 18:05:59
Das NV natürlich ausgerechnet PCGH davon unterrichtet kommt auch nicht ganz überraschend.
Nun, das man im Vorfeld eines Launches sowas kommuniziert wird ist doch logisch. Und es ist ja auch für die Journalisten gut sowas zu wissen, was sie mit dem Wissen anfangen ist dann die zweite Frage. Aber was sollte Nvidia sonst tun? Besser als die AMD Methode (Huddy rausschicken und jedem Journalisten irgendwelche geschickt verdrehten Fakten zu erzählen, wenn dieser nicht schnell genug wegrennen kann) ist es so auf jeden Fall.

Nakai
2010-03-27, 18:32:40
Mhh, naja seien wir mal ehrlich. Beide Hersteller gehen die Sache anders ran. NV kooperiert mit den Spieleherstellern, sodass die Spiele besser auf die eigene Hardware laufen. AMD/ATI steckt deutlich mehr Arbeit in die Optimierung des Treibers.
;D

Dass NV so einen Schritt macht, wundert eigentlich keinen hier. Übelstes Marketing, wie immer. Wenn man zum Fermi-Launch schielt, kann man nur sagen, dass NV mit allen Mitteln um Käufern kämpft.
Mir wärs lieber, wenn solche Sachen anders aufgedeckt werden.



mfg

Gast
2010-03-27, 18:43:54
Mhh, naja seien wir mal ehrlich. Beide Hersteller gehen die Sache anders ran. NV kooperiert mit den Spieleherstellern, sodass die Spiele besser auf die eigene Hardware laufen. AMD/ATI steckt deutlich mehr Arbeit in die Optimierung des Treibers.
;D

mfg
ATI und mehr Arbeit in Treiber investieren als nvidia... schon klar. :ulol:

aths
2010-03-27, 18:57:20
Keine Bits für den Alpha-Kanal?Wozu brauchst du Destination Alpha?

Dieses 11-11-10-Format ist meines Wissen zwei mal 6e5 und ein mal 5e5. Das heißt die Dynamik bleibt schon recht hoch. Es gibt ein zweites 32-Bit-Format mit gemeinsam genutzten 5-Bit-Exponenten und 9 Bit Mantisse pro RGB-Kanal.


Das Tonemapping hat als Eingabe das Offscreen-HDR-Rendertarget. Das 11-11-10-Format hat natürlich weniger dynamic range als das eigentlich verwendete FP16-Format, was an dieser Stelle dazu führt, dass es "weniger strahlt".Es hat eine fast genauso hohe Range, aber geringere Auflösung innerhalb dieser.

Nakai
2010-03-27, 19:05:29
ATI und mehr Arbeit in Treiber investieren als nvidia... schon klar. :ulol:

Bei den ganzen Shadern die man ersetzt, arbeitet ATI natürlich deutlich mehr am Treiber. ;D


mfg

Odal
2010-03-27, 19:30:46
Mhh, naja seien wir mal ehrlich. Beide Hersteller gehen die Sache anders ran. NV kooperiert mit den Spieleherstellern, sodass die Spiele besser auf die eigene Hardware laufen. AMD/ATI steckt deutlich mehr Arbeit in die Optimierung des Treibers.
;D


jo nur das ersteres eine höhere Qualität/Performance/Bugfreiheit/Featureset für den Kunden bedeutet und letzteres eine Qualitätsabsenkung

deekey777
2010-03-27, 19:39:01
Wozu brauchst du Destination Alpha?

Ich schon gar nicht. Aber rendert Far Cry nicht in 4*FP16-Texturen (RGBA)?
Auch dachte ich, dass im Hinblick der vielen Vegetation der Alpha-Kanal nötig ist. Weiterhin ist zB Oblivion ein Spiel der NV40/G70-Ära, wo alle vier Kanäle Pflicht waren, wenn ich Aussagen aus anderen Foren trauen darf.

Vielleicht wird die RGBA-Textur in zwei aufgeteilt (aus 64 bit werden 2*32 bit).

Gast
2010-03-27, 20:13:47
jo nur das ersteres eine höhere Qualität/Performance/Bugfreiheit/Featureset für den Kunden bedeutet und letzteres eine Qualitätsabsenkung

Ja hat man gesehen beim Whql der den Lüfter abschaltet :sneak:

Gast
2010-03-27, 20:23:24
Solange Leistung da ist, sollte man AI sowieso ausschalten. Aber das machen die wenigsten.
Das kann doch in Einzelfällen zu (üblen) Problemen führen?
Ich erinnere mich dunkel an HL2.

Gast
2010-03-27, 21:26:34
Naja, es ist abschaltbar. Dummerweise fliegen dann auch andere Optimierungen raus.

Du meinst andere Cheats.

mapel110
2010-03-27, 21:31:29
Das kann doch in Einzelfällen zu (üblen) Problemen führen?
Ich erinnere mich dunkel an HL2.
Ja, da gabs hinundwieder was. Würde mich aber nicht daran hindern zu versuchen das maximal mögliche aus der Karte zu quetschen.

derguru
2010-03-27, 21:38:11
ai.standard ist maximal bQ abgesehen von dem neuen fall hier,nicht mal bei af hilft das.es gibt gar kein grund ai aus zumachen,null.

Armaq
2010-03-27, 21:41:37
Es ist wohl wirklich so, alles was ATI macht ist egal, wenn NV so was machen würde, dann wäre hier schon die Hölle los...

Auch wenn man die Unterschiede kaum sehen sollte, wer weiß was AI noch alles kontrolliert.

Und jetzt NV noch als fragwürdig hin zu stellen setzt dem ganzen noch die Krone auf, es ist ATI die da betrügen wollen, nicht Nvidia.

ATI hat wohl immer Narrenfreiheit.

mfg
Frank
Klar!

WTF?:freak:

Pünktlich zum Launch bekommt die PCGH den "Tipp" und geht dem nach. Warum solche Methoden? Hätte man auch 2 Wochen vorher machen können, bin ich mir sicher. Wenn ATI solchen Mist macht, finde ich das genauso nieder. Das sind Methoden aus grauer Vorzeit, bei der ich die Inquisition rufe, wenn mir was nicht passt.

Savay
2010-03-27, 21:44:54
peinlich von AMD so eine vorlage zu liefern...

mrt
2010-03-27, 21:51:43
Nichts besonderes und kostet keine Bildqualität in den Spielen. Mich wundert eher wenn Nvidia das nicht haben sollte, vielleicht sind die wieder rausgeflogen weil es eher ältere Spiele betrifft, wissen tun sie es mit Sicherheit schon lange.
Das Überstrahlen ist ja ein Postprocessing-Effekt, oder?
Im Falle von SS2 ist das zusätzliches Bloom (auch bei HDRR).

lilgefo~
2010-03-27, 21:54:34
Hmm sehr schade das es jetzt wieder so herum losgeht. :(
Dachte eigentlich man wäre eher auf Kurs in die andere Richtung finds aber gut, dass nv das an pcgh gemeldet hat. DIe Leute bei nv können da wunderbar kleinlich beschreiben was passiert ist und PCGH ist auch eine gute ANlaufstelle um das zu Tage zu bringen. Find das gut.

btw:

"Auf unsere Nachfragen hin, ob es nicht sinnvoll wäre, die allgemeinen Optimierungen von den spielespezifischen zu trennen, zeigte man sich interessiert und sagte zu, diesen Vorschlag an das Treiber-Team weiterzuleiten."

Knüller. :rolleyes:

Savay
2010-03-27, 21:56:41
Nichts besonderes und kostet keine Bildqualität

es ist trotzdem bullshit über den treiber rendertargets zu ändern die vom programmierer des contents anders vorgesehen waren...so sinnvoll die änderungen und so irrelevant sie für die BQ auch sein mögen...

das macht man nicht und dafür muss es einen auf den deckel geben
WENN schon dann bitte transparent

ich hoffe das nutzt die presse mal um AMD endlich mal zur implementierung einer 4. "optimierungslosen" AI stufe zu nötigen...das ist lange überfällig

noch dazu ist es schon ziemlich dumm nV eine derartige steilvorlage ausgerechnet zum launch des fermi zu liefern ;D

Black-Scorpion
2010-03-27, 22:01:49
Nur gut das NV mit seinen Treibern genau das macht was die Hersteller wollen.
Wie Realitätsfremd muss man sein um das zu glauben?

deekey777
2010-03-27, 22:06:02
Nur gut das NV mit seinen Treibern genau das macht was die Hersteller wollen.
Wie Realitätsfremd muss man sein um das zu glauben?
Nur geht es hier um den Vorwurf gegen ATi und nicht um "Ihr habt es auch getan".

Jake Dunn
2010-03-27, 22:06:43
Pünktlich zum Launch bekommt die PCGH den "Tipp" und geht dem nach. Warum solche Methoden?

So siehts halt aus wenn NV nix mehr in der Pipe hat :biggrin:

Bucklew
2010-03-27, 22:08:41
Pünktlich zum Launch bekommt die PCGH den "Tipp" und geht dem nach. Warum solche Methoden? Hätte man auch 2 Wochen vorher machen können, bin ich mir sicher. Wenn ATI solchen Mist macht, finde ich das genauso nieder. Das sind Methoden aus grauer Vorzeit, bei der ich die Inquisition rufe, wenn mir was nicht passt.
Wer sagt das diese "Optimierung" nicht erst mit 10.3 kam?

noch dazu ist es schon ziemlich dumm nV eine derartige steilvorlage ausgerechnet zum launch des fermi zu liefern ;D
Naja, das eher nicht, auch wenn es verdient und sinnvoll wäre. Sowas interessiert doch außer uns technisch interessierten gar net. In 90% der Hardwareforen würde noch nichtmal verstanden worden, was da getan wird :rolleyes:

So siehts halt aus wenn NV nix mehr in der Pipe hat :biggrin:
Außer einem großen Treiberumbruch mit dem 265er (und damit mein ich nicht nur die Versionsnummer ;D) - pünktlich zum Verkauf der Fermikarten.

Black-Scorpion
2010-03-27, 22:58:45
Nur geht es hier um den Vorwurf gegen ATi und nicht um "Ihr habt es auch getan".
Nein es geht um den Beigeschmack zu welchem Zeitpunkt das anschwärzen kommt.
Das ausgerechnet nur die PCGH den Hinweis bekommen hat macht es noch anrüchiger.

Selbst einen Paperlaunch hinlegen, eine Karte auf den Markt werfen wo jeder über den wahren Verbrauch belogen wird und hintenherum den Konkurrenten anschwärzen um von den eigen Fehlern abzulenken.

Gast
2010-03-27, 23:03:41
Nur gut das NV mit seinen Treibern genau das macht was die Hersteller wollen.

Ja, NV spricht nämlich mit den Herstellern ab wenn sie irgendwelche Shader ersetzen, oder baut sie gleich direkt in das Programm ein.

aths
2010-03-27, 23:39:50
Nein es geht um den Beigeschmack zu welchem Zeitpunkt das anschwärzen kommt.
Das ausgerechnet nur die PCGH den Hinweis bekommen hat macht es noch anrüchiger.Versteh ich nicht.

lilgefo~
2010-03-27, 23:47:01
Nein es geht um den Beigeschmack zu welchem Zeitpunkt das anschwärzen kommt.
Das ausgerechnet nur die PCGH den Hinweis bekommen hat macht es noch anrüchiger.

Selbst einen Paperlaunch hinlegen, eine Karte auf den Markt werfen wo jeder über den wahren Verbrauch belogen wird und hintenherum den Konkurrenten anschwärzen um von den eigen Fehlern abzulenken.

Was man sich über sowas ereifern kann ist mir schleierhaft. Mal abgesehen von dem Schreibstil im evilPropaganda2.0 Style - es kann dir doch total egal sein. Nichts kann für den User besser sein als zwei IHVs die gegenseitig die Treiber auseinanderpflücken um etwaige IQ Cheats publik zu machen. Dadurch steigt die Qualität weil das dann wieder ausgebssert wird bzw als Option angeboten wird. Verstehe hier ATI auch überhaupt nicht. Wenn man einfach ne Checkbox gemacht hätte hier bla durch bla ersetzen kann u.U. bisschen schlechter aussehen aber bringt x-y% Performance ca. dann wäre das absolut perfekt gewsen aber so isses einfach nur scheiße.
Und was ist anrüchig daran, dass nur die PCGH den Hinweis bekommt? An COmputerbase brauchste das nicht schicken die wissen damit nix anzufangen und das weiß nv sicher auch. Und da das für PCGH ja dann relativ einfach nachprüfbar ist schaffst du hier irgendwie ein Problem das es gar nicht gibt.

][immy
2010-03-28, 00:22:59
nun, ich verstehe echt nicht warum ati das nicht so langsam in den treiber integriert das eine strickte trennung zwischen fixes und "optimierungen" vornimmt.
wobei ich einfach vermute das die übergänge oftmals fließend sind und es daher kaum möglich ist das eine vom anderen zu trennen.

lustig wäre natürlich eine möglichkeit jeden fix & jede optimierung einzeln auszuwählen, aber das wäre wohl ein leicher overkill und würde niemanden was nützen.


wird hier eigentlich von FarCry 1 oder 2 geredet? so gesehen sind zumindest 50% der titel nicht bench-entscheidend. aber qualitätsverlust ist trotzdem niemals schön, auch wenn es in der praxis niemals auffallen würde.

unschön ist natürlich mal wieder der seitenhieb auf ati durch nvidia natürlich direkt vorm launch (solche methoden verabscheue ich nicht nur in der politik wo kurz vor einer wahl alles aus den schubladen geholt wird was schon monate/jahre zuvor hätte geklärt werden können).
ich frage mich allerdings wie ati davon wind bekommen hat. aber auch genau diese spiele zu identifizieren und auch noch was gemacht wird ...

LovesuckZ
2010-03-28, 00:24:42
[immy;7933598']
ich frage mich allerdings wie ati davon wind bekommen hat. aber auch genau diese spiele zu identifizieren und auch noch was gemacht wird ...

Die Testen jedes Spiel, um auch die Treiber anzupassen. Ist also kein Hexenwerk. Viel schlimmer ist, dass man es hinter den Rücken der Entwickler macht. Hier wird einfach der Content verändert. Dacht, das hätten wir seit dem NV30 hinter uns. :rolleyes:

][immy
2010-03-28, 00:34:30
Die Testen jedes Spiel, um auch die Treiber anzupassen. Ist also kein Hexenwerk. Viel schlimmer ist, dass man es hinter den Rücken der Entwickler macht. Hier wird einfach der Content verändert. Dacht, das hätten wir seit dem NV30 hinter uns. :rolleyes:

ne, ich glaube da irrst du dich... das kommt doch mindestens einmal im jahr wieder ... meistens vor irgendwelchen launches und meisten stellt es sich dann (nachdem alles tests gelaufen sind) als "bug" heraus (egal ob die karte von nem grünen .... oder roten grünen (amd is ja auch grün ^^) hersteller kommt).

seit nv30 sind sie nur gründlicher geworden diese "optimierungen" zu vertuschen ;)

trotzdem würde es mich interessieren wie sie dahinter gekommen sind. klar können sie testen, aber solche margialen unterschiede in genau diesen spielen... also bitte, die testen doch bestimmt kein altes Serious sam 2 oder FarCry 1 mehr. besonders wo diese titel absolut nicht mehr für benches eingesetzt werden.

LovesuckZ
2010-03-28, 00:42:49
[immy;7933610']ne, ich glaube da irrst du dich... das kommt doch mindestens einmal im jahr wieder ... meistens vor irgendwelchen launches und meisten stellt es sich dann (nachdem alles tests gelaufen sind) als "bug" heraus (egal ob die karte von nem grünen .... oder roten grünen (amd is ja auch grün ^^) hersteller kommt).

seit nv30 sind sie nur gründlicher geworden diese "optimierungen" zu vertuschen ;)

trotzdem würde es mich interessieren wie sie dahinter gekommen sind. klar können sie testen, aber solche margialen unterschiede in genau diesen spielen... also bitte, die testen doch bestimmt kein altes Serious sam 2 oder FarCry 1 mehr. besonders wo diese titel absolut nicht mehr für benches eingesetzt werden.

Ich schätze, das ist ihnen aufgefallen, als sie mal A.I Off eingestellt haben. So ähnlich kam auch ATi's Filterlügerei zum Auffliegen. Willkürliche Einstellungen.

AnarchX
2010-03-28, 00:51:24
Beide Treiberabteilungen haben da wohl weit ausgefeiltere Möglichkeiten die Treiberoptimierungen des Konkurrenztreiber aufzuspüren und dann nach Möglichkeit für sich ebenfalls zu verwenden oder eben öffentlich anzuprangern.

Odal
2010-03-28, 09:35:43
[immy;7933598']nun, ich verstehe echt nicht warum ati das nicht so langsam in den treiber integriert das eine strickte trennung zwischen fixes und "optimierungen" vornimmt.
wobei ich einfach vermute das die übergänge oftmals fließend sind und es daher kaum möglich ist das eine vom anderen zu trennen.

ganz einfach, weil dann die balken nicht länger werden wenn in reviews diese optimierungen deaktiviert werden
ergo es bringt ihnen nichts

natürlich sind extra einstellbare optimierungen zu begrüssen aber die sind für den jeweiligen IHV weniger interessant als mal eben "unbemerkt" ein paar % mehr"leistung" rauszuquetschen

jaja ATI und die Wundertreiber....wundern tut man sich immer wieder nur meistens nicht im positiven sinne :rolleyes:

PCGH_Carsten
2010-03-28, 09:46:23
Das NV natürlich ausgerechnet PCGH davon unterrichtet kommt auch nicht ganz überraschend.
Wow, was für ein schmerzhafter Tritt in den virtuellen Unterleib... :freak:
Zur Info: Wir sind nicht die einzigen, die diese Info bekommen haben. Ich finde viel interessanter, wie wenige andere darauf eingegangen sind.


Übrigens: Hätte Nvidia das vor dem Launch kommuniziert, wäre es von den "üblichen Verdächtigen" als FUD-Kampagne abgestempelt worden, weil Nvidia kein Produkt hätte. Ich denke mal, AMD wird den Nvidia Treiber auch genauso untersuchen wie andersrum (und wenn es nur dazu ist, um sich Anregungen für eigene Optimierungen zu holen) und wenn man da was gefunden hätte oder findet, wird man das sicherlich auch publik machen. Sonst scheut ja auch keiner davor zurück.

Damit verabschiede ich mich mal in den Urlaub. Ciao

Gast
2010-03-28, 10:04:44
[immy;7933610']

seit nv30 sind sie nur gründlicher geworden diese "optimierungen" zu vertuschen ;)



Vertuschen kann man die Bildqualität beeinflussende Optimierungen nicht, aber man wird sie ja nur nur im direkten Vergleich sehen wie bei den SeSam 2 Screenshots hier im Thread.

_DrillSarge]I[
2010-03-28, 13:25:45
nach intensivem sinnlos durch farcry herumlaufen (:ugly:) würde ich behaupten, es gibt, wenn überhaupt (man kann sich ja auch was einbilden weil man davon weiss unzo), eine, minimalste "abweichung". keine ahnung, sieht jedenfalls (imho! :D) gaaanz leicht anders aus. in manchen szenen, nur (sehr) selten zu sehen. dank dümmlicher speicherfunktion kann man aber keine deckungsgleichen shots machen und dann mal genauer gucken.

Gast
2010-03-28, 13:36:56
Ja, NV spricht nämlich mit den Herstellern ab wenn sie irgendwelche Shader ersetzen, oder baut sie gleich direkt in das Programm ein.

Shaderreplacement ist ein alltäglicher Optimierungsvorgang seit Jahren bei beiden Herstellern.