PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 + Ati 9900Pro + nVidia/AA-Bug = Absicht?!


radi
2003-08-02, 22:24:30
Der Antialiasing-Bug bei nVidia-Karten soll ja ein strategischer Schachzug sein, um den Verkauf von den neuen Ati-Brettern zu steigern ...

http://www.gamestar.de/news/pc-spiele/action/13386

Was meint ihr dazu? Ich finde es eine frechheit dass man quasi gezwungen wird Ati zu kaufen wenn man optimale Bildqualität haben will, da es (mit Absicht) nur auf Ati möglich ist!

nggalai
2003-08-02, 22:45:58
Ich schieb's mal ins passende Forum. *verschieb*

IMO ist das Bullshit, btw.

93,
-Sascha.rb

Demirug
2003-08-02, 22:46:26
Den Thread klaue ich mir doch mal fürs Spekulationsforum *eg* *move*

@topic:

:cop: GAMESTAR :cop:

Wenn das wirklich ein Sachzug gewesen sein soll dann ein nicht unbedingt guter.

Im Moment sind uns ja Valve/ATI/nVidia nach wie vor den Beweiss schuldig das sie das Problem lösen können. Wobei ich da zuerst mal auf Valve schaue und den schwarzen Peter dorthin schiebe.

Wenn Valve und ATI damit wirklich ATI-Karten verkaufen wollen dann hätte man HL2 schon längst auf einer ATI-Karte mit AA zeigen müssen. Je länger dies dauert desto unglaubwürdiger wird das alles. Zudem hat Valve ja inzwischen Lösungen für ATI und nVidia Karten angekündigt.

EDIT: Da hat doch einer schneller geklaut.

Gil-galad
2003-08-02, 23:47:27
Hi.

Also ich denke auch, dass die Meldung ne Finte ist. Denn mit so einem Vorgehen, würde man ziemlich viele NVidianer verprellen. Und das wird wohl kein Spielehersteller riskieren, grad jetzt wo so viel raubkopiert wird.

Heimatsuchender
2003-08-03, 02:41:35
ich denke mal, dass problem liegt bei valve. ich kann mir nicht vorstellen, das man bestimmte features nur auf ati-karten darstellen kann/will. sollte das doch der fall sein, warum auch immer, wird der schuss nach hinten losgehen. ich hab ne geforce fx 5900 und ich denke nicht im traum daran, für hl2 ne neue graka zu kaufen. und so werden auch viele andere denken. aber warten wir mal ab, wie es sich entwickelt.
tobife

ps: hat nvidia nicht ein joint venture mit electronic arts abgeschlossen?

betasilie
2003-08-03, 02:55:37
Original geschrieben von radi
Der Antialiasing-Bug bei nVidia-Karten soll ja ein strategischer Schachzug sein, um den Verkauf von den neuen Ati-Brettern zu steigern ...

http://www.gamestar.de/news/pc-spiele/action/13386

Was meint ihr dazu? Ich finde es eine frechheit dass man quasi gezwungen wird Ati zu kaufen wenn man optimale Bildqualität haben will, da es (mit Absicht) nur auf Ati möglich ist!
Das halte ich für absolut möglich. Eigentlich hätte ich sowas eher von NV und id-soft erwartet, aber ATI holt wohl auf. ;)

MadManniMan
2003-08-03, 03:06:47
*Sascha anschließ*

...bullshit.

Aber schön wärs dennoch. Und wenns mir nur darum geht, daß ich Razorle und co. mal so richtig schön toben sehen will :D

radi
2003-08-03, 08:21:15
falls das wirklich so seien sollte, werde ich das nicht gut heißen, dabei ist es mir egal, ob das ati+valve machen oder das mit nVidia oder was auch immer. Solche absprachen sind nicht ok, egal wer drunter leiden müsste.

zeckensack
2003-08-03, 10:19:48
Original geschrieben von nggalai
IMO ist das Bullshit, btw.Ack (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1099320#post1099320) :D
Original geschrieben von zeckensack
Oh Mann, Gamestar :lol:
Posten ohne Eigenintelligenz :D

Wenn ich das schon lese, "Gamestar-Recherchen" :lolaway:

Und die traurige Wahrheit ist, das AA-Problem liegt einfach an der Art wie Valve die Texturfilter vergewaltigt in Kombination mit der Funktionsweise von Multisampling. Das gilt für alle Grakas, die Multisampling machen (ergo GF3+, Radeon 9500+).

Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=85001&perpage=20&pagenumber=4) habe ich ein kleines Schaubild dazu gemacht.

Daß ATI dieses Problem angeblich 'lösen' kann ist wieder eine ganz andere Geschichte.

Mehrpack
2003-08-03, 19:20:09
hi,
ausserdem glaube ich nicht das das die vollversion sein wird, die mit bei liegt.
imho wird das eine "OEM" sprich erweitere grosse Demo sein.

Mehrpack

Crushinator
2003-08-04, 00:09:47
Es würde sich eh' um eine soegenannte "erweiterte Demo" handeln und nicht mehr. Was mich allerdings zum Erstaunen bringt, ist der "recherchierte" Ausliefrungstermin der Karten, und wieso gerade GameStar an diese Information gelangen sollte. :|

Gastus
2003-08-04, 00:44:22
ATIaner---->werden ja auch vergrault!!---> Sehe nur EA Games id uswusw......ja den isses need so schlimm wahh,wenn man das game starten schon ein splashscreen von Nvidia Rübbberruckelt Supergoil wahh.

ich denke ihr verkraftet einfach nicht das es (ewt.auch andere FAN-Tüppys Gibt,die diese schoisse GENAU Gleich Machen (könnten / Ja und auch Dürfen!) aber wie ich schon länger raus lesen DARF ist "Nvidia darf, ATI Nicht! echt cool ihr superCStüppys--->ich hoffe HL2 kommt Nie raus,daran würdet ihr den verrecken und alles wiert gut -> ;)

MadManniMan
2003-08-04, 01:13:40
Original geschrieben von Gastus
ATIaner---->werden ja auch vergrault!!---> Sehe nur EA Games id uswusw......ja den isses need so schlimm wahh,wenn man das game starten schon ein splashscreen von Nvidia Rübbberruckelt Supergoil wahh.
ich denke ihr verkraftet einfach nicht das es (ewt.auch andere FAN-Tüppys Gibt,die diese schoisse GENAU Gleich Machen (könnten / Ja und auch Dürfen!) aber wie ich schon länger raus lesen DARF ist "Nvidia darf, ATI Nicht! echt cool ihr superCStüppys--->ich hoffe HL2 kommt Nie raus,daran würdet ihr den verrecken und alles wiert gut -> ;)

LSD?
Scorbut?
Lepra?

:kratz2:

...ich werd aus deinem Deutsch nicht schlau!

Ailuros
2003-08-04, 04:18:33
Original geschrieben von Gastus
ATIaner---->werden ja auch vergrault!!---> Sehe nur EA Games id uswusw......ja den isses need so schlimm wahh,wenn man das game starten schon ein splashscreen von Nvidia Rübbberruckelt Supergoil wahh.

ich denke ihr verkraftet einfach nicht das es (ewt.auch andere FAN-Tüppys Gibt,die diese schoisse GENAU Gleich Machen (könnten / Ja und auch Dürfen!) aber wie ich schon länger raus lesen DARF ist "Nvidia darf, ATI Nicht! echt cool ihr superCStüppys--->ich hoffe HL2 kommt Nie raus,daran würdet ihr den verrecken und alles wiert gut -> ;)

Uhhmmm :help:

micki
2003-08-04, 08:31:14
hat man nicht das _änliche_ problem seit langem schon mit lightmaps, da durch das bilineare filtering nachbar-maps reinbluten, wenn sie in einer texture-page liegen?
das hat man auch gelöst z.B. indem man den rand der textur um eine pixelreihe extrudiert hat oder die texturcoordinaten auf das pixelcenter verschoben hat... dass die einfach nur zu lame sind von anfang an sowas richtig zu machen, daran _zweifle_ ich. ich wüste gerne den grund weshalb valve das macht... vielleicht sollten sie das engineschreiben anderen überlassen...


MfG
micki

ravage
2003-08-04, 09:37:39
Nehmen wir mal an, es würde stimmen:

Es ist schon richtig, dass sich kein Besitzer einer GeForce >FX5600 deswegen eine ATi Karte kauft. Wenn aber die Marktmacht von HL2 groß genug ist (und davon gehe ich aus) wird sich der GeForce besitzer dennoch das Spiel kaufen. Also kein Verlust für ATi oder Valve.

Es gibt aber noch genug Zocker mit einer alten/langsamen Karte. Viele davon machen ihren GraKa kauf von den Spielen HL2 und D3 abhängig. Und da würde ATi voll zuschlagen. nVidia hat zwar bei D3 geringfügig mehr Performance, ATi hat dafür aber bei HL2 (Werbemode on) "grandios bessere Bildqualität" (Werbemode off).

Dennoch glaube ich nicht daran, dass Valve und ATi sowas durchziehen.

ShadowXX
2003-08-04, 09:54:02
Davon abgesehen das diese Meldung ziemlicher Mist ist, würde ich gerne mal die 'geheimen'Quellen der GS kennerlernen....
Die haben bei solchen Bildzeitungsniveau-Meldungen nämlich fast nie eine Quellenangabe....

J.S.Shadow

Gast
2003-08-04, 11:33:27
Wolln doch mal fesathalten:
FSAA braucht ja nicht unbedingt genutzt zu werden, ghelle?

up

BlueI
2003-08-04, 13:48:22
Seh' ich auch so: Wer weiß, wie sich HL2 mit heutiger Hardware UND AA performancemäßig verhält. Außerdem scheinen sich ja Valve und NVidia (und ATi) um das Problem zu kümmern.
=)

Gast
2003-08-04, 14:31:21
also wie ich das bis jetzt rausgelesen habe, betrifft das Problem beide Hersteller.
Für jeden von beiden wird es einen anderen Lösungsweg geben.

Wo liegt denn nun das Problem? Also ich halte das für ein bisschen utopisch, dass sich ein Softwarehersteller mit einem Hardwarehersteller anlegt, auf welchen sie wegen seiner schieren Größe in gewisser Weise angewiesen sind, wenn sie ihre Spiele verkaufen wollen.
Mit Sicherheit werden sich nicht alle mal eben eine neue Grafikkarte für HL2 kaufen. Das ist ja utopisch. Wenn das so wäre, dann könnten die Grafikkartenhersteller für die nächsten Monate feierabend machen und, ernten gehen und sich an den Swimmingpool legen.

Ich halte das für zu abwegig. Wenn ich jetzt mal diese "angeblichen" Verschwörungstheorien der Gamestar für gesichert annehme, dann frage ich mich doch, wieso Nvidia dann HL2 in seine Werbekampagne mit integriert? Dort steht HL2 auf der selben Stufe wie jedes andere Spiel aus diesem Werbeprogramm.

Ich halte das alles für einen ganz großen Blödsinn und reine Panikmacherei, damit die Leute im Sommerloch was zu lesen und diskutieren haben.
Hier empfiehlt es sich doch ganz einfach mal locker zu bleiben und das Spiel im Laden abzuwarten. Im Vorfeld erübrigt sich eigentlich jede Spekulation dazu.

mAxmUrdErEr
2003-08-04, 20:09:06
ich stimme unseren leiben gast größtenteils zu...
wenns darum gehen würde nvidia zu verscheissern könnte man das spiel einfach still und leise mehr auf ati optimieren statt im schon vorher solches zeug zu verbreiten...

Spake
2003-08-04, 21:09:01
wobei solche optimierungen erstens die wenigstens DAUs kennen waeren wohl die einzigen welche sich wegen HL2 eine neue gpu kaufen wuerden und zweitens koennte man solche optimierungen nicht so leicht als fehler vertuschen

immerhin lautet das statement im moment dass der fehler immer auftritt wenn eine engine so arbeitet wie hl2 und dass nur ati das problem loesen koennen

Mancko
2003-08-04, 21:26:32
Original geschrieben von Spake
wobei solche optimierungen erstens die wenigstens DAUs kennen waeren wohl die einzigen welche sich wegen HL2 eine neue gpu kaufen wuerden und zweitens koennte man solche optimierungen nicht so leicht als fehler vertuschen

immerhin lautet das statement im moment dass der fehler immer auftritt wenn eine engine so arbeitet wie hl2 und dass nur ati das problem loesen koennen

Nein das Statement lautet, dass es sowohl für ATI als auch Nvidia Lösungsmöglichkeiten gibt, die in Zusammenarbeit mit den IHVs geprüft werden.

Spake
2003-08-04, 21:41:05
wieso f[r nv haben sie doch gesagt das man dort keine m;glichkeit sieht
wobei meiner meinung nach das prob sowieso eher bei valve liegt

HiddenGhost
2003-08-05, 11:27:30
Man muss, einfachgesagt, "nur" Pixelshader 2.0 erzwingen, dann funktioniet das MSAA auch. Nur NV hat leider eine desaströse Shaderperformance und das wäre eine marketingtechnische Katasthrophe für Nvidia, da heute Qualiatstests zum festen Bestandteil der Berichterstattung gehören!

Aquaschaf
2003-08-05, 11:32:22
Original geschrieben von HiddenGhost
Man muss, einfachgesagt, "nur" Pixelshader 2.0 erzwingen, dann funktioniet das MSAA auch. Nur NV hat leider eine desaströse Shaderperformance und das wäre eine marketingtechnische Katasthrophe für Nvidia, da heute Qualiatstests zum festen Bestandteil der Berichterstattung gehören!

Das stimmt nicht. Weder die "desaströse" Shader-Performance, noch das man das Problem durch "erzwingen von PS2" beheben könnte.

NVidia hat das Problem ja im übrigen schon gelöst.

ShadowXX
2003-08-05, 12:30:06
Original von Aquaschaf:
NVidia hat das Problem ja im übrigen schon gelöst.


hmmmm....quelle?

(Und bitte nicht die PS2.0 Meldung.....)

J.S.Shadow

ShadowXX
2003-08-05, 13:19:44
Ich glaube sowieso mehr an einen PR-Gag von Valve.
Wenn das AA dann plätzlich doch auf beiden Karten funktioniert sind Sie wieder die Helden....

Aber bis Sie dieses 'verraten' sind Sie umsonst(=kostenlos) in aller Munde....biligere Werbung gibt es nicht...

J.S.Shadow

Gast
2003-08-05, 14:44:02
Original geschrieben von HiddenGhost
Man muss, einfachgesagt, "nur" Pixelshader 2.0 erzwingen, dann funktioniet das MSAA auch. Nur NV hat leider eine desaströse Shaderperformance und das wäre eine marketingtechnische Katasthrophe für Nvidia, da heute Qualiatstests zum festen Bestandteil der Berichterstattung gehören!

Das ist nicht ganz richtig.
Die schlechte Performance ist in weiten Teilen für NV3x ungünstigem Shadercode seitens des MS Compilers zuzuschreiben.
Aber das kann man ja auch ändern.
Dann werden die verwendeten Shader einfach fest im Treiber hinterlegt und NV3x gerecht gemacht.
Ist ja nicht so, dass nun in den nächsten Monaten unmengen an Spielen mit Shadern erscheinen.
Es beläuft sich eher auf sehr wenige Titel: HL2, Stalker und Doom3.

Von denen scheint einzig HL2 eventuell risikobehaftet zu sein. Bei Doom3 weiss man, dass es auf NV Karten rockt. Bei Stalker kann man davon ausgehen, da dieses in aller erster Linie für NV3x lauffähig gemacht wird (CG).
Brauch man also nur HL2 untersuchen ob ein Problem sich ergeben könnte. Wenn ja, dann wird man das Problem im Treiber lösen.
Die Möglichkeiten dafür können sehr vielseitig sein.

Andere Anweisungsreihenfolge, generell für NV3x neu compiliert oder Eine Mischung aus FP16 und FP32.
Dort wo es nicht so auffällt FP16 und da wo die AUgen zu erst hinschauen FP32.

Da heisst es einfach abwarten. Alles andere ist zu diesem Zeitpunkt völlig unerheblich.

ShadowXX
2003-08-05, 15:05:53
Original von Gast:
Bei Doom3 weiss man, dass es auf NV Karten rockt.


Dann weisst du mehr als wir......
Und Stalker wurde erst letztens mal eben um 1 Jahr verschoben...bis dahin rauschen noch viele Grakas den Bach herunter....

J.S.Shadow

/edit:
was vergessen...

Razor
2003-08-05, 16:40:14
Original geschrieben von MadManniMan
Aber schön wärs dennoch. Und wenns mir nur darum geht, daß ich Razorle und co. mal so richtig schön toben sehen will :D
:zzz:*gäääääähhhhhnnnnn*:zzz:

Razor

P.S.: Du kannst Dir gar nicht vorstellen, wie egal mir das wäre...
Einzig und allein Valve hätte dann ein richtiges Problem !
:D

betasilie
2003-08-05, 16:47:17
Original geschrieben von Razor

Einzig und allein Valve hätte dann ein richtiges Problem !
:D
Aha. Und welches? :eyes:

ShadowXX
2003-08-05, 16:53:50
Original von Gast:
Das ist nicht ganz richtig.
Die schlechte Performance ist in weiten Teilen für NV3x ungünstigem Shadercode seitens des MS Compilers zuzuschreiben.


das der Shadercode für nv schlecht ist, für Ati gut wissen wir ja...aber da ja jetzt das neue DX-SDK draussen ist (schon länger wenn ich mich richtig erinnere), welches auch optimierten Code für nv3x Shader ausspuckt, werden wir sehen ob es wirklich nur daran lag/liegt.

Wenn ja...super für die nv Besitzer, sonst schlecht für nv....

J.S.Shadow

Mancko
2003-08-05, 17:52:04
Original geschrieben von ShadowXX
das der Shadercode für nv schlecht ist, für Ati gut wissen wir ja...aber da ja jetzt das neue DX-SDK draussen ist (schon länger wenn ich mich richtig erinnere), welches auch optimierten Code für nv3x Shader ausspuckt, werden wir sehen ob es wirklich nur daran lag/liegt.

Wenn ja...super für die nv Besitzer, sonst schlecht für nv....

J.S.Shadow

Bist du dir da sicher?
Wieviele DX9 Kracher sollen denn zu Lebzeiten der NV3X Reihe erscheinen?

nagus
2003-08-05, 18:07:24
[18:16] <valve|gary> "What about FSAA?"
[18:16] <valve|gary> Anti-aliased has been fixed on all cards.


Quelle: http://www.hl2db.com/forums/viewtopic.php?t=35&start=0&postdays=0&postorder=asc&highlight=

Keel
2003-08-05, 18:18:11
Original geschrieben von Gast
Das ist nicht ganz richtig.
Die schlechte Performance ist in weiten Teilen für NV3x ungünstigem Shadercode seitens des MS Compilers zuzuschreiben.
Aber das kann man ja auch ändern.
Dann werden die verwendeten Shader einfach fest im Treiber hinterlegt und NV3x gerecht gemacht.
Ist ja nicht so, dass nun in den nächsten Monaten unmengen an Spielen mit Shadern erscheinen.
Es beläuft sich eher auf sehr wenige Titel: HL2, Stalker und Doom3.

Von denen scheint einzig HL2 eventuell risikobehaftet zu sein. Bei Doom3 weiss man, dass es auf NV Karten rockt. Bei Stalker kann man davon ausgehen, da dieses in aller erster Linie für NV3x lauffähig gemacht wird (CG).
Brauch man also nur HL2 untersuchen ob ein Problem sich ergeben könnte. Wenn ja, dann wird man das Problem im Treiber lösen.
Die Möglichkeiten dafür können sehr vielseitig sein.

Andere Anweisungsreihenfolge, generell für NV3x neu compiliert oder Eine Mischung aus FP16 und FP32.
Dort wo es nicht so auffällt FP16 und da wo die AUgen zu erst hinschauen FP32.

Da heisst es einfach abwarten. Alles andere ist zu diesem Zeitpunkt völlig unerheblich.

*hüstel* Auch Far Cry macht ja ganz 'geringfügen' Gebrauch von Shadern...

@ Aquaschaf

Wo hat NV dieses Shader-Problem denn gelöst?? Bisher habe ich noch von keinem Treiber gehört, der diesbezüglich nennenswerte Fortschritte gemacht hätte.

Aquaschaf
2003-08-05, 20:29:21
Was meinst du mit nennenswerten Fortschritten, entweder es gibt Fehler bei MSAA oder nicht ;)
Da dieses Problem scheinbar bei keinem anderen Spiel auftritt kann man ja auch nicht, außer irgendjemand würde ein Tool um dieses speziell zu testen, lässt sich ja nicht feststellen, ob die Lösung schon im aktuellen Treiber implementiert ist, und wenn nicht- was wohl der Fall sein wird- ists ja egal, da HL2 noch nicht draußen ist, können die Treiber-Ingenieure das Verfahren ja vielleicht noch optimieren.

Ich bin nicht in der Lage zu beschreiben wie es genau funktioniert, es wird davon geredet die Texturkoordinaten per Pixelshader zu clampen. Das kostet aber etwas PS Leistung.

Razor
2003-08-05, 21:16:20
Original geschrieben von betareverse
Aha. Und welches? :eyes:
64% des Marktes ins Gesicht treten ?
OK, nicht alle wissen, was AA ist...
(im GraKa-Feature-technischen Sinne ;-)

Razor

P.S.: Nach nagus Link hat sich das Ganze ja nun erledigt...
Und wer hat's gelöst (lösen müssen) ? Valve.

Razor
2003-08-05, 21:19:44
Original geschrieben von Keel
*hüstel* Auch Far Cry macht ja ganz 'geringfügen' Gebrauch von Shadern...

@ Aquaschaf

Wo hat NV dieses Shader-Problem denn gelöst?? Bisher habe ich noch von keinem Treiber gehört, der diesbezüglich nennenswerte Fortschritte gemacht hätte.
Hast Du Dir mal die Performance unter GunMetal2 oder unter dem Murks03 mit neueren Treibern angeschaut ? Offensichtlich können sie bei gleichem Output sehr viel schneller sein (gar schneller als alles, was ATI zu bieten hat). Und wenn sie es jetzt noch hinbekommen, gegebene Shader zu recompilieren, dann ist das Problem vom Tisch.

Razor

Keel
2003-08-05, 21:27:25
Original geschrieben von Razor
Hast Du Dir mal die Performance unter GunMetal2 oder unter dem Murks03 mit neueren Treibern angeschaut ? Offensichtlich können sie bei gleichem Output sehr viel schneller sein (gar schneller als alles, was ATI zu bieten hat). Und wenn sie es jetzt noch hinbekommen, gegebene Shader zu recompilieren, dann ist das Problem vom Tisch.

Razor

Najo, du wirst mir sicher zustimmen, wenn ich sage, dass mich 3dmurks-Werte bis auf 2-3 Ausnahmen nicht interessieren (außer high-polygon + 8 lights @ 2001 SE, nature und evtl. noch proxycon @ 2k3; aber auch nur aus Interesse).
GunMetal als Spiel hat da für mich nen anderen Stellenwert. Meines Wissens benutzt das Spiel aber nur VS2.0, bei den PS wird eine DX8-Version benutzt (bin aber nicht völlig sicher), insofern lässt sich hier nicht viel über die PS-Leistung aussagen. Dann kommt noch hinzu, dass GunMetal bisher das einzige Spiel ist, bei dem man überhaupt eine Aussage machen KÖNNTE. Bei Far Cry und HL2 (und viel später bei Stalker) wird man das dann wirklich sehen (auch wenn Stalker eher witzlos ist, da das eh in der TWIMTBP-Kampagne drin ist).

Ja, ich hoffe doch, dass NV das nun endlich mal in den Griff kriegt. Spätestens bis September müssen die das in den Griff bekommen haben (aus meiner Sicht), da dann bei mir ne neue GraKa fällig wird.

nggalai
2003-08-05, 21:50:25
Hola,Original geschrieben von BlueI
Seh' ich auch so: Wer weiß, wie sich HL2 mit heutiger Hardware UND AA performancemäßig verhält. Außerdem scheinen sich ja Valve und NVidia (und ATi) um das Problem zu kümmern.
=) Jooo. Gary / Valve meinte ja, dass die Demo-Filme auf einer 9800er ohne FSAA und ohne AF aufgenommen wurden und mit 60fps liefen. Und ich kenne genug FPS-Fanatiker, die schon bei 60fps rummaulen, dass es zu lahm sei. ;)

93,
-Sascha.rb

Razor
2003-08-06, 06:30:44
Original geschrieben von Keel
Najo, du wirst mir sicher zustimmen, wenn ich sage, dass mich 3dmurks-Werte bis auf 2-3 Ausnahmen nicht interessieren (außer high-polygon + 8 lights @ 2001 SE, nature und evtl. noch proxycon @ 2k3; aber auch nur aus Interesse).
Klar stimme ich Dir in dieser Hinsicht zu.
Ich selber nutze den Murks nur für Vergleiche im eigenen System... auch um Treiberveränderungen zu klassifizieren, oder zumindest um diese zu dokumentieren.

Wenn wir allerdings auch den Murks weg lassen, dann bleibt nicht mehr viel, was überhaupt zum Vergleich heran gezogen werden kann. Da Du ja auch den GM2-Test ablehnst (siehe unten), der Shader-Test von Tommti doch wohl eher ATI-lastig sein dürfte (allein aufgrund der Herkunft dieses Tests ;-), fehlt uns eine objektive Vergleichsmöglichkeit völlig...

Wie also willst Du noch behaupten, dass nVidia da was tun sollte, wenn man doch gar keine Aussage machen kann ?
Original geschrieben von Keel
GunMetal als Spiel hat da für mich nen anderen Stellenwert. Meines Wissens benutzt das Spiel aber nur VS2.0, bei den PS wird eine DX8-Version benutzt (bin aber nicht völlig sicher), insofern lässt sich hier nicht viel über die PS-Leistung aussagen. Dann kommt noch hinzu, dass GunMetal bisher das einzige Spiel ist, bei dem man überhaupt eine Aussage machen KÖNNTE. Bei Far Cry und HL2 (und viel später bei Stalker) wird man das dann wirklich sehen (auch wenn Stalker eher witzlos ist, da das eh in der TWIMTBP-Kampagne drin ist).
Und HL2 ist witzlos, weil Valve mit ATI zusammen arbeitet ?
Sorry, aber irgendwie...
Original geschrieben von Keel
Ja, ich hoffe doch, dass NV das nun endlich mal in den Griff kriegt. Spätestens bis September müssen die das in den Griff bekommen haben (aus meiner Sicht), da dann bei mir ne neue GraKa fällig wird.
Wie geasgt, noch sehe ich nicht, dass nVidia da irgendetwas in den Griff bekommen muss.
Schließlich laufen die paar Shader-Anwendungen bei 'vernünftiger' Optimierung gut und sind an einer Hand abzuzählen. Selbst wenn da jetzt noch ein paar kommen sollten, würden sich diese noch immer per Hand optimieren lassen. Wo ist also das Problem ?

Zuküftig werden alle mit dem M$-SDK optimierten Code für alle verfügbaren DX9-GraKa's erstellen können (wenn sie wollen) und nVidia wird auf jeden Fall den vom M$-Compiler erzeugten Assembler-Code für eigene Zwecke recompilieren können (da die Herkunft des Kompilates bekannt ist). Im Herbst werden wohl 'richtg' vernünftige Treiber für die FX-Serie kommen (wie immer ca. 6 Monate nach Verkaufsstart) und dann werden so einige Betrachtungen neu angestellt werden müssen...

Es bleibt auf jeden Fall spannend !
:D

Razor

DrFreaK666
2003-08-06, 08:06:51
Original geschrieben von Razor
...
Und HL2 ist witzlos, weil Valve mit ATI zusammen arbeitet ?
Sorry, aber irgendwie...

Razor

Du weisst ganz genau, dass Stalker auf NV3x-grakas OPTIMIERT wird. Aber Vlave sagte nicht, dass HL2 auf ATI-Grakas optimiert wird. Deswegen wird man HL2 mehr trauen können als Stalker...
Oder etwa nicht?

Gast
2003-08-06, 09:54:45
Original geschrieben von DrFreaK666
Du weisst ganz genau, dass Stalker auf NV3x-grakas OPTIMIERT wird. Aber Vlave sagte nicht, dass HL2 auf ATI-Grakas optimiert wird. Deswegen wird man HL2 mehr trauen können als Stalker...
Oder etwa nicht?

Nö kann ich das?
Wo steht das?

ShadowXX
2003-08-06, 10:16:34
@Mancko

das kommt nicht von mir, sondern von den Entwicklern.
Alle haben bisher gesagt das die schlechte PS-Performance am 'schlechten' MS-Compiler liegt...nun ist das neue SDK da, incl. den Compilerpfaden für die nv3x-Chips...sollte also jetzt 'besser' werden....

J.S.Shadow

LovesuckZ
2003-08-06, 13:53:31
Original geschrieben von ShadowXX
Alle haben bisher gesagt das die schlechte PS-Performance am 'schlechten' MS-Compiler liegt...nun ist das neue SDK da, incl. den Compilerpfaden für die nv3x-Chips...sollte also jetzt 'besser' werden....


Du kannst aber nicht davon ausgehen, dass die naechsten Spiele mit PS1.4/2.0 Unterstuetzung mit dem neuen SDK "gemacht" worden sind.

Winter[Raven]
2003-08-06, 14:09:25
Du weisst ganz genau, dass Stalker auf NV3x-grakas OPTIMIERT wird. Aber Vlave sagte nicht, dass HL2 auf ATI-Grakas optimiert wird. Deswegen wird man HL2 mehr trauen können als Stalker...

Also das Stalker auf Nvidia optimiert wird liegtt daran das Ati zufaul war ihren Arsch zuheben und sich mit den Entwicklern in verbindung zusetzen. Kein wunder das Ati so einen schlechten Ruff bei den hatt.

Als damals der Haupt Programmier von der stalker engine sich mit Ati und Nvidia in Kontakt setze antwortete Nvidia wenige Tage von Ati ist bis heute nix zuhören.

Und bitte ? HL2 und nicht Optimiert auf Ati ? die sollen mal HL2 auf einer FX Laufen lassen, da wird man gleich sehn ob es ist oder nicht. Schon aus dem Grund das Valve ständig HL2 auf einer Ati graka vorführt, schlisse ich auf Optimierung für ATI.

Gast
2003-08-06, 14:13:43
darauf würde ich nicht zwangsläufig wetten.
Dann stellt sich Valve gegen 60% des Marktes. Da würde ich dann Nvidia empfehlen ganz gewaltig Druck auf die Leute da auszuüben, damit sie gleich merken wer Chef im Ring ist.

BTW ist HL2 part of the TWIMTBP campaign.

ShadowXX
2003-08-06, 14:39:40
Original von Winter[Raven]:
Also das Stalker auf Nvidia optimiert wird liegtt daran das Ati zufaul war ihren Arsch zuheben und sich mit den Entwicklern in verbindung zusetzen. Kein wunder das Ati so einen schlechten Ruff bei den hatt.

Als damals der Haupt Programmier von der stalker engine sich mit Ati und Nvidia in Kontakt setze antwortete Nvidia wenige Tage von Ati ist bis heute nix zuhören.


Zumindest letzterer Teil stimmt so nicht...
Der Programmierer hat es tatsächlich im Interview so dargestellt, der PR-Manager hat es dann allerdings negiert.
Laut PR-Manager hat auch ATI sich um die Jungs gekümmert, allerdings später als nv.

Um aber ganz ehrlich zu sein:
Ich glaube beiden nicht.....wenn man genung Geld von Firma A bekommt, sagt man auch gerne das was Firma A hören möchte.
Das gilt für ATI und nVidia.

J.S.Shadow

P.S.
die Verspätung von Stalker spricht meiner Meinung nach sowieso Bände.....

Edit:
EndQuote vergessen

BlueI
2003-08-06, 15:36:28
Original geschrieben von Winter[Raven]
[...] Schon aus dem Grund das Valve ständig HL2 auf einer Ati graka vorführt, schlisse ich auf Optimierung für ATI.
Auf irgendwas müssen sie's ja vorführen! Oder sollen sie ne Kyro nehmen?
Dass die Wahl auf ATi-Hardware fiel, heißt noch lange nicht, dass die endgültige Fassung auch nur auf diese Hardware optimiert wird. Das kann ganz andere Gründe haben (1. DX9-Karte, bessere Kommunikation oder was auch immer).
=)

LovesuckZ
2003-08-06, 15:39:15
Original geschrieben von BlueI
Auf irgendwas müssen sie's ja vorführen! Oder sollen sie ne Kyro nehmen?


Wie waers mal mitner FX5900 Ultra?

Mr. Lolman
2003-08-06, 16:02:07
Die werden schon ihre Gruende gehabt haben...

BTW: Ist denn das Masaki Kawase (oder so :)) DX9 Demo auch ATi optimiert?

Black-Scorpion
2003-08-06, 16:06:35
Original geschrieben von Winter[Raven]
Und bitte ? HL2 und nicht Optimiert auf Ati ? die sollen mal HL2 auf einer FX Laufen lassen, da wird man gleich sehn ob es ist oder nicht. Schon aus dem Grund das Valve ständig HL2 auf einer Ati graka vorführt, schlisse ich auf Optimierung für ATI.

Das ist ein Game und es ist noch nicht mal klar ob es überhaupt für einen Hersteller optimiert ist.
Das z.B. die meisten EA Games für NV optimiert sind ist für dich aber in Ordnung und normal.
Sorry, aber solche Unterschiede zu machen ist Blödsinn.
Die Entwickler sollen ihre Hausaufgaben machen und dafür sorgen das die Games auf ATI und NV Karten laufen und nicht wie EA sich an einen Hersteller verkaufen.

ShadowXX
2003-08-06, 16:12:03
@LovesuckZ

ich würde gerne mal Tests mit HL2 auf einer 5900Ultra sehen...nur mal um zu wissen ob es sich fps-technisch stark unterschiedet oder eben auch nicht....

Dabei ist mir ziemlich egal wer der 'schnellere' ist.
Da HL2 aber bei TWIMTBP dabei ist, glaube ich nicht das es sich viel nehmen wird.

Kann auch sein dass Sie bis jetzt nur ATIs benutzt haben, weil Sie es darauf Entwickelt haben...und wenn ich etwas unter A Entwickle, zeige ich es nicht unter B...speziell nicht vor Publikum.(=Sie hatten Angst das es auf der nv nicht so läuft wie Sie wollten -> soll kein 'Vorwurf' gegen die HW von nv sein, sondern eher an Valve).

J.S.Shadow

P.S:
ja, ich weiss...Gramatik und RS waren grausam diesmal...

Keel
2003-08-06, 16:59:42
Original geschrieben von Razor
Und HL2 ist witzlos, weil Valve mit ATI zusammen arbeitet ?
Sorry, aber irgendwie...
Razor

ä-hem, ä-hem *mal ganz laut räusper*

Also NV-Karten in GunMetal jetzt irgendwas mit guter Shader-Performance unterstellen zu wollen, egal ob PS oder VS, ist nun wohl hinfällig. Mir ist nämlich gerade aufgefallen, dass auch GunMetal in der TWIMTBP-Kampagne drin ist. Also sind hier jegliche Aussagen über die Performance ebenfalls unbedeutend (wenn man mit AIT vergleichen möchte).

"Wie geasgt, noch sehe ich nicht, dass nVidia da irgendetwas in den Griff bekommen muss."

Also bist du der Meinung, dass der Shader-Speed der aktuellen FXen atm durchaus gut ist, ja?

PS: Ach, spar dir die Antwort, ich kann sie mir auch so denken...

LovesuckZ
2003-08-06, 17:51:10
Original geschrieben von Keel
Also NV-Karten in GunMetal jetzt irgendwas mit guter Shader-Performance unterstellen zu wollen, egal ob PS oder VS, ist nun wohl hinfällig. Mir ist nämlich gerade aufgefallen, dass auch GunMetal in der TWIMTBP-Kampagne drin ist. Also sind hier jegliche Aussagen über die Performance ebenfalls unbedeutend (wenn man mit AIT vergleichen möchte).


Wenn der Shadercode in der nvidiafreundlichen Version angeboten wird, dann ist die Shaderperformance wohl kaum schlecht.

Razor
2003-08-06, 21:42:26
Original geschrieben von Mr. Lolman
BTW: Ist denn das Masaki Kawase (oder so :)) DX9 Demo auch ATi optimiert?
Scheint so... schließlich wurde es mit dem alten DX9-SDK erstellt...
(meine ich mich noch von der ersten Version zu erinnern ;-)

Und das Demo heißt "rthdribl" oder zu deutsch:
"DX9 Real-Time High-Dynamic Range Image-Based Lighting"
und wurde von 'Masa' (Masaki Kawase) geschrieben...

Razor

Razor
2003-08-06, 21:48:03
Original geschrieben von Keel
Also NV-Karten in GunMetal jetzt irgendwas mit guter Shader-Performance unterstellen zu wollen, egal ob PS oder VS, ist nun wohl hinfällig. Mir ist nämlich gerade aufgefallen, dass auch GunMetal in der TWIMTBP-Kampagne drin ist. Also sind hier jegliche Aussagen über die Performance ebenfalls unbedeutend (wenn man mit AIT vergleichen möchte).
Ah ja... TWIMTBP=nVidia optimiert ?
Wo hast Du das denn her ?
???
Original geschrieben von Keel
"Wie geasgt, noch sehe ich nicht, dass nVidia da irgendetwas in den Griff bekommen muss."

Also bist du der Meinung, dass der Shader-Speed der aktuellen FXen atm durchaus gut ist, ja?
Jup.
Jetzt muss nVidia nur noch dafür sorgen, das die ATI-optimierten Apps auf nVidia-Karten reoptimiert werden...
(via Treiber-internen recompiler ;-)
Original geschrieben von Keel
PS: Ach, spar dir die Antwort, ich kann sie mir auch so denken...
Keinesfalls !
:D

Und, habe ich wie von Dir erwartet geantwortet ?

Razor

P.S.: Die Shader-Performance im Murks (ja ich weiß ;-) ist schelcht ?
Habe im PS2.0 Test gute 38fps bekommen... und das mit einer BQ, die näher am Refrast ist, als die von ATI.
Und büdde nicht aufregen... ;)

Keel
2003-08-06, 23:09:34
Original geschrieben von Razor
Ah ja... TWIMTBP=nVidia optimiert ?
Wo hast Du das denn her ?
???

Natürlich kann ich nicht den exakten Wortlaut deiner Posts vorhersagen, aber in welche Richtung das bei dir immer geht, ist klar. So gesehen sind deine Antworten für mich keinesfalls mehr überraschend.

"The Hottest Games Developed and Optimized on NVIDIA: The performance, compatibility, and reliability of NVIDIA GPUs make them the platform of choice for PC gamers worldwide. That's why today's hottest games are developed on NVIDIA, to be played on NVIDIA."

Tjoar, nun rate doch mal, woher ich dieses Zitat habe... Ich denke nicht, dass du erst nachschauen musst. Beanwortet das deine Frage, woher ich das habe?

LovesuckZ
2003-08-06, 23:27:09
Original geschrieben von Keel
"The Hottest Games Developed and Optimized on NVIDIA: The performance, compatibility, and reliability of NVIDIA GPUs make them the platform of choice for PC gamers worldwide. That's why today's hottest games are developed on NVIDIA, to be played on NVIDIA."


Seit dem "Valve und wir haben schwere AA Probleme" Debakel, sollte man nicht viel auf Marketing geben.

Ailuros
2003-08-07, 00:19:34
Also ich hab jetzt die Diskussion hier nicht im Detail verfolgt, aber ich finde die jeweiligen Konspirations-Theorien meistens Schwachsinn. Ich bezweifle ernsthaft dass ein Entwickler sich jetzt hinsetzen wird/wurde, um fuer Karte A oder B optimieren. Optimierungen sind eigentlich IHV Angelegenheit und deshalb schicken IHVs auch ihre Developer-Relations Kerle aus um mit Entwicklern zusammenzuarbeiten.

Natuerlich werden diverse Spiele auf der einen oder anderen Plattform entwickelt, aber ich finde trotzdem die Theorien dass jeglicher Entwickler sich hinsetzt und fuer den einen und anderen IHV spezifisch optimiert idiotisch. Und dass im Zusammenhang dass man mit Absicht die ein Karte sehr schnell und die andere sehr langsam dabei herauskommt.

Nochmal Optimierungen durch den Prozess mit der Hilfe des einen oder anderen IHVs und/oder Werbekampagnen sind ein ganz anderes Kapitel.

Demirug als Entwickler ist hier und ihr koennt ihn ja fragen ob sowas normale Taktik ist. Die Ausnahmen die ich sehe sind teure Technologie-Demonstrations Spiele die von einem IHV von Anfang an gesponsort werden koennen wie z.B. DroneZ. Dabei bekamen wir ein schoenes demo, aber ein doofes Spiel dass ich bezweifle dass es jemand je bis zu Ende gespielt hat. Bei dem Beispiel ist der Unterschied dass man shader Effekte ausser NV Karten nicht einschalten kann, wegen der proprietary Extensionen, aber viel verpasst man bei der vorerwaehnten Applikation nun auch wieder nicht.

Meine 2 cents

-AiL

Mancko
2003-08-07, 01:33:52
Original geschrieben von Keel
ä-hem, ä-hem *mal ganz laut räusper*

Also NV-Karten in GunMetal jetzt irgendwas mit guter Shader-Performance unterstellen zu wollen, egal ob PS oder VS, ist nun wohl hinfällig. Mir ist nämlich gerade aufgefallen, dass auch GunMetal in der TWIMTBP-Kampagne drin ist. Also sind hier jegliche Aussagen über die Performance ebenfalls unbedeutend (wenn man mit AIT vergleichen möchte).


Na dann bin ich ja beruhigt. Mir fällt nämlich gerade auf, dass HL2 ebenfalls zur TWIMTBP-Kampagne gehört. Also brauch ma ja HL2 als "aussagekräftigen" Benchmark bzw. Spiel auch nicht gelten lassen auch wenn ATI vorn liegt. Deine Worte!


Also bist du der Meinung, dass der Shader-Speed der aktuellen FXen atm durchaus gut ist, ja?

Warum sollte er nicht. Ich beispielsweise warte noch auf richtige Anwendungen, die ausgiebig davon Gebrauch machen und zwar nicht irgendwelche synthetischen. Desweiteren warte ich natürlich auch auf Shader, die dann eine NV günstige Anweisungsfolge besitzen.
Wenn die von Natur nicht gegeben ist, dann muss sie eben per Hand im Treiber implementiert werden.

Und dann gibts natürlich noch das leidige FP32 vs FP24 Problem, wenn FP16 nicht zur Anwendung kommen soll. Dann bietet Nvidia mehr Qualität und somit ist es dann auch nicht mehr vergleichbar.

Da drehen wir uns irgendwie eindeutig im Kreis.

Aquaschaf
2003-08-07, 02:23:48
Ich glaube nicht eine der Karten bietet genug Leistung um einen Effekt flüssig darzustellen, der einen irgendwie sichtbaren Unterschied zwischen fp24 und fp32 liefert.

Mancko
2003-08-07, 09:13:34
das könnte ich jetzt aber auch auf FP16 vs FP24 ausdehnen.
Da drehen wir uns echt im Kreis. Das bringt nix.

LovesuckZ
2003-08-07, 09:40:03
Original geschrieben von Aquaschaf
Ich glaube nicht eine der Karten bietet genug Leistung um einen Effekt flüssig darzustellen, der einen irgendwie sichtbaren Unterschied zwischen fp24 und fp32 liefert.

Wenn FP32 Minimum ist, dann würde man auch einen Unterschied sehen.

Razor@Work
2003-08-07, 10:24:24
Original geschrieben von Keel
"The Hottest Games Developed and Optimized on NVIDIA: The performance, compatibility, and reliability of NVIDIA GPUs make them the platform of choice for PC gamers worldwide. That's why today's hottest games are developed on NVIDIA, to be played on NVIDIA."

Tjoar, nun rate doch mal, woher ich dieses Zitat habe... Ich denke nicht, dass du erst nachschauen musst. Beanwortet das deine Frage, woher ich das habe?
Dann gilt dies also auch (und gerade ;-) für HL2 ?
:D

Razor

Razor@Work
2003-08-07, 10:46:01
Original geschrieben von Aquaschaf
Ich glaube nicht eine der Karten bietet genug Leistung um einen Effekt flüssig darzustellen, der einen irgendwie sichtbaren Unterschied zwischen fp24 und fp32 liefert.
Tja, der wunderbare Murks liefert da schon unterschiedliche Ergebnisse (nVidia muss hier größtenteils in 32Bit rechnen und liefert gerade in Quali-Einstellungen eine bessere Performance). Auch ist der RefRast vom DX9-SDK ausschließlich auf 32Bit ausgelegt, insofern derzeitig nur nVidia mit ihren Karten in der Lage ist, dieser Referenz nahe zu kommen.

Inwieweit die Murks-Ergebnisse repräsentativ sind, oder zukünftig die 32Bit relevant sind, vermag ich nicht zu sagen. Aber die Leistung ist zumindest bei diesen synthBenches da. So werden wir jetzt noch die ersten Games abwarten müssen, die von fp24/32 Gebrauch machen, um tatsächlich konkrete Aussagen treffen zu können...

Razor

Exxtreme
2003-08-07, 10:59:01
Original geschrieben von Razor@Work
Auch ist der RefRast vom DX9-SDK ausschließlich auf 32Bit ausgelegt, insofern derzeitig nur nVidia mit ihren Karten in der Lage ist, dieser Referenz nahe zu kommen.

Razor
Irrelevant.

Der RefRast ist eigentlich eher dazu da um Features zu testen, für die es noch keine HW gibt. Auch kann man damit schauen ob der eigene Code keine Renderingfehler verursacht.

Für Bildqualitätsvergleiche taugt das Teil nur bedingt.

Demirug
2003-08-07, 11:14:03
Original geschrieben von Exxtreme
Irrelevant.

Der RefRast ist eigentlich eher dazu da um Features zu testen, für die es noch keine HW gibt. Auch kann man damit schauen ob der eigene Code keine Renderingfehler verursacht.

Für Bildqualitätsvergleiche taugt das Teil nur bedingt.

Genau. Was vorallem sehr "gut" kommt ist den DX9 Refrast zum vergleichen von DX8 Pixelshader ergebnisse zu benutzen.

Im Rahmen der WHQL Zertifizierung führt zwar auch MS solche Vergleiche durch allerdings wird da mit einem relative komplizierten Verfahren auf die zulässige Toleranz geprüft. Letzen Endes geht es dabei aber nur darum grobe Treiber-Bugs (Texturen werden ignoriert, Ungewöhnliche DX7 Pipeline setting werden vom Treiber zwar angenommen aber trotzdem falsch gerendert.) zu erkennen.

micki
2003-08-07, 11:25:44
soweit ich gelesen habe wird auch die qualität geprüft z.B. ob das rendering waterproof ist und die polygone richtig dargestellt werden (dafür gibt es richtlinien wovon einige auch im DXSDK nachzulesen sind)
siehe: Triangle Rasterization Rules

das ist in sofern wichtig, weil D3D auch für 2D operationen nun genutzt wird und man sich sicher sein soll, dass jede Graka jeden Pixel an die selbe Position stellt.

MfG
micki

ShadowXX
2003-08-07, 13:11:42
Original von Razor@Work:
Dann gilt dies also auch (und gerade ;-) für HL2 ?


Auch wenn es dir nicht gefallen wird:

HL2 gehört zur TWIMTBP-Kampagne.
Wenn also bei einem Bench zwischen nV und ATI bei HL2 rauskommt das HL2 auf der ATI besser läuft....dann würde das gegen nv sprechen, egal wie du es drehst und wendest....
Denn TWIMTBP bedeutet laut nv eine Optimierung auf nv Karten....
(Bitte als reine wenn/falls Speku sehen.....)

Immerhin ist jetzt auf mysteriöse Weise das AA Problem weg.(Was mich in keinster Weise gewundert hat.....Valve weiss wie man Aufmerksamkeit erhascht....)

J.S.Shadow

ow
2003-08-07, 13:16:03
Original geschrieben von ShadowXX
Auch wenn es dir nicht gefallen wird:

HL2 gehört zur TWIMTBP-Kampagne.
Wenn also bei einem Bench zwischen nV und ATI bei HL2 rauskommt das HL2 auf der ATI besser läuft....dann würde das gegen nv sprechen, egal wie du es drehst und wendest....
Denn TWIMTBP bedeutet laut nv eine Optimierung auf nv Karten....
(Bitte als reine wenn/falls Speku sehen.....)




???

Seit wann ist denn eine Optimierung gleichzusetzen mit: "muss schneller laufen als die Konkurrenz" ?

HL2 wird fuer beide optimiert, ATi und NV.

ShadowXX
2003-08-07, 13:28:08
Ok...

ändert aber nichts an der Aussage....

Habe auch nur das PR von nv zu 100% zu Ende geführt...Bei nv ist die Optimierung auf nv durchaus gleichbedeutend wie: 'schneller als Konkurenz'.

Oder glaubst du die geben Geld dafür aus um dann zu sagen:
"klar ist es auf nv Optimiert, läuft aber trotzdem auf ATI schneller..."

(Dies hat wie schon mal erwähnt nichts mit realen Benches oder so zu tun)

J.S.Shadow

Ailuros
2003-08-07, 14:05:53
Bei nv ist die Optimierung auf nv durchaus gleichbedeutend wie: 'schneller als Konkurenz'.

Sieht aber bei anderen IHVs auch nicht anders aus. Wenn ein IHV fuer ein gewisses Spiel/Anwendung legitim optimiert, dann ist es nie irrelevant zur Leistung konkurrierender Karten.

Wenn es so irrelevant waere wuerden beide nicht konstant versuchen, selbst den letzten moeglichen fps in Leistung herauszuquetschen.

ShadowXX
2003-08-07, 14:34:39
@Ailuros

das stimmt...davon ist natürlich auch ATI 'betroffen'.


J.S.Shadow

ow
2003-08-07, 16:21:52
Also Optimierung bedeutet bei mir der Versuch, das bestmoegliche aus der HW rauszuholen. Wie das dann im Vergleich zur Konkurrenz aussieht spielt keine Rolle.

Ailuros
2003-08-07, 18:25:41
Original geschrieben von ow
Also Optimierung bedeutet bei mir der Versuch, das bestmoegliche aus der HW rauszuholen. Wie das dann im Vergleich zur Konkurrenz aussieht spielt keine Rolle.

Angenommen ein Spiel laeuft auf Karte A mit durchschnittlichen 60fps mit maximalen settings und es ist objektiv angesehen mehr als genug fuer das bestimmte Spiel, aber Karte B liefert 75fps weil der IHV dafuer leicht optimiert hat.

Wer sieht dann bei Reviews/Benchmarks etc schlechter aus? Ist es wirklich nur purer Zufall dass beide IHVs mehr Zeit verschwenden an Spielen/Applikationen die am meisten gespielt werden und auch gebencht werden?

Unter dem Satz das bestmoegliche aus der HW rauzuholen verstehe ich dass genauso viel Zeit fuer ALLE Spiele angelegt wird, was aber selten der Fall ist.

Eventuell werben auf IHVs dick mit den Leistungsunterschieden geworben, wo ich eigentlich nichts dagegen habe, aber es ist nicht unbedingt und immer das "beste". Beispiel:

Delivers an incredible 30% increase in performance over previous Detonator 40 drivers**
** Performance results based upon GeForce FX 5600 Ultra running UnrealTournament 2003 Antalus flyby.

http://www.nvidia.com/object/winxp-2k_44.03.html

Zugegeben ist Unreal2 eins der doofsten Spiele die ich in den letzten Jahren gesehen habe, aber ich sehe da sich keinen darueber zu kuemmern um das "beste aus der Hartware herauszuholen".