PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Call of Duty nvidia performance review


mapel110
2003-11-25, 01:23:09
http://firingsquad.com/hardware/call_of_duty_nvidia/default.asp
da.

sogar ne geforce2 ti haben die mitgebencht. not bad =)

mapel110
2003-11-25, 03:55:23
Infinity Ward adds a unique “NVIDIA Distance Fog” setting for GeForce owners only. As its name implies, when enabled this setting adds a layer of fog, obscuring objects in the distance (much like you’d see on a console game).

This reduces the rendering workload on the graphics processor and thus enhances performance; the exact boost can vary depending on the complexity of the scene as well as screen resolution. The default setting is “enabled” but we disabled this setting for our testing to ensure an apples-to-apples performance comparison with our ATI results. Also, to help speed things along we ran the GeForce3 and GeForce2 Ti with bilinear filtering rather than trilinear. Here’s the rest of the system setup:


sollte man beim lesen beachten. also sind geforce3 und geforce2ti recht stark bevorteilt im review.
btw weiss jemand, wieviel trilinear filtering an leistung frisst auf ner geforce3 oder 2?

Quasar
2003-11-27, 19:34:04
nV Distance Fog ist leider was ganz anderes. (http://oss.sgi.com/projects/ogl-sample/registry/NV/fog_distance.txt)

edit:
Und von Infinity Ward ist das bestimmt nicht hinzugefügt worden, da ich im seligen RtCW diese Option auch schon sehe. Sie steht geradezu jedem OpenGL-Programmierer frei. ;)

LovesuckZ
2003-11-27, 19:39:10
Interessant ist, dass die 5900U und 5950U beim Zuschalten von AF AA for Free bekommt und das die 5700U mit der 5900 bei 4AA + 8QAF mithalten (!) kann.
Entweder sind die Ergebnisse der 5700U gefaked oder die Werte der hoeheren Karten stimmen net...

Quasar
2003-11-27, 19:46:28
LS,
falls du 1600x1200 meinst, dort limitieren die 128MB auf den Karten. Ist bei ATi genauso :-)

LovesuckZ
2003-11-27, 19:49:27
Auch bei 2AA + 8QAF liegt die 5700U auf 5900 Niveau (okay, ein 2, 3 FPS niedriger).
Da stellt sich mir die Frage, wie das firingsquad zu stande brachte...

Mr. Lolman
2003-11-27, 21:40:20
Original geschrieben von Quasar
LS,
falls du 1600x1200 meinst, dort limitieren die 128MB auf den Karten. Ist bei ATi genauso :-)

Interessant find ich auch, dass bei den 256MB Versionen die schnellsten ATis in 1600x1200, 4xAA/8xAF fast 30% schneller sind, als die NVidia Pendants* - bei den 128MB Karten sinds immerhin noch 10 bzw. 20% (9800/pro).




* liegt womöglich an der speicherfressenden AA Technik seitens NV.

Gast
2003-11-27, 22:08:36
vielleicht ne blöde frage aber wieso soll nv's aa soviel speicher fressen, das aa von nv sieht doch dermassen schlecht aus *fg*
:kratz:

StefanV
2003-11-27, 22:09:14
Original geschrieben von Mr. Lolman
* liegt womöglich an der speicherfressenden AA Technik seitens NV.

Drehs um und setze 'Kompressions' ein, dann passts.
In etwa so:

Liegt womöglich an der besseren COlor Compression seitens ATI.

Mr. Lolman
2003-11-27, 22:24:30
AFAIK machen doch die 256MB NV Karten beim 4xAA ein Downfiltering im RAMDAC.

Bei Spielen mit sehr hohen Anforderungen an den GraKa Ram, sind deswegen womöglich auch schon die 256MB Karten mit 4xAA am Ende (bei 1600x1200).

Falls dies zutrifft, dann könnte m.E. ein Treiberupdate die 4xAA Leistung bei COD verbessern, in dem man bei diesem Spiel auf schnödes OGMSAA zurückgreift.... ;)

StefanV
2003-11-27, 22:39:16
Original geschrieben von Mr. Lolman
AFAIK machen doch die 256MB NV Karten beim 4xAA ein Downfiltering im RAMDAC.

Bei Spielen mit sehr hohen Anforderungen an den GraKa Ram, sind deswegen womöglich auch schon die 256MB Karten mit 4xAA am Ende (bei 1600x1200).

Falls dies zutrifft, dann könnte m.E. ein Treiberupdate die 4xAA Leistung bei COD verbessern, in dem man bei diesem Spiel auf schnödes OGMSAA zurückgreift.... ;)

Schon, nur soll die Color Compression bei den ATI Karten effizienter sein und stärker komprimieren als die NV Variante, was ATI beim FSAA einen Vorteil verschafft...

Den letzten Teil verstehe ich nicht so ganz, da mir nicht bekannt ist, wo nV 4x RGMSAA beherrscht...

Mr. Lolman
2003-11-27, 23:11:46
Original geschrieben von Stefan Payne
Den letzten Teil verstehe ich nicht so ganz, da mir nicht bekannt ist, wo nV 4x RGMSAA beherrscht...

Hm, ich hätte das OG weglassen sollen, Ich meinte die Standard 4xAA Veriante, mit der alle nicht 256MB Karten vorlieb nehmen müssen.

Quasar
2003-11-27, 23:25:47
Original geschrieben von Mr. Lolman
Interessant find ich auch, dass bei den 256MB Versionen die schnellsten ATis in 1600x1200, 4xAA/8xAF fast 30% schneller sind, als die NVidia Pendants* - bei den 128MB Karten sinds immerhin noch 10 bzw. 20% (9800/pro).




* liegt womöglich an der speicherfressenden AA Technik seitens NV.

Interessant? Oder nur ein Hebel, um wieder ATi vs. nV Diskussionen zu beginnen?

Mr. Lolman
2003-11-27, 23:37:50
Original geschrieben von Quasar
Interessant? Oder nur ein Hebel, um wieder ATi vs. nV Diskussionen zu beginnen?

Ich wollts nur mal angemerkt haben.


Vielleicht auch deswegen, damit das NVOGL > ATiOGL aufhört.

Akira20
2003-11-27, 23:52:56
Original geschrieben von Mr. Lolman
Ich wollts nur mal angemerkt haben.


Vielleicht auch deswegen, damit das NVOGL > ATiOGL aufhört.
Und trotzdem sind die NV-Karten bei OGL schneller :D !!!

Nein lassen wir das!

Lieber Mr. Lolman, wenn du wirklich das Bedürfnis hast die Welt zu verbessern, beginn damit bitte im Ati-Forum, da gibt’s bestimmt auch so nen Thread(oder ist das Ati-Forum so langweilig?!).
Ansonsten sieht das für mich wie ein billiger Flameversuch aus. Sorry, falls du es nicht mit bekommen hast, aber wir sprechen hier über die NV-Karten-Bench-Ergebnisse und nicht über Ati-Ergebnisse und die interessieren mich nicht die Bohne(falls sie mich interessieren würden, würde ich mich im Ati-Forum tummeln)

Edit:
Hab dir extra den Thread aus dem Ati-Forum gesucht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=107179

Aber kann es sein, dass du dort nichts "postest"?!.
Macht nichts NV ist eh interessanter ;)!


Mfg
Akira20

Gast
2003-11-28, 00:04:03
Original geschrieben von Akira20
Und trotzdem sind die NV-Karten bei OGL schneller :D !!!

Nein lassen wir das!

Lieber Mr. Lolman, wenn du wirklich das Bedürfnis hast die Welt zu verbessern, beginn damit bitte im Ati-Forum, da gibt’s bestimmt auch so nen Thread(oder ist das Ati-Forum so langweilig?!).
Ansonsten sieht das für mich wie ein billiger Flameversuch aus. Sorry, falls du es nicht mit bekommen hast, aber wir sprechen hier über die NV-Karten-Bench-Ergebnisse und nicht über Ati-Ergebnisse und die interessieren mich nicht die Bohne(falls sie mich interessieren würden, würde ich mich im Ati-Forum tummeln)

Mfg
Akira20


komisch nur, dass eine radeon bis zu 30% schneller ist bei COD, als eine fx mit 4xfsaa/8xaf :P

Mr. Lolman
2003-11-28, 00:08:38
Original geschrieben von Akira20
Lieber Mr. Lolman, wenn du wirklich das Bedürfnis hast die Welt zu verbessern, beginn damit bitte im Ati-Forum, da gibt’s bestimmt auch so nen Thread(oder ist das Ati-Forum so langweilig?!).
Ansonsten sieht das für mich wie ein billiger Flameversuch aus. Sorry, falls du es nicht mit bekommen hast, aber wir sprechen hier über die NV-Karten-Bench-Ergebnisse und nicht über Ati-Ergebnisse und die interessieren mich nicht die Bohne(falls sie mich interessieren würden, würde ich mich im Ati-Forum tummeln)


Jaja keinem User interessieren ATi Ergebnisse. Lustig, dass gerade der X2 Benchmarkthread so toll läuft, wo der doch ewig lang dauert und die ATis dort etwas schlechter sind...

Ansonsten finde ich, dass das falsche Forum für den Thread (genauso wie beim ATi Thread) gewählt wurde. Im GraKachipdiskussionsforum ist dieser Thread besser aufgehoben, da der Threadersteller sich keine Hilfestellung erwartete, und auch keiner eine postete.

Vielleicht hätt ich auch einen dritten Thread eröffnen sollen, in dem die beiden Reviews dann miteinander verglichen werden dürfen ?-)


Falls du wirklich der Meinung bist, dass man hier in diesem Forumj nicht ATi ins Spiel bringen darf, dann betrachte ich das als etwas engstirnig. Anscheinend ist dir auch nicht die Definition von "Flame" geläufig:

Flame:
http://www.net-lexikon.de/Flame.html
E-Mail oder Usenet- Artikel, worin jemand scharf kritisiert oder sogar beschimpft wird, weil er sich (tatsächlich oder vermeintlich) daneben benommen und gegen die Netiquette verstoßen hat


Demnach hast du gerade geflamed.


Original geschrieben von Akira20
Edit:
Hab dir extra den Thread aus dem Ati-Forum gesucht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=107179

Aber kann es sein, dass du dort nichts "postest"?!.
Macht nichts NV ist eh interessanter ;)!


Wieso sollt ich in diesem Thread was posten. Die ERgebnisse kannte ich schon, den Thread auch. Der NV Thread ist neu, genauso wie die Ergebnisse, und mir fiel halt anhand der NV Ergbnisse auf, wie deutlich die tw. von den ATis im Regen stehen gelassen werden, und deswegen postete ich das.

Seht es doch endlich ein. Mir ist das Sh1ce egal was auf meiner Karte steht. Wenn sich ATi demnächst durch immer wieder neue Cheats/Optimierungen zum Gespött macht dann stinkt mir das genauso wie es das tut, wenn NV am herumpfuschen ist.

Und stinken tut mir das Ganze deswegen weil einer den anderen animiert, und die Transparenz beim Benchmarken immer mehr verloren geht.

Akira20
2003-11-28, 00:09:58
Original geschrieben von Gast
komisch nur, dass eine radeon bis zu 30% schneller ist bei COD, als eine fx mit 4xfsaa/8xaf :P

Supi, aber meine GFX 5800 performt mit 4xfsaa/8xaf auch butterweich und ich zähle "leider" nicht die FPS...oder habt ihr so geschulte Augen???

Wie schon gesagt Ati-Forum, da diese Diskussion nichts mit dem eigentlichen Thread zu tun hat.

Mfg
Akira20

Winter[Raven]
2003-11-28, 00:13:26
Jaja keinem User interessieren ATi Ergebnisse. Lustig, dass gerade der X2 Benchmarkthread so toll läuft, wo der doch ewig lang dauert und die ATis dort etwas schlechter sind...


Warte erst die Finale Version ab, die kommt Zeitgleich mit der Vorstellung von dem NV40, und nachdem was mir ein Beta-tester gesagt erzählt hat, ist kein Zufall ... la la la la ...

Akira20
2003-11-28, 00:13:29
Original geschrieben von Mr. Lolman
Ansonsten finde ich, dass das falsche Forum für den Thread (genauso wie beim ATi Thread) gewählt wurde. Im GraKachipdiskussionsforum ist dieser Thread besser aufgehoben, da der Threadersteller sich keine Hilfestellung erwartete, und auch keiner eine postete.

*Zustimm* der Thread passt wirklich nicht in dieses Forum, besser ins Benchmark-Forum.

Hallo liebe MODS, bitte den Thread ins Bench-Forum.

Mfg
Akira20

Mr. Lolman
2003-11-28, 00:22:37
Original geschrieben von Akira20
Supi, aber meine GFX 5800 performt mit 4xfsaa/8xaf auch butterweich und ich zähle "leider" nicht die FPS...oder habt ihr so geschulte Augen???

Wie schon gesagt Ati-Forum, da diese Diskussion nichts mit dem eigentlichen Thread zu tun hat.

Mfg
Akira20

30% sind viel. HW Freaks rüsten wegen deutlich weniger schon auf. V.a. merkt man im Spiel garantiert ob die fps durchschnittlich bei 47 oder bei 61 sind.

Performer
2003-11-28, 03:02:48
Wirklich komisch, dass Ati so eine schlechte Rohleistung bietet,
also ohne AA/AF, aber dafür mit 4xAA/8xAF schneller ist. :klick:

The_Invisible
2003-11-28, 08:09:27
Original geschrieben von Mr. Lolman
30% sind viel. HW Freaks rüsten wegen deutlich weniger schon auf. V.a. merkt man im Spiel garantiert ob die fps durchschnittlich bei 47 oder bei 61 sind.

die geben sich aber auch nicht mit 61 zufrieden sondern schalten das ganze zeugs auch noch ab

aber min fps wären ja viel wichtiger oder ;)

mfg

Demirug
2003-11-28, 09:01:52
*verschoben*

Zum Thema Colorcompression und AA. Natürlich kann ATI einen stärker maximale Kompression angeben als nV. Bei 6 Subsamples ist ja auch mehr Volumen da als bei 4.

Was nun die Effizienz angeht so ist das schwer zu sagen wenn man die Verfahren nicht genau kennt. Ich habe hier zwar Unterlagen welche die Verfahren beschreiben aber ob das wirklich alles so stimmt wollte niemand bestätigten.

Sollte sie aber stimmen dann skalieren beide mit dem Kantenpixel:Flächenpixel Verhältniss.

nVidia soll nun mit einer Blockkompression arbeiten. Dabei wird ein Pixelblock am Stück komprimiert und dann in den Speicher geschrieben bzw gelesen. Die Kompresionrate hängt davon ab wie viele der Pixel auf einer Kante liegen.

ATIs Verfahren soll nun einen Überlaufbuffer benutzten. Dabei entspricht der Framebuffer primär dem Framebuffer ohne AA. Zusätzlich gibt es dann noch einen Speicherbereich welcher Kantenpixel aufnimmt. Ein Flächenpixel wird nun ganz normal in den Framebuffer geschrieben (natürlich Tileweise um den Burst zu nutzen). Bei Kantenpixel passiert aber nun etwas spezielles. Anstelle der Farbe wird im "normalen" Framebuffer ein Verweiss auf die Stelle im Überlaufbuffer (Kantenpixelbuffer) hinterlegt. Neben der Framebuffertile wird nun auch noch ein Eintrag in den Zusatzbuffer gespeichert. Wird die Tile wieder eingeladen erkennt der Chip das Verweise auf den Zusatzbuffer enthalten sind und lädt diese ebenfalls ein.

Beide Verfahren haben iherer Vor und Nachteile. nVidia skaliert relative gutmütig mit dem Kanten:Flächen Verhältniss. Mit steigender Anzahl von Kantenpixel sinkt die Komprimierbarkeit. Das Problem ist allerdings das man aufgrund dieses Konzepts immer eine Tile komplett einladen muss und bei schlechter Kompression dafür auch eine Menge Daten mit einlädt die man eigentlich gar nicht braucht. Bei ATI muss man zwar auch immer eine Tile komplett laden aber da diese genau dem datenvolumen einer Burstübertragrung entspricht kann man sowieso nichts mehr sparen. Sind allerdings Kantenpixel enthalten die man braucht muss man den Überlaufbuffer auslesen und das ist ineffektiver. Beim Downfilter hat ATI ebenfalls einen gewissen Vorteil. Tiles die keine Kantenpixel enthalten müssen nicht eingeladen werden da sie ja bereits in der richtigen Form für die Ausgabe vorliegen. So gesehen ist ATI also erst mal im Vorteil. Steigt allerdings die Anzahl der Kantenpixel an schlägt dieser Vorteil leicht in einen Nachteil um. Das Zusammensuchen der Kantenpixel im Überlaufspeicher erfordert dann viele Speicherzugriffe mit wechselnden Positionen und das ist Gift für DDR Speicher.

Erhöht man nun die Auflösung kommt es dazu das sich das Kanten:Flächen Verhältniss zu Gunsten der Flächenpixel verändert. Von dieser Veränderung profitiert ATI stärker als nVidia. Daher wird das AA von ATI tendenziel immer von höheren Auflösungen im Vergleich zu nVidia profitieren können. Viele Kanten wie sie zum Beispiel bei Point-Sprites (Partikel-Effekte) entstehen sind allerdings weniger gerne gesehen bei ATI.

LovesuckZ
2003-11-28, 13:38:07
Da wir gerade bei AA waren, habe ich'ne Frage:
Warum verliert Nvidia zu ATi beim Zuschalten von AF so deutlich an Leistung?
Es wurde meistens gesagt, dass eine 4x2 Architektur beim AF keine Nachteile zur 8x1 haben sollte, doch scheint es mir so, dass dies nicht so waere.
Dieser Leistungsverlust zieht sich durch sehr viele Spiele (F1 Challenge, Tron2.0, Halo, Max Payne 2, Call of Duty, RTCW etc.)

Ansonsten: Wer im Bezug auf Call of Duty sagt, dass Nvidia ein speicherfressendes AA habe, sollte sich den Test nochmal angucken. Denn erkennt man eventuell auch, dass AA beim AF fast For Free ist (soviel zur lesefaehigkeit einiger hier...).

Quasar
2003-11-28, 13:43:32
LS,

das 4xAA von nVidia frisst, wie gesagt, Speicher(menge), nicht, wie von dir wohl angenommen, Speicher(bandbreite), wegen des Downfilter@Scanout.

LovesuckZ
2003-11-28, 13:47:20
Original geschrieben von Quasar
LS,
das 4xAA von nVidia frisst, wie gesagt, Speicher(menge), nicht, wie von dir wohl angenommen, Speicher(bandbreite), wegen des Downfilter@Scanout.

Ich beziehe mich auf die Ergebnisse, die Firingsquad in CoD ermittelt haben.
Und dort ist eine 5900 mit 128MB (http://firingsquad.com/hardware/call_of_duty_nvidia/page5.asp) schneller als eine 9800pro mit 128MB (http://www.firingsquad.com/hardware/call_of_duty_ati/page7.asp)

Mr. Lolman
2003-11-28, 16:57:44
Nur bei 1600x1200... Vielleicht haben die 128MB gerade noch genügend Speicher für 4xAA zur Verfügung. Mit AA/AF wirds dann schon etwas eng...


M.E. würden 512MB Karten bei COD 1600x1200 4xAA/8xAF NV deutlich mehr fps bringen als ATi...

Mr. Lolman
2003-11-28, 16:58:48
Original geschrieben von Performer
Wirklich komisch, dass Ati so eine schlechte Rohleistung bietet,
also ohne AA/AF, aber dafür mit 4xAA/8xAF schneller ist. :klick:

Bei COD ist ATI bis in 800x600 (seltsames Ergebnis der FX5700 Ultra) auch schon ohne AA/AF schneller als NV.

Schrotti
2003-11-28, 20:30:19
Also ich hab keinerlei Probleme (maximale Details in 1280x1024).

Die Framerate sackt nie unter 100fps (ausser in der ersten und letzten Sowjetmission).

Mfg Schrotti

Quasar
2003-11-28, 21:04:31
Was sind denn bei dir maximale Details? Man hat da ja schon die seltsamsten Vorstellungen gehört...

ow
2003-11-28, 21:05:51
Original geschrieben von mapel110



sollte man beim lesen beachten. also sind geforce3 und geforce2ti recht stark bevorteilt im review.
btw weiss jemand, wieviel trilinear filtering an leistung frisst auf ner geforce3 oder 2?


Auf der GF2 frisst es praktisch gar keine Leistung weil die bandbreitenlimitiert ist.

AchtBit
2003-11-29, 13:59:34
Original geschrieben von LovesuckZ
Da wir gerade bei AA waren, habe ich'ne Frage:
Warum verliert Nvidia zu ATi beim Zuschalten von AF so deutlich an Leistung?


Der echte trilineare Filter war bei den aelteren nv Karten wahrscheinlich die massgebliche Performancebremse. Die aktuellen Karten haben dank Intellisample(schaetze irgend eine Art von Interpolation wird beim Filtern verwendet) keinen Perfvelust mehr zu beklagen. Ab dem NV35 ist ein Verlust(mit meiner 5900U < 0,01%), zw. 0xaf u. 8xaf, nur noch durch Nachmessen festzustellen.

reunion
2003-11-29, 14:11:29
Original geschrieben von AchtBit
Die aktuellen Karten haben dank Intellisample(schaetze irgend eine Art von Interpolation wird beim Filtern verwendet) keinen Perfvelust mehr zu beklagen. Ab dem NV35 ist ein Verlust(mit meiner 5900U < 0,01%), zw. 0xaf u. 8xaf, nur noch durch Nachmessen festzustellen.

:lol: So viel blödsinn hab ich schon lang nicht mehr gehört...

Sag mal wo lebst du denn???
Keinen Perfoemaceverlust zwischen 0xAF und 8xAF *gleichvomstuhlfall*
Also mache Leute sollten sich lieber vorher erkundigen bevor man hier sowas postet.

Ganz im Gegentei NV verliert sogar verhältnismäßig stark an AF...

AchtBit
2003-11-29, 14:20:28
Brauchst nur mal ins Spec. Forum gucken(nv/ati - Topic), da hab ich UT03 mit max AF und ohne gebenched. 1 Frame war glaub ich der Unterschied im Durchschnitt.

Zudem brauch ich mich nicht informieren, wenn ich doch direkt davor sitze.

StefanV
2003-11-29, 14:28:45
Och, mit entsprechender CPU Limitation, wie einem 1.4GHz Tualatin kann das schon mal sein :eyes:

Aktuelle Hardware ist 'etwas' schneller als ein Tualatin auf einem i815...

reunion
2003-11-29, 14:34:25
Original geschrieben von AchtBit
Brauchst nur mal ins Spec. Forum gucken(nv/ati - Topic), da hab ich UT03 mit max AF und ohne gebenched. 1 Frame war glaub ich der Unterschied im Durchschnitt.

Zudem brauch ich mich nicht informieren, wenn ich doch direkt davor sitze.

Was dann wohl mit 99%iger warscheindlichkeit an einer CPU oder Speicherlimitierung gelegen hat...

Denn AF frisst massiv Fillerate was bei den heutigen Grakas eigendlich der limitierende Faktor ist wodurch AF 4 free einfach nicht möglich ist, außer irgendein andere hardwarekomponente bremst...

AchtBit
2003-11-29, 14:35:30
Ach nur weil die CPU langsamer ist, ist das AF kaum wahrnehmbar. Das glaubst Du jetzt nicht wirklich, oder?

Bei der Ti waren mit dem Prozessor bis zu 50% Perf.-Unterschied zw. 8AF u. 0AF. Ist doch komisch.

Die CPU hat fuer mich mehr als genug Power. Bei Zocken zaehlt mehr u. mehr der Einsatz der Graka nicht der CPU.

StefanV
2003-11-29, 14:43:04
Original geschrieben von AchtBit
Ach nur weil die CPU langsamer ist, ist das AF kaum wahrnehmbar. Das glaubst Du jetzt nicht wirklich, oder?


Nein, aber dadurch wäre der geringe Performanceverlust erklärbar.

Wenn du 'ne Radeon 9800XT in einen P3/700 Rechner (mit i815 oder VIA 694 Chipsatz) steckst, dann ist auch nicht anzunehmen, daß man eienn wirklichen Unterschied zwischen 1xAA und 1°AF und 4xAA und 8°QAF wahrnehmen bzw messen kann, da in diesem Fall die CPU der limitierende Faktor ist.

AchtBit
2003-11-29, 15:28:15
Original geschrieben von Stefan Payne
Nein, aber dadurch wäre der geringe Performanceverlust erklärbar.

Wenn du 'ne Radeon 9800XT in einen P3/700 Rechner (mit i815 oder VIA 694 Chipsatz) steckst, dann ist auch nicht anzunehmen, daß man eienn wirklichen Unterschied zwischen 1xAA und 1°AF und 4xAA und 8°QAF wahrnehmen bzw messen kann, da in diesem Fall die CPU der limitierende Faktor ist.

Kannst Du mir verraten was AA oder AF mit der CPU zu tun haben soll?

Sicher wird der Unterschied etwas zunehmen je schneller die CPU ist. Genau so sicher werden aus weniger als 1% Unterschied, 50% Unterschied, wenn die CPU 3ghz schneller ist.

Fakt ist, das AF der 5900 frisst kaum performance. Da nimmt der Sprung von 2xaa auf 4xaa deutlich mehr.

aths
2003-11-29, 16:05:13
Original geschrieben von AchtBit
Fakt ist, das AF der 5900 frisst kaum performance. Da nimmt der Sprung von 2xaa auf 4xaa deutlich mehr. Fakt ist, dass 2x AF ca. 50% Füllrate frisst (zumindest dann, wenn es nicht unnötig "optimiert" ist*) Wenn das kaum auf die Performance geht, liegt ziemliche CPU-Limitierung vor :)

* Fast keine Textur wird im u:v-Ratio von 1:1 resampelt, so dass AF Sinn macht. 4x AF frisst natürlich nicht 75% Füllrate, da einige Bereiche nur 2x bekommen.

reunion
2003-11-29, 16:07:29
Original geschrieben von AchtBit
Kannst Du mir verraten was AA oder AF mit der CPU zu tun haben soll?


Wenn die CPU zu langsam ist hat die Graka einige Zeit (während sie auf die Daten der CPU wartet) nichts zu tun, und kann so nebenbei noch AF berechnen anstatt auf die daten zu warten, was dann praktisch keine Performace kostet --> AF 4 free...

reunion
2003-11-29, 16:11:30
Original geschrieben von aths
Fakt ist, dass 2x AF ca. 50% Füllrate frisst (zumindest dann, wenn es nicht unnötig "optimiert" ist*) Wenn das kaum auf die Performance geht, liegt ziemliche CPU-Limitierung vor :)

* Fast keine Textur wird im u:v-Ratio von 1:1 resampelt, so dass AF Sinn macht. 4x AF frisst natürlich nicht 75% Füllrate, da einige Bereiche nur 2x bekommen.

Gaynau so siehts aus, und da es wohl kaum ein Spiel gibt wo man auf 50% Füllrate(+) verzichten kann (schon gar nicht UT2K3) kann da nur eine CPU limitierung vorliegen...

aths
2003-11-29, 16:15:04
Original geschrieben von mapel110
btw weiss jemand, wieviel trilinear filtering an leistung frisst auf ner geforce3 oder 2? Theoretisch 50%.

Original geschrieben von Gast
vielleicht ne blöde frage aber wieso soll nv's aa soviel speicher fressen, das aa von nv sieht doch dermassen schlecht aus *fg*
:kratz: Liegt am Downsampling-Verfahren. Nvidia downsampelt erst, wenn der RAMDAC ausliest. Das heißt aber, dass alle Multisampling-Buffer (und nicht nur der downgesampelte Framebuffer) als Backbuffer vorgehalten werden müssen.

aths
2003-11-29, 16:18:07
Original geschrieben von reunion
Gaynau so siehts aus, und da es wohl kaum ein Spiel gibt wo man auf 50% Füllrate(+) verzichten kann (schon gar nicht UT2K3) kann da nur eine CPU limitierung vorliegen... Naja. Trilineare Filterung kann auch bis zu 50% der Füllrate fressen. Den Nachweis bekommt man aber nur mit sehr synthetischen Benches hin.

Bei AchtBit scheint mir eine heftige CPU-Limitierung vorzuliegen. Intellisample hin oder her :) mehr Qualität gibt's nur durch zusätzliche Samples, die auch berechnet werden müssen. 8x AF kostet kräftig Füllrate, aber sieht dann ja auch ziemlich gut aus. Wenn die Leistung bei 8x AF kaum einbricht, ist die Graka im Rohmodus zu schnell für die CPU, das ist ja offensichtlich.

AchtBit
2003-11-29, 16:35:47
Original geschrieben von aths
Naja. Trilineare Filterung kann auch bis zu 50% der Füllrate fressen. Den Nachweis bekommt man aber nur mit sehr synthetischen Benches hin.

Bei AchtBit scheint mir eine heftige CPU-Limitierung vorzuliegen. Intellisample hin oder her :) mehr Qualität gibt's nur durch zusätzliche Samples, die auch berechnet werden müssen. 8x AF kostet kräftig Füllrate, aber sieht dann ja auch ziemlich gut aus. Wenn die Leistung bei 8x AF kaum einbricht, ist die Graka im Rohmodus zu schnell für die CPU, das ist ja offensichtlich.


Dann erklaer mir doch bitte weshalb der Unterschied mit einer ti4600 deutlich spuerbar(naemlich unspielbar) war aber bei der fx5900u nicht mal einen Frame betraegt.

Das mit der Fuellrate mag vielleicht stimmen aber die Fuellrate der Fx ist jenseits von gut und boese ums mal gelinde auszudruecken. Sprich, da sind genug Reserven fuer Games in 1600x1200x32 vorhanden.

Das mit den theoretischen 50% Leistungsverbrauch unter trilinearem Filter ist mir auch nicht ganz klar. Haengt hier die Performance nicht mit der Architektur zusammen?

Unter bestimmten Vorraussetzungen ist die CPU-Limitierung kaum wahrzunehmen. Wie z. B. hier ---->

http://arc.aquamark3.com/arc/arc_view.php?run=1413458212

Ums noch genauer zu sagen, die FX bremst die CPU weniger als meine Ti es getan hat. Kannst hier sehen. ---->

http://arc.aquamark3.com/arc/arc_view.php?run=1010648387

Ich meine da liegen Welten dazwischen. Das ist nicht nur bei den Benches so, sondern klar in jedem Game spuerbar.

reunion
2003-11-29, 16:50:29
Original geschrieben von AchtBit
Dann erklaer mir doch bitte weshalb der Unterschied mit einer ti4600 deutlich spuerbar(naemlich unspielbar) war aber bei der fx5900u nicht mal einen Frame betraegt.


Vielleicht weil eine TI4600 nicht so schnell ist wie eine FX5900U ???

Das mit der Fuellrate mag vielleicht stimmen aber die Fuellrate der Fx ist jenseits von gut und boese ums mal gelinde auszudruecken. Sprich, da sind genug Reserven fuer Games in 1600x1200x32 vorhanden.


Wenn du meinst :D

Das mit den theoretischen 50% Leistungsverbrauch unter trilinearem Filter ist mir auch nicht ganz klar. Haengt hier die Performance nicht mit der Architektur zusammen?


Naja, wenn man mal davon ausgeht das die Graka bi-Textureinheiten hat(was bis jetzt bei allen erhältlichen Karten der Fall ist) so braucht man für tri Texturfilterung zwei "Pipe-Durchläufe"(oder wie bei NV zwei Textureinheiten pro Pipeline) während man für bi Texturfilterung nur einen bräuchte --> 50% Leistungsverlust.

[bla...bla...bla]

Nagut :D

AchtBit
2003-11-29, 16:52:09
Wenn die CPU zu langsam ist hat die Graka einige Zeit (während sie auf die Daten der CPU wartet) nichts zu tun, und kann so nebenbei noch AF berechnen anstatt auf die daten zu warten, was dann praktisch keine Performace kostet --> AF 4 free...

Was glaubst Du wie hoch der Rechenaufwand ist bei modernen Games die Primatives zu berechnen?
Jetzt mal ohne etwaige AI-Berechnungen.

Wenn Du die Aquamark Ergebnisse(RT-SOF) betrachtest, siehst Du, dass selbst mit der FX, die Rechenleistung der CPU ueber dem Optimum liegt.

aths
2003-11-29, 16:52:48
Original geschrieben von AchtBit
Dann erklaer mir doch bitte weshalb der Unterschied mit einer ti4600 deutlich spuerbar(naemlich unspielbar) war aber bei der fx5900u nicht mal einen Frame betraegt.Die 5900U ist (bei vergleichbarer Multitexturing-Architektur wie die 4600) schneller getaktet, hat also mehr Füllrate. Die Ti 4600 leidet zudem leistungsmäßig unter einer hässlichen Eigenart, wenn AF mit BF kombiniert wird: http://www.3dcenter.org/artikel/2002/10-01_a.php (Mit dem aTuner hättest du das AF der Ti 4600 stageweise "optimieren" können, was teilweise bei wenig BQ-Verlust eine ordentlichen Performance-Schub bringt.)

Original geschrieben von AchtBit
Das mit der Fuellrate mag vielleicht stimmen aber die Fuellrate der Fx ist jenseits von gut und boese ums mal gelinde auszudruecken. Sprich, da sind genug Reserven fuer Games in 1600x1200x32 vorhanden.Für "normale" Games sicher, ja. Die Rohleistung ist gegenüber der Ti 4600 deutlich höher, und deine CPU ist nicht schnell genug, um die neue Karte auszulasten wenn sie ohne AA/AF gefahren wird. Deshalb kriegst du "AF for free".

Original geschrieben von AchtBit
Das mit den theoretischen 50% Leistungsverbrauch unter trilinearem Filter ist mir auch nicht ganz klar. Haengt hier die Performance nicht mit der Architektur zusammen?Ja, natürlich. Praktisch alle heutigen Karten haben TMUs, die pro Takt ein bilineares Sample erzeugen. Für trilineare Filterung braucht man je nach Architektur 2 Takte (R300-Serie) oder 2 TMUs (GeForce ab NV15.) Sofern Texturen vergrößert werden, findet aber kein TF mehr statt, sofern in der Szene vergrößerte Texturen sind, frisst TF entsprechend weniger.

Original geschrieben von AchtBit
Ums noch genauer zu sagen, die FX bremst die CPU weniger als meine Ti es getan hat. Kannst hier sehen. ---->Dass die 5900 U schneller ist als eine 4600, glaube ich dir auch so.

Original geschrieben von AchtBit
Ich meine da liegen Welten dazwischen. Das ist nicht nur bei den Benches so, sondern klar in jedem Game spuerbar. :eyes: Wäre ja auch peinlich, wenn seit NV25 die Leistung in der HighEnd-Reihe nicht spürbar gestiegen wäre.

StefanV
2003-11-29, 16:53:29
Original geschrieben von AchtBit
Dann erklaer mir doch bitte weshalb der Unterschied mit einer ti4600 deutlich spuerbar(naemlich unspielbar) war aber bei der fx5900u nicht mal einen Frame betraegt.


gaanz einfach:

Die FX5900U hat 'etwas' mehr Rohleistung und auch die 'Bandbreitenschonenden Maßnahmen' sind etwas weiter fortgeschritten.

Mit anderen Worten:

DIe FX5900U ist deutlich schneller als die TI4600.

AchtBit
2003-11-29, 17:03:34
Dass die 5900 U schneller ist als eine 4600, glaube ich dir auch so.


Es ist ja nicht nur die Karte schneller sondern die ist zudem nicht so CPU-lastig als meine Ti es war.

Die 5900U ist (bei vergleichbarer Multitexturing-Architektur wie die 4600) schneller getaktet, hat also mehr Füllrate. Die Ti 4600 leidet zudem leistungsmäßig unter einer hässlichen Eigenart, wenn AF mit BF kombiniert wird: http://www.3dcenter.org/artikel/2002/10-01_a.php

Das mag schon stimmen, erklaert aber nicht warum der Unterschied bei aktivem AF mit der Ti bis zu 50% betrug und bei der fx nichtmal 1%. Also da musst Du schon mit einer besseren Erklaerung aufwarten. So schlecht war die Fuellrate der 4600er auch wieder nicht. ;)

Eine Erklarung ist sicher der echte trilineare Filter, der bei der Ti zum Einsatz kam. Dennoch kann ich mir das nicht als alleinverantwortlich erklaeren. CPU-Limit spielt da jedenfalls die geringste Rolle.

Um da klarzustellen braechten wir ein Opfer, dass mitm 3ghz Professor und ner 5900er, nen ut03 bench macht.

(Mit dem aTuner hättest du das AF der Ti 4600 stageweise "optimieren" können, was teilweise bei wenig BQ-Verlust eine ordentlichen Performance-Schub bringt.)

3100 AF komplett via RT deaktiviert. hmmm...und damit etwas mehr als halb so schnell wie die FX. Selbst ein 4ghz Prof konnte aus der Ti nicht viel mehr als 3100 Points rauspruegeln. Heisser ist sie aber bestimmt geworden. :D

aths
2003-11-29, 17:09:21
Original geschrieben von AchtBit
Es ist ja nicht nur die Karte schneller sondern die ist zudem nicht so CPU-lastig als meine Ti es war. Wie misst du die CPU-Last? Jedenfalls hat die 5900 U auch einen schnelleren Vertex Shader, der die CPU dann auch etwas mehr entlasten kann, als die Ti 4600.

Original geschrieben von AchtBit
Das mag schon stimmen, erklaert aber nicht warum der Unterschied bei aktivem AF mit der Ti bis zu 50% betrug und bei der fx nichtmal 1%. Also da musst Du schon mit einer besseren Erklaerung aufwarten. So schlecht war die Fuellrate der 4600er auch wieder nicht. ;)Die 4600 hat auf dem Papier nicht _so_ viel weniger Füllrate, ja. Aber sie hat auch nur ein 128-Bit-DDR-Interface. Die 5900 hat ein 256-Bit-DDR-Interface. Die Wahrscheinlichkeit, dass es zu einem Bandbreiten-Engpass kommt, der die GPU zu Wartezyklen zwingt, ist demzufolge geringer. An "echter" Füllrate gibt es damit schon spürbar mehr. Zudem funktioniert Early-Z-Occlusion mit der Ti 4600 nur bedingt. (aTuner kann das je nach Treiber aktivieren.) Das kann in der Spiele-Praxis durchaus 10% Geschwindigkeit ausmachen. (Da das mit den neusten Treibern nicht mehr geht, nutze ich 44.03, um die Ti 4600-Leistung maximal ausschöpfen zu können.)

Original geschrieben von AchtBit
Eine Erklarung ist sicher der echte trilineare Filter, der bei der Ti zum Einsatz kam. Dennoch kann ich mir das nicht als alleinverantwortlich erklaeren. CPU-Limit spielt da jedenfalls die geringste Rolle. Was für eine CPU hast du denn?

AchtBit
2003-11-29, 17:20:38
Original geschrieben von aths
Wie misst du die CPU-Last? Jedenfalls hat die 5900 U auch einen schnelleren Vertex Shader, der die CPU dann auch etwas mehr entlasten kann, als die Ti 4600.

Die 4600 hat auf dem Papier nicht _so_ viel weniger Füllrate, ja. Aber sie hat auch nur ein 128-Bit-DDR-Interface. Die 5900 hat ein 256-Bit-DDR-Interface. Die Wahrscheinlichkeit, dass es zu einem Bandbreiten-Engpass kommt, der die GPU zu Wartezyklen zwingt, ist demzufolge geringer. An "echter" Füllrate gibt es damit schon spürbar mehr. Zudem funktioniert Early-Z-Occlusion mit der Ti 4600 nur bedingt. (aTuner kann das je nach Treiber aktivieren.) Das kann in der Spiele-Praxis durchaus 10% Geschwindigkeit ausmachen.

Was für eine CPU hast du denn?

CPU Last seh ich in diversen Benches. Das Ergebnis ist bei allen Grafikbenches in denen CPU-Messungen enthalten sind, etwas besser. GL-Excess, 3dmurks und Aquamark z.B.

Das mit dem Speicherinterface koennte was aussmachen. Das hatte ich ganz vergessen.

Das Ding mit dem aT hab ich oben im prev Post noch editert.

CPU ist n P3S 1,4@1,6

Für "normale" Games sicher, ja. Die Rohleistung ist gegenüber der Ti 4600 deutlich höher, und deine CPU ist nicht schnell genug, um die neue Karte auszulasten wenn sie ohne AA/AF gefahren wird. Deshalb kriegst du "AF for free".

Das ist klar. Auf grund der CPU-Limitierung hatten beide Karten etwa die gleiche Renderleistung o. Alles. Nur das die Ti mit AF gnadenlos in die Knie gegangen ist waehrend die FX kaum zuckt. Fuer mich ein klarer Beweis, dass die AF-Leistung mehr als deutlich gestiegen ist.

aths
2003-11-29, 17:27:34
Original geschrieben von AchtBit
CPU Last seh ich in diversen Benches. Das Ergebnis ist bei allen Grafikbenches in denen CPU-Messungen enthalten sind, etwas besser. GL-Excess, 3dmurks und Aquamark z.B.Vermutung: Vertex Shader. Die Ti braucht 2,2 Takte für eine Transformation. Die 5900 braucht nur 1,33 Takte (und ist zudem höher getaktet.)


Original geschrieben von AchtBit
CPU ist n P3S 1,4@1,6 :lol: Superheftige CPU-Limitierung also. Der Beweis ist einfach zu führen: Benche ein Spiel in 1024x768. Schalte danach (via aTuner z. B.) 4x Supersampling zu. Ohne CPU-Limitierung müsste die Leistung auf 25% sinken.

edit: Ich sehe gerade, mit Deto50 bietet aTuner kein 4x Supersampling mehr an. Dann anders: Benche in 1024x768 und in 1600x1200. Ohne CPU-Limitierung (= volle Graka-Limitierung) müsste die Leistung auf 40% sinken.

AchtBit
2003-11-29, 17:36:28
Original geschrieben von aths
:lol: Superheftige CPU-Limitierung also. Der Beweis ist einfach zu führen: Benche ein Spiel in 1024x768. Schalte danach (via aTuner z. B.) 4x Supersampling zu. Ohne CPU-Limitierung müsste die Leistung auf 25% sinken.

edit: Ich sehe gerade, mit Deto50 bietet aTuner kein 4x Supersampling mehr an. Dann anders: Benche in 1024x768 und in 1600x1200. Ohne CPU-Limitierung müsste die Leistung auf 40% sinken.

Naja, von AA war jetzt eigentlich nicht die Rede sondern von reinem AF.

Kann ich Dir gerne auch mit 640x480 Benchen ohne dass Du nen Unterschied siehst. ;)

edit:

hab hier noch die Ergebnisse vom yuma Bench.

yuma bench

10x7
14933 ohne
12508 AF
7067 AF+AA

16x12
8567 ohne
6444 AF
3404 AF+AA

Ich hoff ich hab das japanesisch richtig interpretiert. :D

Jedenfalls ist das Verhaeltnis identisch.

aths
2003-11-29, 17:40:16
Original geschrieben von AchtBit
Naja, von AA war jetzt eigentlich nicht die Rede sondern von reinem AF. Sowohl 4x Supersamping AA als auch 8x AF verballern kräftig Füllrate. Ebenso steigen die Füllraten-Anforderungen, wenn die Auflösung erhöht wird.
Original geschrieben von AchtBit
Kann ich Dir gerne auch mit 640x480 Benchen ohne dass Du nen Unterschied siehst. ;) Wenn die Leistung nicht mit der Auflösung (also der Füllraten-Forderung) skaliert, liegt CPU-Limitierung vor, wie oft denn noch? 640x480 ist ohnehin keine relevante Auflösung mehr. Du solltest dich trotzdem nach einer schnelleren CPU umsehen, wenn du die Graka ausfahren möchtest.

(Ich habe 'nen P4 NW 1.8@1.9, und würde eher die CPU upgraden als die Graka.)

AchtBit
2003-11-29, 17:49:47
Du solltest dich trotzdem nach einer schnelleren CPU umsehen, wenn du die Graka ausfahren möchtest.

Warum?
Ich hab mit 40-50 Frames bei Aufloesungen 16x12x32 AFx8 AAx2 und max Details keinerlei Spieleprobleme. Rechenintensive Apps sind nicht mein Ding. Ich guck mir erst mal ganz gemuetlich die naechste CPU-Generation an und dann werd ich mir vielleicht Gedanken ueber nen Nachfolger fuer meinen Professor machen.

Wenn die Leistung nicht mit der Auflösung skaliert, liegt CPU-Limitierung vor, wie oft denn noch?

Hier gehts nicht um Scalierung sondern um das Verhaeltnis AF vs. kein AF unter hohen Aufloesungen sowie unter niedrigen Aufloesungen. Das ist wie der yuma bench zeigt relativ identisch.

AchtBit
2003-11-29, 17:51:18
Ich habe 'nen P4 NW 1.8@1.9, und würde eher die CPU upgraden

lol...In dem Fall kann ich Dir keinesfalls widersprechen. :D

aths
2003-11-29, 17:55:07
Original geschrieben von AchtBit
Warum?
Ich hab mit 40-50 Frames bei Aufloesungen 16x12x32 AFx8 AAx2 und max Details keinerlei Spieleprobleme. Bei Shootern akzeptiere ich seit, ja, seit Banshee-Zeiten, nix unter 60 fps (besser 75.)

Original geschrieben von AchtBit
Hier gehts nicht um Scalierung sondern um das Verhaeltnis AF vs. kein AF unter hohen Aufloesungen sowie unter niedriegen Aufloesungen. Das ist wie der yuma bench zeigt relativ identisch. Ich sage es gerne noch mal:

Deine CPU ist zu langsam, um die volle Graka-Leistung bei 1600x1200 zu schaffen. Wegen heftiger CPU-Limitierung steckt die Graka auch dort noch 8x AF problemlos weg. Wenn du niedrigere Auflösungen nimmst, ist der "Einbruch" mit AF genauso gering: Praktisch nicht vorhanden.

AchtBit
2003-11-29, 18:03:30
Deine CPU ist zu langsam, um die volle Graka-Leistung bei 1600x1200 zu schaffen

Sag ich auch nicht. 10x7 schafft sie aber problemlos und auch da bremst AF kaum. Irgendwie weis ich nicht auf was Du hinaus willst. Egal krieg grad besuch. Bis spaeter!

P.S. 60FPS avg in UT03 unter 16x12. Ich wuerd sagen mit 3ghz koenntest das schaffen. Natuerlich nur wenns Dir das Wert ist. Ich hab mit 50FPS avg keine Probleme. ;)

aths
2003-11-29, 18:12:21
Original geschrieben von AchtBit
Sag ich auch nicht. 10x7 schafft sie aber problemlos und auch da bremst AF kaum. Irgendwie weis ich nicht auf was Du hinaus willst.Wenn bei 1600x1200 AF kaum Auswirkungen hat, dann sollte man erst recht bei 1024x768 nichts merken.
Original geschrieben von AchtBit
P.S. 60FPS avg in UT03 unter 16x12. Ich wuerd sagen mit 3ghz koenntest das schaffen. Natuerlich nur wenns Dir das Wert ist. Ich hab mit 50FPS avg keine Probleme. ;) Ich brauch kein 1600x1200, aber AA/AF. Mit 50 FPS habe ich in Shootern durchaus Probleme, 75 fps Mittel ist ok. In Splatter-Szenen sollte es bitte nicht unter 40 fps gehen, ansonsten mindestens 60 fps.

Demirug
2003-11-29, 18:22:42
Manchmal wünsche ich mir das 800 Seiten Buch "3D Grafikkarten in Theorie und Praxis". Dann müsste ich jetzt nur auf das Kapitel "Flaschenhälse: Wie man sie erkennt" und "Die Auswirkungen von Flaschenhälse" verweisen. Da sich bei der zu erwartenden Verkaufszahl aber wohl kein Verlag und auch kein Autor finden wird reicht ein Verweiss leider nicht aus.

Also in Kurzform: Führt das verändern einer Variable des Systems (Auflösung, Filter, AA usw.) nicht zu einer Änderung der Bildwiederholrate dann kann das nur zwei Ursachen haben:

1. Die Hardware erledigt die maximale Arbeit in jedem Fall.

2. Die entsprechenden Stelle ist nicht der Flaschenhals.

Da bisher kein Chip in einem Takt voll AF Filtern kann muss ja wohl zwangsläufig der Flaschenhals an einer anderen Stelle sein. In diesem Fall ist die CPU der erste Verdächtige. Zum Nachprüfen reduziert man normalerweise den Takt der CPU.

Black-Scorpion
2003-11-29, 21:36:17
Original geschrieben von Demirug
Manchmal wünsche ich mir das 800 Seiten Buch "3D Grafikkarten in Theorie und Praxis". Dann müsste ich jetzt nur auf das Kapitel "Flaschenhälse: Wie man sie erkennt" und "Die Auswirkungen von Flaschenhälse" verweisen. Da sich bei der zu erwartenden Verkaufszahl aber wohl kein Verlag und auch kein Autor finden wird reicht ein Verweiss leider nicht aus.

So lange es Verlage gibt die die "Biographie" von einem 17-jährigen auf den Markt werfen, dürfte das bestimmt einen Versuch Wert sein. ;)

Demirug
2003-11-29, 22:53:56
Original geschrieben von Anonym_001
So lange es Verlage gibt die die "Biographie" von einem 17-jährigen auf den Markt werfen, dürfte das bestimmt einen Versuch Wert sein. ;)

OK, einen Verlag dafür bekommt man vielleicht noch. Aber woher will man den Autor nehmen. Technische Autoren die druckreif schreiben können sind schwer zu finden. Ich kann es jedenfalls nicht. Ich brauche in solchen Fällen jemanden der meine Texte sprachlich überarbeitet.

aths
2003-11-30, 00:56:52
Original geschrieben von Demirug
OK, einen Verlag dafür bekommt man vielleicht noch. Aber woher will man den Autor nehmen. Technische Autoren die druckreif schreiben können sind schwer zu finden. Ich kann es jedenfalls nicht. Ich brauche in solchen Fällen jemanden der meine Texte sprachlich überarbeitet. Imo gibt es auch zwei unterschiedliche Herangehensweisen: Ich für meinen Teil interessiere mich für Details, herunter bis zum Design der Logik. Für die meisten würde es reichen, wenn man ihnen Zusammenhänge erklärt, und dabei bewusst vereinfachte Darstellungen inkauf nimmt.

AchtBit
2003-12-01, 14:14:26
Tja, die Frage hat sich eh erledigt. Wenn Du naemlich in die neue PCG schaust, dann findest Du ein paar Tests, in denen mit(4xAA,4xAF) u.o. Filter gebenched wurde. Bei der 5950 sowie bei der 9800xt ist naergends ein betraechtlicher Verlust zu erkennen. Wobei das AA klar mehr frisst als AF.

Die ham sicher ne schnellere CPU eingesetzt.

75 fps Mittel ist ok

Das will ich sehen u. zwar bei UT03 oder spielst das gar nicht erst? Keine mickrige Auloesung bitte. ;)

aths
2003-12-01, 14:42:46
Original geschrieben von AchtBit
Tja, die Frage hat sich eh erledigt. Wenn Du naemlich in die neue PCG schaust, dann findest Du ein paar Tests, in denen mit(4xAA,4xAF) u.o. Filter gebenched wurde. Bei der 5950 sowie bei der 9800xt ist naergends ein betraechtlicher Verlust zu erkennen. Wobei das AA klar mehr frisst als AF.

Die ham sicher ne schnellere CPU eingesetzt.Welche denn? Auch eine schnellere CPU (als deine) verhindert noch keine CPU-Limitierung bei den aktuellen High-End-3D-Boliden. Mit einer echten High-End-CPU und fordernen Auflösungen lässt sich in Füllratenlastigen Situationen mit AF zwangsweise auch ein starker Leistungseinbruch provozieren.

Original geschrieben von AchtBit
Das will ich sehen u. zwar bei UT03 oder spielst das gar nicht erst? Keine mickrige Auloesung bitte. ;) UT 2003 spiele ich recht selten. Wenn du wüsstest, wie (Glide hin oder her) das originale Unreal Tournament auf meiner Banshee aussah... (640x480, Texturen auf Medium, keine Detail Textures...) kannst du mir auch glauben, dass auch bei UT 2003 Leistung an erster Stelle steht. (2x AA, 2x AF, 800x600, Medium Texturen, mittlere bis niedrige weitere Details.)

AchtBit
2003-12-01, 15:09:43
Wenn du wüsstest, wie (Glide hin oder her) das originale Unreal Tournament auf meiner Banshee aussah... (640x480, Texturen auf Medium, keine Detail Textures...)

Weis ich. Hab selbst ne Banshee bei UT am laufen gehabt. Allerdings war das gute Stueck eines der seltenen Exemplare mit SGRAM. Somit etwas hurtiger als die Normale.

Wei gesagt, ich komm mit 50FPS(solange es keine Einbrueche gibt) klar.

Die verwende CPU von den Benches war ein AMD 3000+ mit nForce2 Board.(Korrektur zum verwendeten Filter, es war 2xAA,4xAF)

aths
2003-12-01, 15:38:25
Wenn du dir ansiehst, wie 4x AF auf der Radeon "optimiert" worden ist, und welche Rohpower die Karte hat, solltest du dich über den geringen relativen Einbruch nicht wundern. Erst recht, wenn keine Extrem-Auflösungen gebencht werden.

Xmas
2003-12-01, 15:39:34
Original geschrieben von Demirug
OK, einen Verlag dafür bekommt man vielleicht noch. Aber woher will man den Autor nehmen. Technische Autoren die druckreif schreiben können sind schwer zu finden. Ich kann es jedenfalls nicht. Ich brauche in solchen Fällen jemanden der meine Texte sprachlich überarbeitet.
Dann fang schon mal an, ich stelle mich als Überarbeiter zur Verfügung ;)

AchtBit
2003-12-01, 16:10:09
Original geschrieben von aths
Wenn du dir ansiehst, wie 4x AF auf der Radeon "optimiert" worden ist, und welche Rohpower die Karte hat, solltest du dich über den geringen relativen Einbruch nicht wundern. Erst recht, wenn keine Extrem-Auflösungen gebencht werden.

Hmm, beide Karten sind ja etwa gleichauf, was im Prinzip nur 2 Schluesse zulaesst. Entweder kam keines der Games ans Fuellratenlimit beider Karten ran o. nv verwendet gleichfalls ein Verfahren zur Optimierung der Filter.

Letzteres hatte ich hier mit meinen 1. Posting vermutet.

AchtBit
2003-12-01, 16:17:22
OK, einen Verlag dafür bekommt man vielleicht noch. Aber woher will man den Autor nehmen. Technische Autoren die druckreif schreiben können sind schwer zu finden. Ich kann es jedenfalls nicht. Ich brauche in solchen Fällen jemanden der meine Texte sprachlich überarbeitet.

Wie waers denn mitm Lektor. ;)