PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Tombman, könntest du bitte...


Mr. Lolman
2004-08-23, 11:57:30
...mal einen DoomIII Vergleich machen, ATi, mit dem neuesten Humus Tweak:
http://esprit.campus.luth.se/~humus/temp/doom3PerformanceTweak.rar vs. NV (mit aktiviertem Ultra Shadow II). AA/AF sollte auch an sein.

Zusätzlich noch 2 Vergleichscreenshots vom Startlevel und dein Vergleich wäre perfekt.

Mr. Lolman
2004-08-23, 12:44:13
Komisch, dass dieses Thema so totgeschwiegen wird. Würde doch ne gute Titelstory abgeben, Doom3: Humus vs. Ultra Shadow

Ich wette in 95% der DoomIII Reviews wurde AA/AF im Control Panel ausgewählt, wenn ich da schon auf einer R300 bis 35% (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2166931&postcount=406) gewinne, durch den Tweak, würden die Leistungsverhältnisse nochmal ordentlich durcheinandergewürfelt werden.

[dzp]Viper
2004-08-23, 12:57:37
Was ist dieser Humus Tweak? Noch nie was davon gehört... :redface:

Raff
2004-08-23, 12:59:45
Viper']Was ist dieser Humus Tweak? Noch nie was davon gehört... :redface:

Geht mir ähnlich. Wenn ich "Humus" lese, denke ich automatisch an Erde, nicht an performanceverbessernde Tweaks -- was also wird gemacht? Könnte es eine Shader-Optimierung sein?

MfG,
Raff

Schroeder
2004-08-23, 13:04:17
Für Raff & viper: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=163743&highlight=humus+tweak

Raff
2004-08-23, 13:10:17
Thx, Schroeder!

Interessant. Da fragt man sich doch, warum id das nicht gleich in dieser Form für ATi-Karten in den Code gebannt hat. Ist eben ein nVidia-freundliches Game, sollte ja bekannt sein ...

Und wie sieht es auf der Bildqualitäts-Front aus? Falls diese nicht beeinträchtigt wird - wovon ich angesichts der Infos ausgehe - ist das ein Tweak, wie man sich ihn immer wünscht. :)

MfG,
Raff

Gast
2004-08-23, 13:12:45
no flame please, kthx.

[dzp]Viper
2004-08-23, 13:14:19
Für Raff & viper: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=163743&highlight=humus+tweak

:massa:

Wirklich sehr interessant *einles*

Wenn ich den Tweak + die neuen omega 4.8 nutze, könnte ich also unter "high" ca. 5-7 fps dazugewinnen?! (momentan omega 4.7 und kein tweak)

Wenn das stimmt, dann lohnt sich das wirklich :up:

Gast
2004-08-23, 13:14:31
Viper']Was ist dieser Humus Tweak? Noch nie was davon gehört... :redface:


Billigstes Shader Replacement. Vor nicht allzu langer Zeit von mr.lolman absolut verteufelt. aber da bediente sich ja wissentlich nur NV solcher Praktiken.

SWEN
2004-08-23, 13:49:40
Billigstes Shader Replacement. Vor nicht allzu langer Zeit von mr.lolman absolut verteufelt. aber da bediente sich ja wissentlich nur NV solcher Praktiken.

das einzie was hier bilig ist, sind deine aussagen..

was ist dagegen einzuwenden. wenns was bringt ohne qualitätsverlust? wenn JC mal ordenlich gecodet hätte, könnte man sich das hier sparen. ist schon lustig... die community kriegts besser hin als die progger.... ID ist nun mal ne reine NVIDIA-*rschkriecherbude. crytek hats vorgemacht. farcry läuft auf ATI sehr gut (sm2.0 und sm2.0b), und mit der SM3.0 unterstützung auch auf NV spitzenmäßig... hier wird aus allem das beste rausgeholt....

meine meinung

Mordred
2004-08-23, 13:56:08
JC vorwerfen er würde nicht ordentlich coden ist ja echt schon mutig :> Zum Arschkrichen hat er auch net wirklich gründe. Wenn dann kricht Nvidia ihm in den Arsch das ist aber auch schon alle. Jedenfalls wird es schon Gründe haben warum es so gecodet wurde wie es eben gecodet wurde.

Jesus
2004-08-23, 13:56:57
jo das wäre mal intressant zu sehen :)

Coda
2004-08-23, 14:02:37
Das Problem an Humus ist einfach, das es das Bild verändert und JC wollte das nicht (ist halt nen alter Perfektionist)

Mordred
2004-08-23, 14:10:11
Das Problem an Humus ist einfach, das es das Bild verändert und JC wollte das nicht (ist halt nen alter Perfektionist)

Falls due ne Ati kArte hast kannst du mal screens von mit und ohne humus posten. Würde mich mal grad interessieren. Weil schon an diversen Stellen behauptet wurde es gäbge keine bildveränderungen

SWEN
2004-08-23, 14:11:10
barton @ 2,7ghz / 9800pro @ 500/380 / cata 4.8

1280x1024 0xAA / 16xAF (AF im CP eingestellt) ohne humus tweak: 28,5 fps ->mit humus tweak 38,7 fps

=> 35,78 % gewinn!!!!


ich sehe mit meinen otto normal blick keinen unterschied... (genauso zw. high & ultra)

ich sehe jetzt schon die ersten kommen mit srceenshots und 30facher vergrösserung und 20facher kontrastverstärkung, um einen pixelhaufen ausfindig zu machen.

Jesus
2004-08-23, 14:13:51
Das Problem an Humus ist einfach, das es das Bild verändert und JC wollte das nicht (ist halt nen alter Perfektionist)

tut die neueste Version nicht mehr, IIRC auch lt. Demirug :cool:

Mr. Lolman
2004-08-23, 14:15:50
Das Problem an Humus ist einfach, das es das Bild verändert und JC wollte das nicht (ist halt nen alter Perfektionist)


Das war noch bei der 1. Version der Fall. Die wurde dann im 3dC noch ein bisschen getweakt, damit die BQ Unterschiede weggehen, dann hat Demi 2 Versionen veröffentlicht, die sich beide in der BQ nicht von den original Shadern unterscheiden, und ca. 1 Tag später gabs dann die komplett umgeschriebene interaction.vfp von Herrn Persson (= Humus), die auch aufs gleiche Ergebnis kommt, und im Vergleich zu den ersten Versionen nochmal einen netten Boost beschehrt.

Jesus
2004-08-23, 14:20:51
und bitte auch einmal mit akt. optimierungen und einmal ohne akt. optimierungen, und dann noch einmal mit schatten und einmal ohne schatten ( auf beiden ) benchen :rolleyes:

SWEN
2004-08-23, 14:20:59
Mordred']JC vorwerfen er würde nicht ordentlich coden ist ja echt schon mutig :> Zum Arschkrichen hat er auch net wirklich gründe. Wenn dann kricht Nvidia ihm in den Arsch das ist aber auch schon alle. Jedenfalls wird es schon Gründe haben warum es so gecodet wurde wie es eben gecodet wurde.

ok, die aussage ist etwas zu heftig, ich dachte eher in die richtung, er kümmert sich weniger um ati optimierungen. soweit ich das verstanden habe, wurden die shader-anordung optimiert (zusammenfassung / reihenfolgeänderung) was eigentlich keine qual.einbusse mit sich bringen sollte.

zumindestens hätte man dies als option einbuen können, damit schwächere karten einen boost bekommen. mit "älteren" equipment macht man sich mehr gedanken um die framerate als um quali, oder? oder als mod zum runterladen, was weis ich.... und das JC darauf nicht gekommen wäre... naja wers glaubt. das ist wohl eher politik.

mal OT: genausso hirnrissig ne x600 mit ner 6600gt in doom3 zu vergleichen (die x600 is ne alte 9600er mit pci-e bride-chip). auf sowas kann nur NV/ID kommen.....

Gast
2004-08-23, 14:21:37
Das Problem an Humus ist einfach, das es das Bild verändert und JC wollte das nicht (ist halt nen alter Perfektionist)


Na, da haben wir's ja schon.

Gast
2004-08-23, 14:23:40
no flaming pls

[dzp]Viper
2004-08-23, 14:25:28
Na, da haben wir's ja schon.

rest gelesen?

tut die neueste Version nicht mehr, IIRC auch lt. Demirug :cool:


:)

GT_
2004-08-23, 14:26:19
Von wo kommst du Troll denn hergekrochen?

Ist schon lustig, wie die Ati Fanboys hier versuchen einen der angesehensten Coder zu diskreditieren.

Hast Du einen Namen? Ließ Dir erst einmal den GANZEN Thread durch...


>>>>GT<<<<

tombman
2004-08-23, 14:27:20
ich muss nicht immer mit Gastbashing antworten
OT: hmm, vielleicht mach ich des mit d3 noch, aber mir hat der humus tweak ned viel gebracht damals....sollte ich vielleicht noch mal check0orn später...

tombman
2004-08-23, 14:28:37
und ca. 1 Tag später gabs dann die komplett umgeschriebene interaction.vfp von Herrn Persson (= Humus), die auch aufs gleiche Ergebnis kommt, und im Vergleich zu den ersten Versionen nochmal einen netten Boost beschehrt.

eek, ja warum sagt mir denn des keiner? :D

SWEN
2004-08-23, 14:37:36
man sieht, das thema erhitzt gemüter. ich jedenfalls freue mich darpber. es wäre mal interessant zu wissen, was es beiden X800ern bringt. auf alle fälle immer min. 10% - 35% bei den 9700/9800ern und das ohne, meiner meinung nach, (sichtbare) qualitätseinbusse.


NV <->ATI der streit geht wohl noch Jahre....

mfg SWEN

Demirug
2004-08-23, 14:48:13
man sieht, das thema erhitzt gemüter. ich jedenfalls freue mich darpber. es wäre mal interessant zu wissen, was es beiden X800ern bringt. auf alle fälle immer min. 10% - 35% bei den 9700/9800ern und das ohne, meiner meinung nach, (sichtbare) qualitätseinbusse.


NV <->ATI der streit geht wohl noch Jahre....

mfg SWEN

Das mit den 10 - 35% ist so nicht zwangsläufig richtig. Erfolge dieser Art lassen sich in der Regel nur erreichen wenn man CP-AF einsetzt. Dieses erzwingt auch AF auf der LUT. Was aber leider recht dämlich ist den dort braucht man nur ein ganz einfaches Bilineares Sample. Man kann nun sicherlich darüber streiten ob die LUT oder Rechenvariante die bessere ist. Genausso kann man aber bei jedem Shader darüber streiten welches nun der "richtige" Weg zum erreichen eines Effekts ist.

Sinningerweise hätte man beide einbauen sollen und dann aufgrund eines Benchmarks oder ähnliches die jeweils bessere auswählen. Mit Feedbacks vom Chip würde das noch besser gehen aber dafür fehlen ja die Extensions.

Gast
2004-08-23, 14:51:01
Das mit den 10 - 35% ist so nicht zwangsläufig richtig. Erfolge dieser Art lassen sich in der Regel nur erreichen wenn man CP-AF einsetzt. Dieses erzwingt auch AF auf der LUT. Was aber leider recht dämlich ist den dort braucht man nur ein ganz einfaches Bilineares Sample. Man kann nun sicherlich darüber streiten ob die LUT oder Rechenvariante die bessere ist. Genausso kann man aber bei jedem Shader darüber streiten welches nun der "richtige" Weg zum erreichen eines Effekts ist.

Sinningerweise hätte man beide einbauen sollen und dann aufgrund eines Benchmarks oder ähnliches die jeweils bessere auswählen. Mit Feedbacks vom Chip würde das noch besser gehen aber dafür fehlen ja die Extensions.


ok, da hab ich zuwennig ahnung. aber 10% sind auf alle fälle drin, wenn im CP alles anwendergesteuert ist. und das für umsonst...

Demirug
2004-08-23, 14:56:27
ok, da hab ich zuwennig ahnung. aber 10% sind auf alle fälle drin, wenn im CP alles anwendergesteuert ist. und das für umsonst...

Ja gerade wenn man es über das CP macht bringt es am meisten. Bei D3 sollte man das AF/AA eigentlich über die Applikation einstellen. D3 ist nämlich so schlau und weiss welche Texturen AF brauchen. Allerdings gibt das leider bei den ATI Karten unschöne Filterergebnisse aufgrund eines Treiberbugs. AFAIK gibt es für D3 aber ein Workaround dafür in Form eines kleines Scripts.

Gast
2004-08-23, 14:59:23
Das mit den 10 - 35% ist so nicht zwangsläufig richtig. Erfolge dieser Art lassen sich in der Regel nur erreichen wenn man CP-AF einsetzt. Dieses erzwingt auch AF auf der LUT. Was aber leider recht dämlich ist den dort braucht man nur ein ganz einfaches Bilineares Sample.


Woraus dann doch folgt, dass die Bildqualitaet NICHT identisch ist zur originalen Shader-Variante?

Demirug
2004-08-23, 15:14:38
Woraus dann doch folgt, dass die Bildqualitaet NICHT identisch ist zur originalen Shader-Variante?

Doch es ist identisch. Die Berechung im Humus Shader ergibt den Wert der dem bilinearen Sample aus der LUT entspricht. Strenggenommen müsste man sagen das das Bild mit CP-AF nicht unbedingt dem gewüschten Bild entspricht. Die durch das CP-AF verursachte abweichung ist aber vernachlässigbar. Vorallem wenn man sich in den 75% der texture aufhält die sowieso Schwarz (= 0) ist. Da kann man man noch soviel AF benutzten das Ergebniss bleibt schwarz.

Backet
2004-08-23, 15:33:27
Also bei mir hat der Tweak 6FPS mehr gebracht. In der Timedemo versteht sich, und mit der X800 Pro.

Bei der 9800er Pro hat der Tweak 12 FPS mehr gebracht. Das ist natürllich ne Riesenleistung.

Ich finde auch, das das Game weniger Nachladeruckler hat.
Qualitätseinschnitte konnte ich nicht feststellen.

Als Treiber benutze ich den 4.9b.

Der Tweak ist klasse.

Mr. Lolman
2004-08-23, 15:35:44
12% hatt ich auch schon mit App. AF. bei 1024, mit 1280 gehen noch mehr. Ausserdem wurde in den ganzen Reviews AA/AF sicher übers Controlpanel eingestellt. D.h. da kann man die 35% einfach ohne Vorbehalt dazurechnen.

/edit: IIRC warens nicht 12 sondern 8, aber immerhin...

Gast
2004-08-23, 15:52:24
Doch es ist identisch. Die Berechung im Humus Shader ergibt den Wert der dem bilinearen Sample aus der LUT entspricht. Strenggenommen müsste man sagen das das Bild mit CP-AF nicht unbedingt dem gewüschten Bild entspricht. Die durch das CP-AF verursachte abweichung ist aber vernachlässigbar. Vorallem wenn man sich in den 75% der texture aufhält die sowieso Schwarz (= 0) ist. Da kann man man noch soviel AF benutzten das Ergebniss bleibt schwarz.


ok.
naechste frage:
hat JC evtl. seine Methode so gewaehlt um die Engine universell zu halten, denn es ist ja gewiss nicht jeder dependant read durch eine LUT etc.. zu ersetzen??

tombman
2004-08-23, 15:58:06
HMm, erstes kurzes Ergebnis:

1600x1200, 4xAA,8xAF (= hq in-game), cat 4.9, X800XTPE (default clock)

ohne humus: 33.9
mit humus: 36.1 (NV40 war damals bei meinen Messungen auf 39.3)

Gar ned schlecht, immerhin 6.5%. (auf niedrigeren Auflösungen könnte es auch mehr sein)

Xmas
2004-08-23, 16:06:27
12% hatt ich auch schon mit App. AF. bei 1024, mit 1280 gehen noch mehr. Ausserdem wurde in den ganzen Reviews AA/AF sicher übers Controlpanel eingestellt. D.h. da kann man die 35% einfach ohne Vorbehalt dazurechnen.

/edit: IIRC warens nicht 12 sondern 8, aber immerhin...
Bei den meisten Reviews wurde eher AF in-game eingestellt, da bekannt ist dass der High-Quality-Modus 8xAF aktiviert.

Xmas
2004-08-23, 16:10:21
ok.
naechste frage:
hat JC evtl. seine Methode so gewaehlt um die Engine universell zu halten, denn es ist ja gewiss nicht jeder dependant read durch eine LUT etc.. zu ersetzen??
Dependent Read = LUT (Lookup Table).

Wenn die Rechnung relativ einfach ist, macht es Sinn statt einer LUT eben das Ergebnis zu berechnen. Gleichzeitig muss man aber auch die Teilparallelität von Texturzugriffen und arithmetischen Instruktionen beachten, so dass es oft sinnvoll sein kann beides zu mischen.

MadManniMan
2004-08-23, 16:12:29
Mich würde ja nun interessieren, ob denn mit dem Tweak und CP-AF ähnliche FPS wie ohne Tweak und Ingame(=sinniger)-AF erreicht werden und ob denn bei Ingameeinstellungen überhaupt was bei rauskommt.

Mr. Lolman
2004-08-23, 16:17:16
Habs grad nochmal getestet:
1280x1024, HQ (8x App AF):

ohne Tweak: 30.5fps
mit Tweak: 33.1fps


bringt also auch was.

tombman
2004-08-23, 16:18:09
LEute, jetzt kommt was seltsames:

ich hab jetzt plötzlich nur mehr 35.1fps mit der NV40-- dh, die X800XTPE hat die NV in den Durchschnittsfps überholt, wobei sie (nv40) aber immer noch ein viel besseres Minimum fps Verhalten zeigt.

Ich kann des nur auf den offiziellen nv Treiber schieben, der in d3 langsamer als jener war, den ich damals verwendet hatte.

Nun, da der cat 4.9b + humus haben also 36.1 erreicht, der alte NV40 39.3, der jetzige NV40 35.1 MIT USII.

Btw, USII bringt weniger als 1fps.

Fazit: NV40 würde ich als bessere D3 Karte sehen, aber ATI is "verdammt nah´am Winde draaaan.." :D

dildo4u
2004-08-23, 16:30:19
Naja was soll das ganze hier eigentlich schon wieder bin mal gespannt wie die sache dann ausieht wenns für NV karte eine schönen shader twaek für HL2 gibt dann will ich hier aber nix von der atilern hören *g* Ich find schon merkwürdig als es Shader replacement bei GFFX bei manchen games gab haben sich hier noch alle aufgeregt.

tRpii
2004-08-23, 16:42:23
Solange es nen custom-tweak ist und man ihn nicht benutzen MUSS, ist es doch ok.

Gast
2004-08-23, 16:45:44
Btw, USII bringt weniger als 1fps.


nun ein zitat der 3dcenter news vom 23.08.2004

"...(allerdings ist es nicht korrekt, daß UltraShadow II nicht in Doom 3 aktiv ist, der Depth Bounds Test ist nur ein Teil von UltraShadow II, dessen eigentlicher Hauptteil sehr wohl unter Doom 3 aktiv ist)..."
bezogen auf den Consolen Command : "r_useDepthBoundsTest 1"

Damit wird USII nicht aktiviert (es ist ja schon größtenteils aktiv...), sondern nur eine weitere Funktion angesprochen, oder gibt es ein öffentliches Statement seitens Id-Software das genau dieser Command die komplette USII Technologie der NV4X Karten aktiviert/anspricht??
So wird das in diesem Thread dargestellt was definitiv falsch ist, wenn man sich mal den 3DGPU Artikel durchliest.

http://3dgpu.com/archives/2004/08/18/nvidia-on-doom-3-and-ultrashadow-ii/

Ganz wichtig:

"UltraShadow II is a collection of a number of technologies including the following:

Stencil Shadowing Engine which includes:

1. two-sided stencil / fast z/stencil-only rendering / fast z/stencil culling
2. programmable depth bounds test"


Damit steht doch fest das der Depth Bounds Test nur "ein" Feature ist, das sich innerhalb von Ultrashadow2 befindet.

Was Dummerweise nVidias Martektingabteilung da wieder abgelassen hat is mir schleierhaft.

"To enable UltraShadow II in Doom 3, bring down the console by holding down CTRL+ALT and hitting the ~ key. Type in r_useDepthBoundsTest 1 and hit enter. Then type vid_restart and hit enter. UltraShadow II should be enabled if you’re using the latest ForceWare and 6800 series card"

Stimmt so nicht, aber jeder glaubts, is ja von nV, Marketing is ja so schön.
Wenn dann kann doch nur Id-Software genau sagen was nun wie aktiviert wird, oder??

dildo4u
2004-08-23, 16:46:42
Solange es nen custom-tweak ist und man ihn nicht benutzen MUSS, ist es doch ok.
sicher aber mann kann sich auch nicht drauf verlassen das der arme kerl jetzt bei jedem game den ati karten unter die arme greift besser wäre doch man würde das stabiel in der treiber packen und zwar so das es für alle games mit Doom3 Engine was bringt und nicht nur für Doom3 selbst der typ is doch von ati oder irre ich mich da?

Gast
2004-08-23, 16:49:09
Dependent Read = LUT (Lookup Table).

Wenn die Rechnung relativ einfach ist, macht es Sinn statt einer LUT eben das Ergebnis zu berechnen. Gleichzeitig muss man aber auch die Teilparallelität von Texturzugriffen und arithmetischen Instruktionen beachten, so dass es oft sinnvoll sein kann beides zu mischen.


Heisst das im Umkehrschluss, dass bei komplizierteren Rechnungen LUTs vorzuziehen sind? Wenn das so ist, haette JC das ja gleich so in die engine implementieren koennen.
Oder wird dadurch die engine unflexibler in Betracht auf Erweiterungen/Modofikationen (es werden ja sicher einige Games erscheinen, die Varianten der D3 engine nutzen)?

Mr. Lolman
2004-08-23, 16:52:25
Bei den meisten Reviews wurde eher AF in-game eingestellt, da bekannt ist dass der High-Quality-Modus 8xAF aktiviert.

Schätzt du das oder weisst du das? Ich frag, weil es normalerweise die übliche Praxis ist, dass die AA/AF tests einfach über CP Einstellungen gefahren werden.

Aber selbst so hätten die 6-8 Prozent wahrscheinlich gereicht, damit die x800pe nicht mehr hinter der 6800gt ist.



Ich möchte nur einmal, dass offen zugegeben wird, dass man ein Spiel so proggen _kann_, dass es nur der einen Karte schmeckt, beide damit zurecht kommen, oder nur die andere ihre Leistung voll auspielen kann. Der Humus Tweak und der Parallax Shader Mod beweissen es,

NV Karten gehen bei beiden Mods total ein, ATi Karten gewinnen beim Humustweak tw. gehörig Performance, und brechen beim Parallaxtweak zwar auch ein, aber nicht in dem Ausmass wie es bei NV Karten der Fall ist. Hätte JC Doom nach Humus Style gebastelt und kein App. AF eingebaut, würden die Benchmarkergebnisse wahrscheinlich genau umgekehrt sein, und der programmiertechnische Zusatzaufwand beschränkte sich auf einen halben Tag. Darum ist es m.E. verkehrt zu behaupten, dass NV Karten deswegen so gut sind, weil die einfach für Doom designed worden sind. Denn, wenn wir JC jetzt mal keine böse Absichten unterstellen wollen, ists eher so, dass der Doom Shadercode (nur der Shadercode, nicht die ganze Engine) in der aktuellen Form "zufälligerweise", Nv Karten besser schmeckt, als Ati Karten.

Für Leute die in meinen Aussagen immernoch glauben ein Fanboygequatsche zu erkennen, zeig ich mal wie das Performanceverhältnis noch aussehen hätte können:


1) Doom, wie wirs kennen, App AF:
NV ist z.T. signifikant schneller, schaut bei ATi mies aus, sobald AF aktiv ist

2) Doom mit beiden Techniken und App AF:
sieht bei aktivem AF auf ATi Karten mies aus, läuft aber schon ohne AF 6-8% schneller als es momentan der Fall ist

3) Doom, mit Humus Technik, aber App AF:
schaut auf ATi Karten bei aktiven AF mies aus, ist dafür aber auch flotter. (ATi Karten gewinnen schon ohne AF 6-8%, NV Karten verlieren deutlichst)

4) Doom mit beiden Techniken, ohne App AF:
Läuft auf beiden Karten gut, sieht auf beiden Karten auch mit AF gut aus. Performance sollte ausgeglichen sein, bei CP AF Speedvorteile für ATi Karten

5) Doom mit Humus Technik, ohne App AF:
Sieht auf beiden Karten gut aus. Läuft auf NV Karten langsamer. Mit aktiven CP AF dürfte ATi einen schönen Vorsprung haben.



Wie mans jetzt dreht und wendet, merkt man, dass in Anbetracht der Release Version, dass so ziemlich das Optimium für NV erreicht wurde während ATi Karten ihre liebe Mühe damit haben. (AF- und performancemässig). Warum das jetzt der Fall ist, darüber scheiden sich die Geister.
(schlechter Dev. Support, Sponsoring von NV, späte Rache für den ATi Leak, Unzulänglichkeit...)

Gast
2004-08-23, 16:52:40
LEute, jetzt kommt was seltsames:

ich hab jetzt plötzlich nur mehr 35.1fps mit der NV40-- dh, die X800XTPE hat die NV in den Durchschnittsfps überholt, wobei sie (nv40) aber immer noch ein viel besseres Minimum fps Verhalten zeigt.

Ich kann des nur auf den offiziellen nv Treiber schieben, der in d3 langsamer als jener war, den ich damals verwendet hatte.

Nun, da der cat 4.9b + humus haben also 36.1 erreicht, der alte NV40 39.3, der jetzige NV40 35.1 MIT USII.

Btw, USII bringt weniger als 1fps.

Fazit: NV40 würde ich als bessere D3 Karte sehen, aber ATI is "verdammt nah´am Winde draaaan.." :D

Bei mir ist die 6800 Ultra gegenüber der X800 XTPE (Cat. 4.9 + Humuscheat)
schon ne ganze Ecke schneller bei Doom3.

Demo1
1600x1200 4xFSAA 8xAF
Opt. aus
61.34 : 37,4 fps
66.00 : 43,2 fps
66.00 : 45,8 fps (Optimierungen an!)

und mit X800 XTPE (520/560) selbe Settings
4.9 Hotfix D3 : 33,8 fps

Blaire
2004-08-23, 16:53:53
Mist nicht eingeloggt das war ich. ;)

MfG

Gast
2004-08-23, 16:55:38
Hey Gast, was genau meinst mit "Optimierungen" an, der 66er Treiber hat soweit ich gesehen habe derer 3 Einstellungen oder?
1 ist neu dazugekommen, mit den bekannten 2 Optimierungen (sprich Slider auf Quality) sind ca. 5FPS mehr drin.

Mr. Lolman
2004-08-23, 16:57:19
Naja was soll das ganze hier eigentlich schon wieder bin mal gespannt wie die sache dann ausieht wenns für NV karte eine schönen shader twaek für HL2 gibt dann will ich hier aber nix von der atilern hören *g* Ich find schon merkwürdig als es Shader replacement bei GFFX bei manchen games gab haben sich hier noch alle aufgeregt.

Das war beim 3dmark. und im Nachhinein betrachtet wärs auch ok, solang das ergebnis das Selbe ist. Aber Spielereien mit der Clipping Plane auf fest definierten Kamerapfaden gehören sich nicht...

Genausowenig wie ich ein Shaderreplacement beim Shadermark ok finden würde. Denn das würde den Benchmark, der ja dazu da ist, die Geschwindigkeit bestimmter Shader zu messen, ja ad absurdum führen.

Blaire
2004-08-23, 16:57:25
Hey Gast, was genau meinst mit "Optimierungen" an, der 66er Treiber hat soweit ich gesehen habe derer 3 Einstellungen oder?
1 ist neu dazugekommen, mit den bekannten 2 Optimierungen (sprich Slider auf Quality) sind ca. 5FPS mehr drin.

High Quality = alle Optimierungen aus und einmal HighPerformance da waren alle Optimierungen an.

MfG

Mr. Lolman
2004-08-23, 16:59:06
Tombman:

Kannst du beide Karten auch mal mit CP AF testen?

Und auch einmal mit App. AF und den Humus tweak bei beiden aktiv, und einmal mit CP AF, und Humustweak für beide Karten.


biddebiddebiddebiddebiddebiddebiddebiddebiddebiddebiddebiddebiddebiddebiddebidde biddebiddebiddebiddebiddebiddebidde


dankeschön =)

A.Wesker
2004-08-23, 17:00:43
6800 ultra mit 66.00
1600x1200x32, High Quality, OP=aus, 4AA/8AF
--> 48,6 FPS

1600x1200x32, High Quality, OP=aus, 2AA/8AF
--> 66,1 FPS

Xmas
2004-08-23, 17:07:05
Schätzt du das oder weisst du das? Ich frag, weil es normalerweise die übliche Praxis ist, dass die AA/AF tests einfach über CP Einstellungen gefahren werden.
Ich habe nicht allzu viele Benches gelesen, aber vom [H]-Test weiß ich dass App-AF verwendet wurde.

Ich möchte nur einmal, dass offen zugegeben wird, dass man ein Spiel so proggen _kann_, dass es nur der einen Karte schmeckt, beide damit zurecht kommen, oder nur die andere ihre Leistung voll auspielen kann. Der Humus Tweak und der Parallax Shader Mod beweissen es,

NV Karten gehen bei beiden Mods total ein, ATi Karten gewinnen beim Humustweak tw. gehörig Performance, und brechen beim Parallaxtweak zwar auch ein, aber nicht in dem Ausmass wie es bei NV Karten der Fall ist. Hätte JC Doom nach Humus Style gebastelt und kein App. AF eingebaut, würden die Benchmarkergebnisse wahrscheinlich genau umgekehrt sein, und der programmiertechnische Zusatzaufwand beschränkte sich auf einen halben Tag. Darum ist es m.E. verkehrt zu behaupten, dass NV Karten deswegen so gut sind, weil die einfach für Doom designed worden sind. Denn, wenn wir JC jetzt mal keine böse Absichten unterstellen wollen, ists eher so, dass der Doom Shadercode (nur der Shadercode, nicht die ganze Engine) in der aktuellen Form "zufälligerweise", Nv Karten besser schmeckt, als Ati Karten.
[b]
Für Leute die in meinen Aussagen immernoch glauben ein Fanboygequatsche zu erkennen, zeig ich mal wie das Performanceverhältnis noch aussehen hätte können:
Klar kann man Spiele "in eine Richtung" programmieren, das kommt auch nicht selten vor (ohne dass Absicht dahintersteckt). Hast du für die aufgezählten Fälle Vergleichswerte?



tombman,
hast du beim erneuten Benchen mit der 6800U auch den Tweak von Humus wieder entfernt?

tRpii
2004-08-23, 17:07:47
6800 ultra mit 66.00
1600x1200x32, High Quality, OP=aus, 4AA/8AF
--> 48,6 FPS

1600x1200x32, High Quality, OP=aus, 2AA/8AF
--> 66,1 FPS

und was soll uns das nun sagen? dass 4xAA langsamer als 2xAA ist?

Gast
2004-08-23, 17:16:50
und was soll uns das nun sagen? dass 4xAA langsamer als 2xAA ist?

das sagt aus DAS Tombi :D Pro ATI bencht ,oder ihn ein fehler unterlaufen is?:D

Siehe auch Blaire test....

A.Wesker
2004-08-23, 17:20:40
das sagt aus DAS Tombi :D Pro ATI bencht ,oder ihn ein fehler unterlaufen is?:D

Siehe auch Blaire test....

richtig erkannt :-)

Blaire
2004-08-23, 17:22:54
das sagt aus DAS Tombi :D Pro ATI bencht ,oder ihn ein fehler unterlaufen is?:D

Siehe auch Blaire test....

Er schreibt ja auch das er den älteren offiziellen Nvidia Treiber benutzt hat. Der ist wirklich eine ganze Ecke langsamer bei Doom3.

MfG

Gast
2004-08-23, 17:23:18
OT Spam

SWEN
2004-08-23, 17:25:36
richtig erkannt :-)

weil ich es gerade sehe.....du hast 2 6800ultra´s.... mensch, schade das es auf AGP kein SLI feature gibbt.... da wären 30kmark in 3dmark03 drin.

A.Wesker
2004-08-23, 17:30:41
weil ich es gerade sehe.....du hast 2 6800ultra´s.... mensch, schade das es auf AGP kein SLI feature gibbt.... da wären 30kmark in 3dmark03 drin.

jo, sind in 2 verschiedenen systemen

BvB123
2004-08-23, 17:30:53
30 nicht

mit normalen oc so um 23

Welche Ultra ist besser?

Gruß

A.Wesker
2004-08-23, 17:31:12
Er schreibt ja auch das er den älteren offiziellen Nvidia Treiber benutzt hat. Der ist wirklich eine ganze Ecke langsamer bei Doom3.

MfG

das hab ich überlesen, dann stimmt tombmans wert

swen
2004-08-23, 17:31:58
30 nicht

mit normalen oc so um 23

Gruß

ach stickstoff oben rein, 30k unten raus... ;-)

Gast
2004-08-23, 17:36:43
das hab ich überlesen, dann stimmt tombmans wert

jup

dann ist sein Fazit aber bissle voreilig zustande gekommen
aber das kennen wir ja :)

mapel110
2004-08-23, 17:41:16
Wundert dich das wirklich?
ATI Fanboys sind doch schlimmer als die Pest.

ow, das gibt diesmal 2 Punkte fürs ausgeloggte flammen.

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

tombman
2004-08-23, 17:43:44
jup

dann ist sein Fazit aber bissle voreilig zustande gekommen
aber das kennen wir ja :)

was heißt voreilig? nur weil ich den 66.00er noch ned getestet habe?

Deine benchmarks sind auch voreilig, weil du den 69.12er noch ned getestet hast --- merkst was?

dildo4u
2004-08-23, 17:46:06
was heißt voreilig? nur weil ich den 66.00er noch ned getestet habe?

Deine benchmarks sind auch voreilig, weil du den 69.12er noch ned getestet hast --- merkst was?
LoL aber die ati darf mit Beta 4.9 und Shader tweak antreten fair geht vor wa *g*

Gast
2004-08-23, 17:48:35
was heißt voreilig? nur weil ich den 66.00er noch ned getestet habe?

Deine benchmarks sind auch voreilig, weil du den 69.12er noch ned getestet hast --- merkst was?

erstens mein Guter :)
du hast es erkannt.
zweitens mein Guter :)
hab ich nicht gebencht (bin kein ausgeloggter user)
sind innerhalb nv treiber das net so wichtig
aber DU willst ja die protukte vergleichen NV vs ATI
also nimmt man für beide seiten die bestmöglichen voraussetzung.

glaub mehr brauch ich net sagen mein Guter :)

betasilie
2004-08-23, 17:55:04
LoL aber die ati darf mit Beta 4.9 und Shader twaek antreten fair geht vor wa *g*
Hab ich auch gerade gedacht.



ZumThema, ob D³ extra Schwächen der ATI-GPUs ausnutzt, um NV besser aussehen zu lassen, muss ich sagen, dass ich das durchaus für möglich halte. Wieso auch nicht? NV würde für sowas ne Menge Kohle fließen lassen und Absicht wäre nicht nachweisbar. ... Wer das generell ausschließt, ist imo blauäugig.

Die Frage kann man aber bei jedem Spiel stellen und bekommt sie nie zweifelsfrei beantwortet. Von daher ist diese Diskussion doch irgendwie blöd, meint ihr nicht?

Einige Spiele laufen auf der einen Karte besser, einige auf der anderen. Damit sollte man sich abfinden.

tombman
2004-08-23, 18:58:12
LoL aber die ati darf mit Beta 4.9 und Shader tweak antreten fair geht vor wa *g*

und wielang gibts den cat 4.9b schon und wielang den 66.00?

hab erst JETZT erfahren, daß es einen 66er überhaupt gibt....maaaa

tombman
2004-08-23, 19:00:24
erstens mein Guter :)
du hast es erkannt.
zweitens mein Guter :)
hab ich nicht gebencht (bin kein ausgeloggter user)
sind innerhalb nv treiber das net so wichtig
aber DU willst ja die protukte vergleichen NV vs ATI
also nimmt man für beide seiten die bestmöglichen voraussetzung.

glaub mehr brauch ich net sagen mein Guter :)

Wer hat dir gesagt, daß man umso cooler wird je mehr man "mein Guter" sagt?

@66.00 -> siehe obigen post von mir.

Gast
2004-08-23, 19:06:10
Wer hat dir gesagt, daß man umso cooler wird je mehr man "mein Guter" sagt?

@66.00 -> siehe obigen post von mir.

tja aus dem posting geht nur hervor das man dich Schach Matt gesetzt hat.

und wie immer glauben wir dir das AUCH ,das du es nicht gewusst hast @66.00 -> siehe obigen post von mir.

Ps : :D

Mr. Lolman
2004-08-23, 19:10:53
Hast du für die aufgezählten Fälle Vergleichswerte?


Keine wirklichen Vergleichswerte. Deswegen ists auch so allgemein gehalten. Dass NV Karten Abkacken, sieht mn irgendwo im elendiglich langem "+40% Performance für Doom3" Thread. Der Rest ergibt sich aus logischen Schlüssen. Bspw.:

x) Ohne AA/AF ist NV vorn.
x) Mit AA/AF auch.
x) Die Abstände sind "ungefähr" gleich.
x) Ohne AA/AF bringt der Humus Patch auf ATis 6-8%.
x) Mit AF werdens mehr.
x) Bei CP AF auf sinds selbst auf R3x0 Chips schon bis 35%.
x) NV Karten verlieren Performance mit dem Humus Patch.

Mit diesem Wissen lassen sich schon die Beispiele konstruieren, ohne dass man an deren Korrektheit zweifeln müsste. Der Einzige, mir im nachhinein doch etwas unklar anmutende Punkt ist, ob der NV Test im dem "40% Thread" auch mit der neuesten Version des Humus Patch gemacht wurde. Wär nett, wenn mal jemand den Einbruch mit Humus Patch auf NV Karten abchecken könnte.


ZumThema, ob D³ extra Schwächen der ATI-GPUs ausnutzt, um NV besser aussehen zu lassen, muss ich sagen, dass ich das durchaus für möglich halte. Wieso auch nicht? NV würde für sowas ne Menge Kohle fließen lassen und Absicht wäre nicht nachweisbar. ... Wer das generell ausschließt, ist imo blauäugig.

Die Frage kann man aber bei jedem Spiel stellen und bekommt sie nie zweifelsfrei beantwortet. Von daher ist diese Diskussion doch irgendwie blöd, meint ihr nicht?

Einige Spiele laufen auf der einen Karte besser, einige auf der anderen. Damit sollte man sich abfinden.

Full ACK. Aber den Leuten, die von vornherein ausschliessen, dass sowas möglich wär, kann man ja durchaus zeigen, dass es auch anders geht. Ob dies alles mutwillig geschah, werden wir sicher nicht herausfinden, aber es reicht ja schon, zu zeigen, dass die Release Version von Doom sicher nicht das Optimum aus ATi Karten herausholt.

Andererseits, wird mit solchen Benchmarkergebnissen viel Geld gemacht. Insofern ists doch wieder interessant, ob die HW nicht besser kann, oder man sie einfach nicht lässt.

Gast
2004-08-23, 19:12:14
*unwichtig*

Geyron
2004-08-23, 19:51:13
Naja das ist halt so mit dem Tombmann, er schafft es aus jedem thread nur noch mist zu machen. Es gibt dazu ein nettes Sprichwort: Je größer das Ego desto schlechter ist das benehmen. :rolleyes:

SWEN
2004-08-23, 19:56:46
könnte man diese diskusssion (shadertweak vs. NV-optimierungen /AF-diskussionen ) nicht in den doom3 benchmark-thread verschieben, oder sind da nur nackte zahlen erwünscht?

Gast
2004-08-23, 19:58:29
Naja das ist halt so mit dem Tombmann, er schafft es aus jedem thread nur noch mist zu machen. Es gibt dazu ein nettes Sprichwort: Je größer das Ego desto schlechter ist das benehmen. :rolleyes:


naja mit dem stänkern hat er aber nicht angfangen, eher diese gast-accounts ATi vs. NVIDIA

Madkiller
2004-08-23, 20:01:20
Naja das ist halt so mit dem Tombmann, er schafft es aus jedem thread nur noch mist zu machen. Es gibt dazu ein nettes Sprichwort: Je größer das Ego desto schlechter ist das benehmen. :rolleyes:

So wie mit deinem Post.
Diesmal bekommst du dafür noch eine Verwarnung.
Sowas ist hier nicht erwünscht, also unterlaß das bitte in Zukunft.

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

Quasar
2004-08-23, 20:03:18
Schätzt du das oder weisst du das?
[...denkpause...]
Ich frag, weil es normalerweise die übliche Praxis ist, dass die AA/AF tests einfach über CP Einstellungen gefahren werden.
hierzu:
Schätzt du das oder weisst du das?

Demirug
2004-08-23, 20:11:33
Heisst das im Umkehrschluss, dass bei komplizierteren Rechnungen LUTs vorzuziehen sind? Wenn das so ist, haette JC das ja gleich so in die engine implementieren koennen.
Oder wird dadurch die engine unflexibler in Betracht auf Erweiterungen/Modofikationen (es werden ja sicher einige Games erscheinen, die Varianten der D3 engine nutzen)?

Im Prinzip wären LUT bei komplizierten Rechnungen vorzuziehen. Allerdings sind komplizierte Rechnungen oft nicht dazu geeignet in LUT gepackt zu werden.

Was nun andere Spiele auf der Grundlage der D3 Engine angeht so können diese ja in der Regel aufgrund eines Zugangs zum Code der Engine das Shading so anpassen wie sie es benötigen.

MadManniMan
2004-08-24, 08:52:30
Um meinem Posting Sinn anerkennen zu können, muß Folgendes gegeben sein:

CP-AF und App-AF machen für euch nur vom Performancestandpunkt Unterschiede - die Optik erscheint euch gleich. Zumal es mir ungleich logischer erscheint, D³ über den AF-Grad entscheiden zu lassen.

Wer diesem nicht zustimmt, brauch meine Bemerkungen nicht beachten ... sicherlich ist es interessant, wie sich der ganze Kram bei CP-AF verhält, doch im Endeffekt sind IMHO nur folgende Ergebnisse von letztendlicher Relevanz, da wohl nur so wirklich verglichen werden kann:

*ATi* (R4XX)

- App-AF
- mit und ohne Humus-Tweak
- wenn möglich, mit richtigem Tri

*nV* (NV4X)

- App-AF
- mit "altem" offiziellen und mit neuem Treiber
- Bri aktiv - außer, es wird auch bei ATi deaktiviert
- verringerte LoD-Präzision, da ATi auch so arbeitet

...alles Andere führt zu Kram, der nicht wirklich was bringt.


Zudem: der ARB2-Pfad bedeutet doch, daß erstmal ein einheitliches Modell gefahren wird - und dann kompiliert der Treiber sich daraus, was er braucht? Wenn dem so ist, dann hat JC wohl eher darauf geachtet, daß jeder ersteinmal mit den gleichen Vorraussetzungen an den Start geht und dann liegt es an den IHVs, weiterführende Arbeit zu verrichten. Wenn die Shader für ATi neu geordnet werden, ist es wohl auch nur fair, auch für nV noch zu optimieren - geht das denn?

Gast
2004-08-24, 09:46:04
*sinnfrei*

seahawk
2004-08-24, 10:15:58
Im Prinzip wären LUT bei komplizierten Rechnungen vorzuziehen. Allerdings sind komplizierte Rechnungen oft nicht dazu geeignet in LUT gepackt zu werden.

Was nun andere Spiele auf der Grundlage der D3 Engine angeht so können diese ja in der Regel aufgrund eines Zugangs zum Code der Engine das Shading so anpassen wie sie es benötigen.

Also ist die originale Lösung also erstmal flexibeler ??

Mordred
2004-08-24, 10:33:23
Tombman, könntest du bitte...


...einfach fuer immer aus diesem Forum verschwinden, du wirst hier keine Anhaenger fuer deine Porpaganda finden?
Ähem die hat er schon längst :> Aber was solls man gewöhnt sich dran. (ich kann kaum glauben das ich das jetzt schreibe) auch wenn ich vor 3 Tagen noch derbst gegen Tombman gewettert hab (seine ansichten teile ich auch jetzt noch nicht bevor das wer fragt und richtiger werden sie dadurch naütrlich auch nicht :>) hab ich mittlerweile einige postings von ihm entdeckt wo er doch recht "umgänglich" wirkte. Also einfach ignorieren weas er zum thema nvidia und Ati schreibt bzw. Bildqualität (faiererweise muss man aber sagen das sollte man auch bei einiegen anderen) die benches scheinen meisten korrekt zu sein verlieren aber angesichts der bildunterscheide dann doch wieder ein wenig an relevanz da ist dann der subjektive geschmack eines jeden käufers entscheidend. Jedenfalls wenn man das beachtet wirkt er garnicht mehr so schlimm.

@Tombman: Ja du kannst das jetzt als eine Art entschuldigung ansehen. Auch wenn ich deine Ansichten nachwievor für etwas "merkwürdig" (vorsichtig ausgedrückt :> ) halte aber ich scheine dir stellenweise wirklich unrecht getan zu haben.

tombman
2004-08-24, 14:40:35
Mordred']Ähem die hat er schon längst :> Aber was solls man gewöhnt sich dran. (ich kann kaum glauben das ich das jetzt schreibe) auch wenn ich vor 3 Tagen noch derbst gegen Tombman gewettert hab (seine ansichten teile ich auch jetzt noch nicht bevor das wer fragt und richtiger werden sie dadurch naütrlich auch nicht :>) hab ich mittlerweile einige postings von ihm entdeckt wo er doch recht "umgänglich" wirkte. Also einfach ignorieren weas er zum thema nvidia und Ati schreibt bzw. Bildqualität (faiererweise muss man aber sagen das sollte man auch bei einiegen anderen) die benches scheinen meisten korrekt zu sein verlieren aber angesichts der bildunterscheide dann doch wieder ein wenig an relevanz da ist dann der subjektive geschmack eines jeden käufers entscheidend. Jedenfalls wenn man das beachtet wirkt er garnicht mehr so schlimm.

@Tombman: Ja du kannst das jetzt als eine Art entschuldigung ansehen. Auch wenn ich deine Ansichten nachwievor für etwas "merkwürdig" (vorsichtig ausgedrückt :> ) halte aber ich scheine dir stellenweise wirklich unrecht getan zu haben.

danke mordred.

Meine benchmarks waren in der Tat immer richtig und werdens auch immer sein. @Bildqualität: wie gesagt, da steht praktisch des gesamte Internet auf meiner Seite, denn die BQ Unterschiede zwischen ATI und NV SIND gering, ansonsten wäre da schon ein mächtiger Aufschrei durchs gesamte Netz gegangen. Sogar Nvidia hat erkannt, daß die ATI Methode gar ned so schlecht ist und baut jetzt langsam so gut wie alle ATi "cheats" ein in ihren neuen Treibern. Der neue forceware 66.00 hat schon einen dritten Optimierungs-Punkt in den Optionen bekommen wo man die AF samples "optimieren" kann. Rein subjektiv sieht das Bild jetzt damit auch ned schlechter aus, bringt aber wieder ein bischen mehr speed.

@lolman, siehe neuen thread ;)

Mordred
2004-08-24, 16:49:53
danke mordred.

Meine benchmarks waren in der Tat immer richtig und werdens auch immer sein. @Bildqualität: wie gesagt, da steht praktisch des gesamte Internet auf meiner Seite, denn die BQ Unterschiede zwischen ATI und NV SIND gering, ansonsten wäre da schon ein mächtiger Aufschrei durchs gesamte Netz gegangen. Sogar Nvidia hat erkannt, daß die ATI Methode gar ned so schlecht ist und baut jetzt langsam so gut wie alle ATi "cheats" ein in ihren neuen Treibern. Der neue forceware 66.00 hat schon einen dritten Optimierungs-Punkt in den Optionen bekommen wo man die AF samples "optimieren" kann. Rein subjektiv sieht das Bild jetzt damit auch ned schlechter aus, bringt aber wieder ein bischen mehr speed.

@lolman, siehe neuen thread ;)

Gering hat nie jemand bezweifelt nur das nicht sichtbar ;) Was ich nachwievor tue. Und das ganze Internet ist "etwas" hochgegriffen gibt ja noch genügend nvidia käufer (die es auch nicht bereuen). Aber stimmt schon das sehr viele mehr auf den Speed achten als auf Bildunterschiede. Ich persönlich benutze immernoch ne ti4600 weil ich da gescheite filterung hab. Mit den aktuellen NV und ATI kann ich nix anfangen. Wobei es bei nv etwas weniger "schlimm" ist aber das ist jetzt auch egal :> Für mich wird eh nur noch s3 in Frage kommen wenn nicht mal nv oder ati auf die idee kommen das abschaltbar zu machen. bei etlichen milliarden transistoren können sie auch noch mal eben gescheites af mit einbauen :> Aber naja das ist jetzt ot also lassen wir das hier.

SKYNET
2004-08-25, 01:27:19
und wielang gibts den cat 4.9b schon und wielang den 66.00?

hab erst JETZT erfahren, daß es einen 66er überhaupt gibt....maaaa


selber schuld, fragst mich janet.

tombman
2004-08-25, 22:20:12
selber schuld, fragst mich janet.

sowas solltest du mir automatisch sagen und ned warten bis ich dir per icq alles aus der Nase ziehe. Wenn ich was neues weiß erzähl ich dir auch immer alles sofort, auch wennst es ned hören willst :D:D (aber ich denk, des geht jetzt nur uns 2 was an ... ;))

@mordred: also ich seh schwarz, daß die Filter Qualität jemals wieder so wird wie bei den alten Karten, da sind ati und nvidia einfach zu fps gierig ;)

Quasar
2004-08-25, 22:40:10
@mordred: also ich seh schwarz, daß die Filter Qualität jemals wieder so wird wie bei den alten Karten, da sind ati und nvidia einfach zu fps gierig ;)
Bin zwar nicht mordred, aber was soll's....

Was meinst du denn, woran diese FPS-Gier, die du den IHVs unterstellst, liegt?

Ich habe da nämlich eine leicht andere Theorie. ;)

MadManniMan
2004-08-26, 08:02:38
Bin zwar nicht mordred, aber was soll's....

Was meinst du denn, woran diese FPS-Gier, die du den IHVs unterstellst, liegt?

Ich habe da nämlich eine leicht andere Theorie. ;)

:lol:

nV und ATi liefern nur, was scheinbar vom Markt verlangt wird - und beim Gamer sind das wohl kompromißlose Fps :| Da gleichzeitig anderweitig verbessert wird, fallen diese Einbußen dem Normalo nicht weiter auf - wir brauchen wohl erst wieder einen relativen Stillstand wie bei 3Dfx, damit wirklich wieder mit Top-BQ gepunktet werden kann ;(

Ich weiß nicht, wie es dir geht, aber ich würde mich schwertun, auf das NV30 AF verzichten zu müssen - jetzt nicht direkt in Doom3, wohl aber in den meisten anderen Apps.

"Danke", Fps-Freaks :up: