PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidias Treiber Optimierungen


Gast
2003-10-21, 15:11:06
Grüße!

Das mit den neuen Detonator Treibern ab 50.xx find ich ja wohl totaler Beschiss! Die Framezahlen steigen zwar imens aber die Qualität nimmt ständig ab! Das is doch nicht der Sinn oder ??? Die Spieleprogrammierer versuchen die texturen so naturgetreu wie möglich dar zu stellen. Was bringt es dann wenn NVIDIA die Texturen wieder unscharf macht ???? Das is doch ein Widerspruch in sich!

mfg Ein genervter NVIDIA User!

Razor
2003-10-21, 15:14:29
"Einer fängt an, der andere zieht nach..."
:D

Oder warum sollte nVidia den diesbezüglichen Performance-Nachteil seit Cat3.2 einfach hinnehmen ?
Aber klar, beide sollten damit aufhören !
*hmpf*

Die TS>0-Geschichte würd' ich ja noch durchgehen lassen (ATI filtert dort nur bilinear), aber auf TS0 nicht mehr trilinear zu filtern (nennt sich jetzt 'pseudo-trilinear') ist schon hart...

Mal schaun', ob ein offizieller Referenz-Treiber da noch was reißt.
Glauben tue ich daran allerdings nicht mehr so ganz...

Razor

Richthofen
2003-10-21, 15:23:37
ich find die Entwicklung auch scheisse aber hier muss man den schwarzen Peter eindeutig ATI zuschieben, denn in gewisser Weise haben sie mit dem AF auf dem R200 mit dieser Richtung begonnen und mit dem R300 auch weitergemacht.

Insofern hat sich Nvida in diesem Fall außnahmsweise der Entwicklung einfach angepasst, weil anscheinend über die Masse gesehen zu wenige Tester die schlechtere Filterung kritisiert haben und dann fragt man sich schon wieso man voll filtern soll und Performanceeinbußen in Kauf nehmen soll, wenn die Konkurenz dort einfach rumoptimiert auf Kosten der IQ.

Demzufolge haben die eigentlich in dem Feld nur nachgezogen. Ich finds generell auch kagge.
Ich will volles Trillinear und das volle NV AF, und wenn die Performance mal nicht reicht, dann nehm ich das volle NV AF in einer niedrigeren Stufe - meinetwegen 4x.
Ich sehe eigentlich generell keinen Sinn in dieser Optimiererei an den Filtern. Im Prinzip machen beide das eigentlich auch nur für ihre Mainstream Karten, weil dort zu wenig Grundleistung des Chips zur Verfügung steht zumindest im Vergleich zur DX8 Generation, denn in der Grundleistung hat sich da im Mainstreambereich auch nach 2 Jahren noch nicht viel getan bis auf die kurzlebige 9500pro.

Hinzu kommt, dass die behämmerten Reviewer, massenweise irgendwelchen DX9 nonsense Benchmarken, der auch in den nächsten Monaten noch kaum Relevanz hat. Das zieht Performance und da denken beide - alles klar bei den Filtern können wir sparen -.
Find ich generell eigentlich kagge. Mich persönlich interessiert der ganze DX9 Schmarrn momentan noch gar nicht und im Prinzip sind die derzeit erhältlichen Grakas selbst im High End Bereich dafür viel zu lahm. Würden sich die Tester mehr auf die wichtigen Dinge konzentrieren, dann würden die beiden Hersteller auch sehr schnell mit der Optimiererei an den Filtern aufhören.

Wenn man aber eben Shadermark, 3DMark03, nicht erhältliche Spiele und ähnlichen Käse zum xten Male durchtestet, muss man sich nicht wundern wenn der Rest auf der Strecke bleibt.

Tigerchen
2003-10-21, 15:48:28
Der schwarze Peter liegt eindeutig bei nVidia.ATI hat die geniale Idee gehabt AF winkelabhängig zu machen.Dadurch ist es rasend schnell und erreicht ab der R300 Serie trotzdem eine wirklich gute Qualität.Damit war und ist es erstmals möglich AF immer zu nutzen.;)
Grade beim Umstieg von der GF3 Ti200 auf die ATI ist mir das aufgefallen.Und ich hab wirklich nach winkelabhängigen Fehlern gesucht und bin nur seltenst fündig geworden.

Wenn der Gast bei nVidia Qualitätseinbußen wirklich sieht hat nVidia eindeutig was falsch gemacht.Wer das einfach nur auf ATI schiebt macht es sich ein bißchen einfach finde ich.

Quasar
2003-10-21, 16:05:58
Original geschrieben von Tigerchen

Wenn der Gast bei nVidia Qualitätseinbußen wirklich sieht hat nVidia eindeutig was falsch gemacht.

Das ist die Frage: Sieht man es, oder schreibt man es ab von Websites, die mit colorierten Mip-Levels das schmale Triband sichtbar machten? *eg*

OT:
Schreibst du deine color-tags eigentlich immer von Hand?

reunion
2003-10-21, 16:11:30
Original geschrieben von Richthofen
ich find die Entwicklung auch scheisse aber hier muss man den schwarzen Peter eindeutig ATI zuschieben, denn in gewisser Weise haben sie mit dem AF auf dem R200 mit dieser Richtung begonnen und mit dem R300 auch weitergemacht.


Nur weil der R200 nicht in der Lage war tri AF zu bieten (HARDWARELIMITIERUNG!!!!) bzw der R300 nicht in der Lage ist ohne Winkelabhängigkeit zu filtern(wobei der Qualitätsverlust kaum sichtbar ist während sich die Leistung extrem verbessert, außerdem ebenfalls HArdwarelimitierung!!) von einen Cheat zu sprechen finde ich irgendwie :bonk:. Oder behaupte ich NV cheatet beim AA weil sie die Abtastmuster nur geordert haben??

Insofern hat sich Nvida in diesem Fall außnahmsweise der Entwicklung einfach angepasst, weil anscheinend über die Masse gesehen zu wenige Tester die schlechtere Filterung kritisiert haben und dann fragt man sich schon wieso man voll filtern soll und Performanceeinbußen in Kauf nehmen soll, wenn die Konkurenz dort einfach rumoptimiert auf Kosten der IQ.


Sorry aber so ein BLÖDSINN!
Es wurde eh immer ATI Quality(Winkelabhängig) vs. NV Winkelabhängig(ka wie das ganau heißt) verglichen und nie ATI Quality vs NV Quality...außerdem ist es ein Unterschied ob man den AF-Filter Optimiert(was NV übrigens noch zusätzlich zum pseu-tri Filter macht) oder die GESAMTE TEXTURFILTERUNG OHNE MÖGLICHKEIT DAS GANZE ZU UNGEHN...

Demzufolge haben die eigentlich in dem Feld nur nachgezogen. Ich finds generell auch kagge.
Ich will volles Trillinear und das volle NV AF, und wenn die Performance mal nicht reicht, dann nehm ich das volle NV AF in einer niedrigeren Stufe - meinetwegen 4x.
Ich sehe eigentlich generell keinen Sinn in dieser Optimiererei an den Filtern. Im Prinzip machen beide das eigentlich auch nur für ihre Mainstream Karten, weil dort zu wenig Grundleistung des Chips zur Verfügung steht zumindest im Vergleich zur DX8 Generation, denn in der Grundleistung hat sich da im Mainstreambereich auch nach 2 Jahren noch nicht viel getan bis auf die kurzlebige 9500pro.

1.) Die 9600XT schlägt jede 7500!
2.) Ist die 9600XT bis auf die extremeinstellungen (1600x1200+AA+AF) meistens schneller als eine 9500pro
3.) Ist bei NV die 5600er sogar langsamer als der Vorgänger(ti4200).

Hinzu kommt, dass die behämmerten Reviewer, massenweise irgendwelchen DX9 nonsense Benchmarken, der auch in den nächsten Monaten noch kaum Relevanz hat. Das zieht Performance und da denken beide - alles klar bei den Filtern können wir sparen -.
Find ich generell eigentlich kagge. Mich persönlich interessiert der ganze DX9 Schmarrn momentan noch gar nicht und im Prinzip sind die derzeit erhältlichen Grakas selbst im High End Bereich dafür viel zu lahm. Würden sich die Tester mehr auf die wichtigen Dinge konzentrieren, dann würden die beiden Hersteller auch sehr schnell mit der Optimiererei an den Filtern aufhören.


Das sagst du aber auch nur weil NV das klaglos untergehn... :naughty:

StefanV
2003-10-21, 16:26:32
Original geschrieben von Richthofen
ich find die Entwicklung auch scheisse aber hier muss man den schwarzen Peter eindeutig ATI zuschieben, denn in gewisser Weise haben sie mit dem AF auf dem R200 mit dieser Richtung begonnen und mit dem R300 auch weitergemacht.

Du weißt aber, daß das AF der Radeons vermutlich WInkelabhängig ist, weil ATI ein paar Transistoren gespart hat, was aber bei ATI üblich ist (Transistoren sparen, wo man sie wirklich nicht braucht...

The_Invisible
2003-10-21, 16:29:36
Original geschrieben von reunion
Nur weil der R200 nicht in der Lage war tri AF zu bieten (HARDWARELIMITIERUNG!!!!) bzw der R300 nicht in der Lage ist ohne Winkelabhängigkeit zu filtern(wobei der Qualitätsverlust kaum sichtbar ist während sich die Leistung extrem verbessert, außerdem ebenfalls HArdwarelimitierung!!) von einen Cheat zu sprechen finde ich irgendwie :bonk:. Oder behaupte ich NV cheatet beim AA weil sie die Abtastmuster nur geordert haben??

>> von cheat war ja nie die rede, aber dein vergleich hinkt auf ganz schon, nvidia gewinnt durch das "schlechtere" AA keine Performance, ATI durch ihr AF schon

Sorry aber so ein BLÖDSINN!
Es wurde eh immer ATI Quality(Winkelabhängig) vs. NV Winkelabhängig(ka wie das ganau heißt) verglichen und nie ATI Quality vs NV Quality...außerdem ist es ein Unterschied ob man den AF-Filter Optimiert(was NV übrigens noch zusätzlich zum pseu-tri Filter macht) oder die GESAMTE TEXTURFILTERUNG OHNE MÖGLICHKEIT DAS GANZE ZU UNGEHN...

>> woher weißt du das? und wenn ja, hat man in screenshots noch immer den unterschied zu gunsten von nvidia gesehen

1.) Die 9600XT schlägt jede 7500!
2.) Ist die 9600XT bis auf die extremeinstellungen (1600x1200+AA+AF) meistens schneller als eine 9500pro
3.) Ist bei NV die 5600er sogar langsamer als der Vorgänger(ti4200).

>> da haben beide schei*e gebaut ;)

Das sagst du aber auch nur weil NV das klaglos untergehn... :naughty:

sieht man eh bei Halo :D aber nein, das ist ja sicher ungültig, da schau ich lieber auf eine kugel die sich dreht

mfg

LovesuckZ
2003-10-21, 17:12:36
Original geschrieben von reunion
Nur weil der R200 nicht in der Lage war tri AF zu bieten (HARDWARELIMITIERUNG!!!!) bzw der R300 nicht in der Lage ist ohne Winkelabhängigkeit zu filtern(wobei der Qualitätsverlust kaum sichtbar ist während sich die Leistung extrem verbessert, außerdem ebenfalls HArdwarelimitierung!!) von einen Cheat zu sprechen finde ich irgendwie :bonk:. Oder behaupte ich NV cheatet beim AA weil sie die Abtastmuster nur geordert haben??

Wie kann Nvidia beim AA cheaten, wenn sie jeweils und durchgaengig 2 bzw. 4 AA Samples verwenden?
Bei ATi's AF dagegen wird nur an bestimmten Situationen der maximal Wert erreicht -> cheat!
Leider haben viele reviewer es nicht gecheckt und vergleichen trotzdem ATi's AF gegen das von nvidia.

Sorry aber so ein BLÖDSINN!
Es wurde eh immer ATI Quality(Winkelabhängig) vs. NV Winkelabhängig(ka wie das ganau heißt) verglichen und nie ATI Quality vs NV Quality...

Aehm, ohem, du weißt, dass Quality DAS AF ist?

außerdem ist es ein Unterschied ob man den AF-Filter Optimiert(was NV übrigens noch zusätzlich zum pseu-tri Filter macht) oder die GESAMTE TEXTURFILTERUNG OHNE MÖGLICHKEIT DAS GANZE ZU UNGEHN...

Ich kann die Winkelabhaengigkeit auch nicht umgehen. Ich sehe da kein Unterschied.

reunion
2003-10-21, 17:32:44
Original geschrieben von LovesuckZ
Wie kann Nvidia beim AA cheaten, wenn sie jeweils und durchgaengig 2 bzw. 4 AA Samples verwenden?
Bei ATi's AF dagegen wird nur an bestimmten Situationen der maximal Wert erreicht -> cheat!
Leider haben viele reviewer es nicht gecheckt und vergleichen trotzdem ATi's AF gegen das von nvidia.


Nein, es wurde ATI QUALITY gegen NV Balanced verglichen und nicht ATI Quality vs. NV Quality, wodurch die Bildqualität auch nicht besser war als die von ATI, nur bot NV auch noch zusätzlich Winkelunabhängiges AF, was ATI nicht bot. Allerdings gehen die Reviews (wo die FX verliert :naughty:) sehrwohl in ordnung.

Aehm, ohem, du weißt, dass Quality DAS AF ist?


Klar...

LovesuckZ
2003-10-21, 17:40:30
Original geschrieben von reunion
Nein, es wurde ATI QUALITY gegen NV Balanced verglichen und nicht ATI Quality vs. NV Quality, wodurch die Bildqualität auch nicht besser war als die von ATI, nur bot NV auch noch zusätzlich Winkelunabhängiges AF, was ATI nicht bot. Allerdings gehen die Reviews (wo die FX verliert :naughty:) sehrwohl in ordnung.


Fakt ist, dass seit dem 44.03 (12. Mai) "Quality" bis auf UT2003 Standard ist.
Fakt ist, dass viele reviewer es nicht verstanden haben auf diese ungunst hinzuweisen und ATi's AF als Cheat zu deklarieren.
Fakt ist, dass das AF des 45.23 besser aussieht als das, was ATi je angeboten hat und jez anbietet.

doom1
2003-10-21, 17:46:43
@LoSuZ Vergiß es du hast gegen Fanboys keine Chance.

Mr. Lolman
2003-10-21, 18:05:44
Original geschrieben von LovesuckZ
Fakt ist, dass seit dem 44.03 (12. Mai) "Quality" bis auf UT2003 Standard ist.
Fakt ist, dass viele reviewer es nicht verstanden haben auf diese ungunst hinzuweisen und ATi's AF als Cheat zu deklarieren.
Fakt ist, dass das AF des 45.23 besser aussieht als das, was ATi je angeboten hat und jez anbietet.

Fakt ist, dass niemand weiss, inwieweit NV beim 44.03 den AF Cheat schon in anderen Benchmarks verwendete (TommTis 3DAnalyze kanns mittlerweile :naughty: )

Fakt ist, dass nahezu jeder Reviewer im Wissen von ATis winkelabhängigen AF (oder auch nur zufällig) NVs 8xAF gegen ATis 16xAF bencht. Und trotz der in deinen Augen immernoch ungerechten Benchmethode kamen einige Reviewer zu dem Schluss das ATis 16xAF insgesamt besser aussieht. Frag mal Piffan, was der früher über ATis Winkelabhängikeit gedacht hat

Fakt ist, dass man beim 45.23 genausowenig weiss wieweit NV da nicht schon cheatet (AF Cheat beim 3dmark2001 z.B.) und Nutzen gegen Leistung gestellt ATi oft genug mit dem 16xbi AF aufräumen geht ;) Gibts irgendeinen FX User der Tron 2.0* in 1152x864 mit 6xAA/16xAF spielt, oder meinetwegen mit 4xAA/8xAF :D :???:


*jaja NV ist bekanntermassen langsamer bei Tron2.0 aber nicht nur das, die HDR Effekte sind (lt. eines Reviewers) ruckeliger als auf der Radeon, und mit den neuen Detos kann man das Spiel sowieso nicht spielen ohne Augenkrebs zu bekommen, aber ich hätte anstatt dessen auch genausogut Halo, TRAOD, GTA VC, FS2004, Warcraft 3,... heranziehen können, und der Geschwindigkeitsunterschied wäre in etwa ähnlich wie bei meinem Beispiel.

...und wer weiss, wie es mit Spielen aussieht, die nicht so häufig, oder garnicht, gebencht werden (zeichnet sich doch das Resultat anhand der Ergebnisse seltener gebenchte Spiele schon eindeutig ab)

Sumpfmolch
2003-10-21, 18:29:34
Original geschrieben von Mr. Lolman


*jaja NV ist bekanntermassen langsamer bei Tron2.0 aber nicht nur das, die HDR Effekte sind (lt. eines Reviewers) ruckeliger als auf der Radeon, und mit den neuen Detos kann man das Spiel sowieso nicht spielen ohne Augenkrebs zu bekommen, aber ich hätte anstatt dessen auch genausogut Halo, TRAOD, GTA VC, FS2004, Warcraft 3,... heranziehen können, und der Geschwindigkeitsunterschied wäre in etwa ähnlich wie bei meinem Beispiel.

...und wer weiss, wie es mit Spielen aussieht, die nicht so häufig, oder garnicht, gebencht werden (zeichnet sich doch das Resultat anhand der Ergebnisse seltener gebenchte Spiele schon eindeutig ab)

die anandtech benches haben mich durchaus auch sehr verwundert...die unregelmäßigkeit in der performance ist schon erstaunlich.

aber jetz du meiner eigentlich frage ;)

1.die ati winkelabhängigkeit ist ja hardwarelimitiert oder ?
2. der "cheat" im ati AF ist eigentlich das nur bilineare filtern ab stage >0 ? (gilt nur für d3d)
3. dieser cheat kann durch erzwingen von full tri deaktiviert werden ?

Quasar
2003-10-21, 18:44:14
Original geschrieben von Mr. Lolman
[Fakten, Fakten Fakten]

Fakt ist, daß Leo diese Treiber verglichen hat, auch mittels Unwinders Anti-Detect Script. Wenn da etwas drin gewesen sein sollte, dann nur ein Cheat, der keinerlei Performance bringt.... :|

Mr. Lolman
2003-10-21, 18:53:07
Original geschrieben von Sumpfmolch
die anandtech benches haben mich durchaus auch sehr verwundert...die unregelmäßigkeit in der performance ist schon erstaunlich.

aber jetz du meiner eigentlich frage ;)

1.die ati winkelabhängigkeit ist ja hardwarelimitiert oder ?
2. der "cheat" im ati AF ist eigentlich das nur bilineare filtern ab stage >0 ? (gilt nur für d3d)
3. dieser cheat kann durch erzwingen von full tri deaktiviert werden ?

1. Meines Erachtens ja, muss aber nicht sein...

2. Stimmt.

3. Stimmt.


@Quasar:

Kannst du mir mal die Stelle zeigen? So eindeutig ist in diesem Artikel für mich leider garnichts... (ausser dass das Unwinderscript Optimierungen jeglicher Art deaktiviert und sich die Performance bei NV dadurch stärker verändert als bei ATi)

Gast
2003-10-21, 19:08:49
oh man
spätestens bei post 3-4 fängt das 0815 standard nv-ati fanboy geflame wieder an

sagt mal - langweilt euch das auf dauer nicht?

Quasar
2003-10-21, 19:10:37
Original geschrieben von Mr. Lolman
@Quasar:
Kannst du mir mal die Stelle zeigen? So eindeutig ist in diesem Artikel für mich leider garnichts... (ausser dass das Unwinderscript Optimierungen jeglicher Art deaktiviert und sich die Performance bei NV dadurch stärker verändert als bei ATi)

http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/

Direkt unter der Grafik.

Und wenn du schon auf Verschwörungstheoriesuche bist: Wer sagt denn, daß nV die einzigen sind, die sowas machen?

StefanV
2003-10-21, 19:25:32
Original geschrieben von Sumpfmolch
1.die ati winkelabhängigkeit ist ja hardwarelimitiert oder ?
2. der "cheat" im ati AF ist eigentlich das nur bilineare filtern ab stage >0 ? (gilt nur für d3d)
3. dieser cheat kann durch erzwingen von full tri deaktiviert werden ?

1. jap, die ist HW Limitiert.
Demirug vermutete einst, daß ATI das gemacht hat, um Transistoren zu sparen und die 'Berechnung' für die Winkel recht einfach gehalten hat.

2. jap, aber nur, wenn man es per Panel 'erzwingt', wenn die AP selbst TriAF möchte, dann schauts so aus, wie es sollte...

3. dieser 'Cheat' kann z.B. durch Einstellung von AF in der Applikation 'umgangen' werden oder aber durch externe Tools bzw Eingriff in die Registry.

Tigerchen
2003-10-21, 20:10:23
Original geschrieben von LovesuckZ
Fakt ist, dass seit dem 44.03 (12. Mai) "Quality" bis auf UT2003 Standard ist.
Fakt ist, dass viele reviewer es nicht verstanden haben auf diese ungunst hinzuweisen und ATi's AF als Cheat zu deklarieren.
Fakt ist, dass das AF des 45.23 besser aussieht als das, was ATi je angeboten hat und jez anbietet.

ATI's AF ist kein Cheat sondern eine bewußte Designentscheidung.Das du dies nicht gut findest ist deine Meinung.Viele User kommen damit aber glänzend zurecht.Wenn das wirklich so schlecht wäre wie du es darstellest würden wohl viele Leute wutentbrannt zu nV wechseln.Tun sie aber nicht.Eher andersrum gelle?Also hat nVidia was falschgemacht.

LovesuckZ
2003-10-21, 20:13:09
Original geschrieben von Tigerchen

ATI's AF ist kein Cheat sondern eine bewußte Designentscheidung.

Bezweifelt das eina? nein, trotzdem bleibt es ein Cheat. Ich schon verwunderlich, wie man ein Cheat so schoen reden kann...

Gast
2003-10-21, 20:18:04
Tiger du bist mittlerweile auch nur noch FanATIker...schade...

StefanV
2003-10-21, 20:31:56
Original geschrieben von LovesuckZ
Bezweifelt das eina? nein, trotzdem bleibt es ein Cheat. Ich schon verwunderlich, wie man ein Cheat so schoen reden kann...

Nö, find ich nicht, denn damit es ein Cheat ist, muss erstmal 'vorgeschrieben' sein, wie AF auszusehen hat...
AFAIK gibts aber keine 'Spec' für AF, 'nur' für Tri...

Oder schreit irgendwer bei nVs 4x OGAA laut 'Cheat'??

Razor
2003-10-21, 20:45:48
Original geschrieben von Stefan Payne
Nö, find ich nicht, denn damit es ein Cheat ist, muss erstmal 'vorgeschrieben' sein, wie AF auszusehen hat...
AFAIK gibts aber keine 'Spec' für AF, 'nur' für Tri...
Ihr rafft es einfach nicht, oder ?

Mit den Cat's vor 3.2 war die Welt noch in Ordnung. Mit dem Cat3.2 allerdings hat ATI zulasten der BQ Performance geschunden -> Cheat. Das ist Fakt und da hilft auch kein Schönreden. Mit AA oder entsprechenden Hardwarelimitierungen hat das rein gar nichts zu tun, aber es ist schon bezeichnend, dass dies immer hervorgekramt wird, um das schlechtere AF der Radeons zu beschönigen.

Fakt ist auch, dass nVidia ebenso cheatet, wenn sie in den neuen Treibern (5x.xx) keine Option anbieten, die tri-Optimierung zu umgehen.

Cheat = zulasten der BQ die Performance zu heben.
Und senken der Quali heißt, dass diese schon mal besser gewesen war.

Mit den letzten offiziellen Treibern (45.23) cheatet nVidia in UT2003. ATI tut dies schon seit Cat3.2 und auch in allen D3D-Anwendungen.

Mehr gibt's dazu einfach nicht zu sagen.
Punkt.

Razor

Matrix316
2003-10-21, 20:50:45
Original geschrieben von Tigerchen

ATI's AF ist kein Cheat sondern eine bewußte Designentscheidung.

Das könnte man auch über die nvidia Treiber sagen...

Sumpfmolch
2003-10-21, 21:17:55
Original geschrieben von Razor
Ihr rafft es einfach nicht, oder ?

Mit den Cat's vor 3.2 war die Welt noch in Ordnung. Mit dem Cat3.2 allerdings hat ATI zulasten der BQ Performance geschunden -> Cheat. Das ist Fakt und da hilft auch kein Schönreden. Mit AA oder entsprechenden Hardwarelimitierungen hat das rein gar nichts zu tun, aber es ist schon bezeichnend, dass dies immer hervorgekramt wird, um das schlechtere AF der Radeons zu beschönigen.

Fakt ist auch, dass nVidia ebenso cheatet, wenn sie in den neuen Treibern (5x.xx) keine Option anbieten, die tri-Optimierung zu umgehen.

Cheat = zulasten der BQ die Performance zu heben.
Und senken der Quali heißt, dass diese schon mal besser gewesen war.

Mit den letzten offiziellen Treibern (45.23) cheatet nVidia in UT2003. ATI tut dies schon seit Cat3.2 und auch in allen D3D-Anwendungen.

Mehr gibt's dazu einfach nicht zu sagen.
Punkt.

Razor

ich denke ihr redet aneinander vorbei...der eine meint die winkelabhängigkeit und der andere (du) spricht die nur noch bi filter bei TS >0

ersteres ist meiner meinung nach kein cheat, letzteres schon....ich denke viele hatten gehofft endlich ein full tri kästchen in den d3d optionen zu finden :( (wenigstens kann man full tri noch mit externen tools erzwingen)

Sumpfmolch
2003-10-21, 21:19:03
Original geschrieben von Matrix316
Das könnte man auch über die nvidia Treiber sagen...

software ungleich hardware

LovesuckZ
2003-10-21, 21:21:22
Original geschrieben von Sumpfmolch
software ungleich hardware

Hardware nutzlos ohne Software

Sumpfmolch
2003-10-21, 21:27:32
Original geschrieben von LovesuckZ
Hardware nutzlos ohne Software

exakt...umso verwerflicher hardwareseitige möglichkeiten nicht mal optional per software zu unterstützen ;)

...nein spaß beiseite Matrix316 aussage würde so ziemlich alles rechtfertigen....sogar reines drahtgitter ;D

J@NuS
2003-10-21, 21:50:05
Geiles Ding!

Hier gehts ja schon wieder richtig rund! Ich lach mir ein und tapezier mir die Leiste(??). ...sorry...
Aber gut, dass wenn einer den Knochen ATI/NVIDIA hinwirft, die "Hunde" sich gleich draufstürzen.

Bis auf ein paar wirkliche gestreute "Realitäten" ist das mal wieder das reinste geflame hier: Nvidia hat aber hier, ja aber ATI die haben da, dafür hat Nvidia aber das, ja und ATI hat das, ne ATI hat das mal nicht und NVIDIA hat dafür das nicht. Mein Gott: Zwei Unternehmen, zwei Produkte mit unterschiedlichen Techniken und Treibern.

Ich für meinen Teil sehe da beim zoggn nicht viel ob die Pixel vor mir nun durchs Rektum dreimal quer gefiltert werden oder ob sie durchs linke Ohr ins rechte Auge hoch drei gefiltert sind. Ich sitz hier doch nicht mit ner Messonde und sach mir dann "Aha...der linke Fuss da hinten....der ist nicht ganz koscha dargestellt!", hey...NVIDIA bau er den Treiber um und bemüh er sich gefälligst!

Zwischen Det 45.33 und 52.16 seh ich keine Unterschiede in der Qualität, weder auf nem TFT (1280*1024*60Hz) noch auf nem Monitor (1600*1200*100Hz). Ansonsten denke ich, dass hier ein paar "ungefakte" Screenshots (nicht mit Paint gemalt!!) besser zur Verdeutlichung dienen würden, wie simpler Text.

So und jetzt zogg ich Max Payne 2 weiter!

...und das sind alles keine Cheats: Das sind Features!! :-)

Gruss
Timo aka J@NuS

StefanV
2003-10-21, 22:06:15
Original geschrieben von LovesuckZ
Hardware nutzlos ohne Software

...und unter D3D ists eigentlich auch nicht vorgesehen, daß AF vom Treiber geforct wird, ebenso beim FSAA...

Eigentlich ists vorgesehen, daß das von der AP bestimmt wird, wie gesagt, eigentlich...

Und eigentlich sollte man, wenn die Ap sagt 'das möcht ich haben' auch jenes liefern und nix anderes :eyes:

StefanV
2003-10-21, 22:08:12
Original geschrieben von Matrix316
Das könnte man auch über die nvidia Treiber sagen...

Nujo, einen Treiber kann man 'problemlos' umstricken, was bei der HW nicht wirklich leicht ist...

Xmas
2003-10-22, 02:20:34
Original geschrieben von Stefan Payne
Nujo, einen Treiber kann man 'problemlos' umstricken, was bei der HW nicht wirklich leicht ist...
Ob die Limitierung in Software oder Hardware vorliegt (was man sowieso nur selten mit Sicherheit sagen kann), spielt IMO bei der "Bewertung" keine Rolle.

Bei der Limitierung in Software gibt es zumindest die Aussicht auf Besserung, bei der in Hardware muss man auf die nächste Generation hoffen.

Hellknight[FA]
2003-10-22, 06:50:13
Original geschrieben von J@NuS
Geiles Ding!

Hier gehts ja schon wieder richtig rund! Ich lach mir ein und tapezier mir die Leiste(??). ...sorry...
Aber gut, dass wenn einer den Knochen ATI/NVIDIA hinwirft, die "Hunde" sich gleich draufstürzen.

Bis auf ein paar wirkliche gestreute "Realitäten" ist das mal wieder das reinste geflame hier: Nvidia hat aber hier, ja aber ATI die haben da, dafür hat Nvidia aber das, ja und ATI hat das, ne ATI hat das mal nicht und NVIDIA hat dafür das nicht. Mein Gott: Zwei Unternehmen, zwei Produkte mit unterschiedlichen Techniken und Treibern.

Ich für meinen Teil sehe da beim zoggn nicht viel ob die Pixel vor mir nun durchs Rektum dreimal quer gefiltert werden oder ob sie durchs linke Ohr ins rechte Auge hoch drei gefiltert sind. Ich sitz hier doch nicht mit ner Messonde und sach mir dann "Aha...der linke Fuss da hinten....der ist nicht ganz koscha dargestellt!", hey...NVIDIA bau er den Treiber um und bemüh er sich gefälligst!

Zwischen Det 45.33 und 52.16 seh ich keine Unterschiede in der Qualität, weder auf nem TFT (1280*1024*60Hz) noch auf nem Monitor (1600*1200*100Hz). Ansonsten denke ich, dass hier ein paar "ungefakte" Screenshots (nicht mit Paint gemalt!!) besser zur Verdeutlichung dienen würden, wie simpler Text.

So und jetzt zogg ich Max Payne 2 weiter!

...und das sind alles keine Cheats: Das sind Features!! :-)

Gruss
Timo aka J@NuS


;D :massa: :bier:

The_Invisible
2003-10-22, 08:25:13
Original geschrieben von J@NuS
Geiles Ding!

Hier gehts ja schon wieder richtig rund! Ich lach mir ein und tapezier mir die Leiste(??). ...sorry...
Aber gut, dass wenn einer den Knochen ATI/NVIDIA hinwirft, die "Hunde" sich gleich draufstürzen.

Bis auf ein paar wirkliche gestreute "Realitäten" ist das mal wieder das reinste geflame hier: Nvidia hat aber hier, ja aber ATI die haben da, dafür hat Nvidia aber das, ja und ATI hat das, ne ATI hat das mal nicht und NVIDIA hat dafür das nicht. Mein Gott: Zwei Unternehmen, zwei Produkte mit unterschiedlichen Techniken und Treibern.

Ich für meinen Teil sehe da beim zoggn nicht viel ob die Pixel vor mir nun durchs Rektum dreimal quer gefiltert werden oder ob sie durchs linke Ohr ins rechte Auge hoch drei gefiltert sind. Ich sitz hier doch nicht mit ner Messonde und sach mir dann "Aha...der linke Fuss da hinten....der ist nicht ganz koscha dargestellt!", hey...NVIDIA bau er den Treiber um und bemüh er sich gefälligst!

Zwischen Det 45.33 und 52.16 seh ich keine Unterschiede in der Qualität, weder auf nem TFT (1280*1024*60Hz) noch auf nem Monitor (1600*1200*100Hz). Ansonsten denke ich, dass hier ein paar "ungefakte" Screenshots (nicht mit Paint gemalt!!) besser zur Verdeutlichung dienen würden, wie simpler Text.

So und jetzt zogg ich Max Payne 2 weiter!

...und das sind alles keine Cheats: Das sind Features!! :-)

Gruss
Timo aka J@NuS

+++++++
wenigstens ein gescheiter Beitrag hier

es geht ja noch in ordnung das FanATIker sagen das ihre Karte schneller, besser, schöner ist, aber auch noch zu behaupten das keine "Optimierungen" im Spiel sind und es ein Feature ist geht auf keine kuhhaut mehr, da kann man nur ;D

mfg

Richthofen
2003-10-22, 08:25:32
"
Nur weil der R200 nicht in der Lage war tri AF zu bieten (HARDWARELIMITIERUNG!!!!) bzw der R300 nicht in der Lage ist ohne Winkelabhängigkeit zu filtern(wobei der Qualitätsverlust kaum sichtbar ist während sich die Leistung extrem verbessert, außerdem ebenfalls HArdwarelimitierung!!) von einen Cheat zu sprechen finde ich irgendwie . Oder behaupte ich NV cheatet beim AA weil sie die Abtastmuster nur geordert haben??
"

Es ist mir eigentlich völlig egal ob dass nun eine Designentscheidung war oder nicht um Transistoren zu spaaren oder was auch immer.

Mir gehts hier nicht nur um den Billinear Schrott vom R200 sondern generell um die Winkelabhängigkeit.
Es wurde BEWUSST eingespaart um zu mehr Performance auf Kosten der Bildqualität zu kommen.
Das ist für mich genauso ein Cheat wie der Scheiss den jetzt alle beim Mixed Mode oder den Filteroptimierungen im Treiber oder sonst wo bemängeln.
Den schwarzen Peter muss man hier eindeutig ATI zuschieben da gibts nichts zu entschuldigen.
Nvidia's AA kannst du hier schlecht dagegen stellen, weil Nvidia durch das schlechtere AA keine Performance gewinnt.
Die haben es einfach nicht verbessert und das AA ist für die derzeitigen Generationen einfach schlecht.

Das Quincunx könnte man als Cheat ansehen allerdings habe ich eben nach wie vor die Wahl. Wenn mir Quincunx nicht gefällt dann nehm ich eben 2x, 4x oder 4xS oder sonst was.
Bei ATIs AF habe ich keine Möglichkeit.
Das bleibt auf Kosten der BQ erkaufte Performance.

Insofern haben die sehr wohl mit dem Schwachsinn angefangen. Sie hätten es ja mit dem R300 abstellen können. Rohpower war doch genug da. Haben sie aber nicht. Sie haben nur die Billinear Schwäche abgestellt. Die miese Filterung bei bestimmten Winkeln ist nach wie vor vorhanden.
Das ist genau der selbe Scheiss den NV auch macht.

Und jetzt kommt mir bloß nicht mit Kommentaren wie "ich seh es nicht und blah...." Was man nicht sehen will sieht man in der Regel auch nicht.
Ich finds nur lustig wenn dort es niemand sehen will aber den Unterschied zwischen dem Mixed Mode und default FP24 will dann sofort jeder erkennen.....

Das war mein letztes Posting in dem Thread weils eh in einen Flamewar ausartet.
Ich find die Situation scheisse mit dieser ganzen Optimiererei bei den Filtern aber hier kann man wirklich mal festhalten, dass Nvidia in dem Bereich außnahmsweise mal Nachahmer ist, was trozdem nix drann ändert, dass ich die Sache zum kotzen finde.

Tigerchen
2003-10-22, 16:19:53
Original geschrieben von Matrix316
Das könnte man auch über die nvidia Treiber sagen...

Letztlich zählt es nur ob die Kunden zufrieden sind.Was die Fans der jeweiligen Gegenseite sagen ist irrelevant.

reunion
2003-10-22, 16:19:56
Original geschrieben von LovesuckZ
Fakt ist, dass seit dem 44.03 (12. Mai) "Quality" bis auf UT2003 Standard ist.
Fakt ist, dass viele reviewer es nicht verstanden haben auf diese ungunst hinzuweisen und ATi's AF als Cheat zu deklarieren.
Fakt ist, dass das AF des 45.23 besser aussieht als das, was ATi je angeboten hat und jez anbietet.

Fakt ist das das AF des Det 50 kein bißchen besser ist als das von ATI.(keine tri Texturfilterung, Stage 0 nur noch 2xAF,...)

reunion
2003-10-22, 16:29:20
Original geschrieben von J@NuS
Zwischen Det 45.33 und 52.16 seh ich keine Unterschiede

Ich zitier dir mal Richthofen:

[B]Original geschrieben von Richthofen
Und jetzt kommt mir bloß nicht mit Kommentaren wie "ich seh es nicht und blah...." Was man nicht sehen will sieht man in der Regel auch nicht.


Ich denke das erkläret alles ;)

Matrix316
2003-10-22, 18:40:20
Original geschrieben von Sumpfmolch
...nein spaß beiseite Matrix316 aussage würde so ziemlich alles rechtfertigen....sogar reines drahtgitter ;D

Ist zwar kein Drahtgitter, aber bei den speziellen CAD Karten (Quadro etc.) ist es ja beinah so...

J@NuS
2003-10-22, 19:46:14
Sehr geehrter Herr Richthofen (wurden sie nicht schon vor langer Zeit vom Himmel geknattert? ;o) ),

Anstatt zu sagen: Kommt mir nicht mit sieht man ja nicht, hau hier mal ein paar Screenshots (möglichst .gifs, welche min. 40fps pro sekunde darstellen) rein und erleuchte uns Blinden mit dem Unterschied in der Bildqualität!

Standbilder? Bitte...ich benutze meinen Monitor nicht als Pseudogemälde!

Achso..sollten auch Screenis von NVIDIA Chio-Chips sein.
Mit ner tiefergelegten ATI kann ich nicht dienen.

Also, her mit den Screenis, dann bin ich auch gern bereit zu sagen: Okay...sieht man ja doch, hatte wohl Schmalz vor der Glotzborke...vorher...nope!

Gruss und winke winke
Timo aka J@NuS

LovesuckZ
2003-10-22, 19:48:39
J@NuS,

Richthofen geht es dadrum, dass man durch das alleinige Argument "ich seh nix - also ist es nix boeses" nicht alles legalisieren koenne.

J@NuS
2003-10-22, 20:20:42
Ist schon klar; bleibt nur die Frage, ab wann es denn illegal wird? Bei entstehenden Schäden? Welchen? Verkrümmung der Netzhaut? Oder wenn alle 2fps ein Werbebanner eingeblendet wird, welches nur Dein Hirn realisiert?

Ich bezweifle, dass man in einem öffentlichen Forum so diskutieren kann, dass es wirklich zu Übereinstimmungen kommt. Auch wenn gute Beiträge von Anhängern beider Seiten (Allianz und Imperium...äh...Nvidia und ATI)hier eingetragen sind. Somit ist das hier (gerade in diesem Thread)nur Informationsgewinnung über Technik von der man vorher nix wusste (einige habens hier nämlich drauf) bzw. fun. Daher....nothing personal, just joking.

...finde die Idee aber gut, Treiber anzubieten, bei denen der User letztendlich entscheiden kann ob er mit oder ohne Optimierungen zoggn möchte. Wenn das möglich ist, wird aus dem "Cheat" ein Feature.

Gruss
Timo aka J@NuS

reunion
2003-10-22, 20:48:12
Original geschrieben von J@NuS
Ist schon klar; bleibt nur die Frage, ab wann es denn illegal wird?


Meinermeinug ist jede verschlechterung der Bildqualität obwohl man mehr bieten könnte "illegal", egal inwieweit man das ganze jetzt sieht oder nicht...

...finde die Idee aber gut, Treiber anzubieten, bei denen der User letztendlich entscheiden kann ob er mit oder ohne Optimierungen zoggn möchte. Wenn das möglich ist, wird aus dem "Cheat" ein Feature.

Gruss
Timo aka J@NuS

Genau das ist aber eben beim Deto. 50 nicht der Fall ;)

Gast
2003-10-22, 21:24:05
Original geschrieben von Razor
"Einer fängt an, der andere zieht nach..."
:D

Es müsste heißen "Einer fängt an, der andere zieht nach und muss bis zur grenzenlose übertreiben..."
:D

Razor
2003-10-22, 22:28:58
Original geschrieben von reunion
Meinermeinug ist jede verschlechterung der Bildqualität obwohl man mehr bieten könnte "illegal", egal inwieweit man das ganze jetzt sieht oder nicht...
Somit schließt Du die Cata's von ATI mit ein ?
Original geschrieben von reunion
Genau das ist aber eben beim Deto. 50 nicht der Fall ;)
Wie auch bei allen offiziellen Cata's seit und inklusive 3.2.

Razor

P.S.: Vielleicht akzeptierst Du zumindest Deine eigenen Worte...
:D

Razor
2003-10-22, 22:32:00
Original geschrieben von Gast
Es müsste heißen "Einer fängt an, der andere zieht nach und muss bis zur grenzenlose übertreiben..."
:D
"Grenzenlos" ?
:???:

ATI filtert auf TS1-7 (welche bei einigen Games durchaus sichtbar sind) lediglich bilinear, woduch MipMap-Banding entstehen kann. nVidia filtert hier immerhin noch pseudo-trilinear (schöner Kunstbegriff, nicht wahr ;-) und damit besser, als ATI. Auf TS0 filtert dann ATI besser...

Wenn man bei der ganzen Betrachtung mal aussen vor läßt, dass man derzeit noch inoffizielle Treiber mit offiziellen vergleicht. Aber das macht den Kohl ja auch nicht mehr fett, gell ?
;-)

Razor

Gast
2003-10-22, 23:01:00
Original geschrieben von Razor
"Grenzenlos" ?
:???:

ATI filtert auf TS1-7 (welche bei einigen Games durchaus sichtbar sind) lediglich bilinear, woduch MipMap-Banding entstehen kann. nVidia filtert hier immerhin noch pseudo-trilinear (schöner Kunstbegriff, nicht wahr ;-) und damit besser, als ATI. Auf TS0 filtert dann ATI besser...

Wenn man bei der ganzen Betrachtung mal aussen vor läßt, dass man derzeit noch inoffizielle Treiber mit offiziellen vergleicht. Aber das macht den Kohl ja auch nicht mehr fett, gell ?
;-)

Razor

...war ja klar...zum thema aa von nVidia gibts natürlich nichts, gelle ?? ...aber das ach so miese af von ati...boah, es grenzt bei dir wirklich schon an einem wunder, wieso du nie das aa von nVidia kommentierst aber was solls... :(

reunion
2003-10-22, 23:08:24
Original geschrieben von Razor
Somit schließt Du die Cata's von ATI mit ein ?

Wie auch bei allen offiziellen Cata's seit und inklusive 3.2.

Razor

P.S.: Vielleicht akzeptierst Du zumindest Deine eigenen Worte...
:D

Na klar schließ ich ATI mit ein, allerdings hat NV das ganze wohl hoffnugslos übertrieben...
Außerdem ist es mir da ziemlich egal da ich es ja problemlos umgehen kann.

Razor
2003-10-22, 23:21:26
Original geschrieben von Gast
...war ja klar...zum thema aa von nVidia gibts natürlich nichts, gelle ?? ...aber das ach so miese af von ati...boah, es grenzt bei dir wirklich schon an einem wunder, wieso du nie das aa von nVidia kommentierst aber was solls... :(
Das eine hat mit anderen rein gar nichts zu tun...
Oder soll ich jetzt die Winkelabhängigkeit von ATI's AF in's Feld führen, oder gar Probleme mit der Gammakorrektur und eigenen Gamma-Einstellungen ?

Aber ich werde auf diesen Quatsch nicht weiter eingehen, denn es gibt einen Unterschied zwischen Hardware-Implementierungen und Software-'Modifikationen'.

Wer den nicht kennt oder nicht wahr haben will, diesen evtl. sogar nicht einmal wahr haben will, der tut mir einfach nur leid.

Razor

Gast
2003-10-23, 00:04:32
Original geschrieben von Razor
Das eine hat mit anderen rein gar nichts zu tun...
Oder soll ich jetzt die Winkelabhängigkeit von ATI's AF in's Feld führen, oder gar Probleme mit der Gammakorrektur und eigenen Gamma-Einstellungen ?

Aber ich werde auf diesen Quatsch nicht weiter eingehen, denn es gibt einen Unterschied zwischen Hardware-Implementierungen und Software-'Modifikationen'.

Wer den nicht kennt oder nicht wahr haben will, diesen evtl. sogar nicht einmal wahr haben will, der tut mir einfach nur leid.

Razor

Mach nur ruhig.... ich kann auch so paar sachen in den raum werfen, wie 'bildqualität, ps 2.0 leistung, fx ausbau schwierigkeiten, treiber probleme, leistung ohne cheaten/optimierungen, bestechungen und und und'.... !!

fakt ist, dass das aa von nVidia viel schlimmer aussieht, als das von ati aber das af von ati gegenüber das af von nVidia nicht, ausserdem gibt es einstellungsmöglichkeiten, was nVidia (sollte es so bleiben, wie in den beta detonatoren 5.x) nicht bieten wird...

ähm, was meinste mit quatsch ??

Razor
2003-10-23, 00:08:05
Original geschrieben von Gast
Mach nur ruhig.... <...schnipps...>
Werd' ich auch !
Und zu dem Rest sag' ich lieber nichts...
:D

Gut nächtle.

Razor

Riptor
2003-10-23, 01:29:58
Original geschrieben von J@NuS
...finde die Idee aber gut, Treiber anzubieten, bei denen der User letztendlich entscheiden kann ob er mit oder ohne Optimierungen zoggn möchte. Wenn das möglich ist, wird aus dem "Cheat" ein Feature.

Da ist allerdings was Wahres dran, sowas könnte man auch wunderbar vermarkten! :) Man sollte halt möglichst nicht das "C"-Wort verweden, aber wie wärs mit "Boost-Modus" oder "Optimisation Modus"? Irgend so etwas in der Art. Fänd ich persönlich nicht schlecht, vorrausgesetzt, man hat die Wahl zur total guten Bildqualität!

PS: Woher hat eigentlich Razor so viel Ahnung von den Radeons? Zockt er doch heimlich mit einer Radeon? :D ;)

StefanV
2003-10-23, 10:21:10
Original geschrieben von reunion
Na klar schließ ich ATI mit ein, allerdings hat NV das ganze wohl hoffnugslos übertrieben...
Außerdem ist es mir da ziemlich egal da ich es ja problemlos umgehen kann.

Razor, du vergisst eine kleinigkeit:

Bei ATI sind Treiber und Panel NICHT eine Einheit, da du das Panel seperat installieren 'darfst'

Desweiteren gibts im Treiber immer noch die Option, full Tri AF zu aktivieren, wobei es unter D3D auch nicht wirklich vorgesehen ist, den Filter zu forcen...

Das, was nV gemacht hat, ist da noch viel schlimmer, da man es bei denen die 'Optimierung' des Deto50 nicht deaktvieren kann...

Razor
2003-10-23, 10:37:28
Original geschrieben von Stefan Payne
Razor, du vergisst eine kleinigkeit:
Nö.
Original geschrieben von Stefan Payne
Bei ATI sind Treiber und Panel NICHT eine Einheit, da du das Panel seperat installieren 'darfst'
Na klasse...
Entweder den CP-'Salat', oder gar kein Panel.
Toll !
;-)
Original geschrieben von Stefan Payne
Desweiteren gibts im Treiber immer noch die Option, full Tri AF zu aktivieren, wobei es unter D3D auch nicht wirklich vorgesehen ist, den Filter zu forcen...
Nein, gibt es nicht.
Dies ist nur per Registery-Hack möglich.
Und wer sagt, dass dies mit den Deto52.xx nicht möglich ist ?
Oder gab's den rTuner schon seit Cat3.2 ?
:???:
Original geschrieben von Stefan Payne
Das, was nV gemacht hat, ist da noch viel schlimmer, da man es bei denen die 'Optimierung' des Deto50 nicht deaktvieren kann...
So ein quatsch.
Beide cheaten !
Der eine ganz offiziell, der andere derzeit noch inoffiziell (von UT2003 mal abgesehen ;-).

Razor

Razor
2003-10-23, 10:42:44
Original geschrieben von Riptor
Da ist allerdings was Wahres dran, sowas könnte man auch wunderbar vermarkten! Man sollte halt möglichst nicht das "C"-Wort verweden, aber wie wärs mit "Boost-Modus" oder "Optimisation Modus"? Irgend so etwas in der Art. Fänd ich persönlich nicht schlecht, vorrausgesetzt, man hat die Wahl zur total guten Bildqualität!
Gibt es doch !
(bzw. gab es mal ;-)

nVidia braucht nur wieder die 'alte' CP-Einstellung zu benutzen:
- Performance (meinetwegen auch 'Boost-Modus' oder 'Super-High-Performance' ;-)
- Quality (früher 'Balanced')
- Application

Und schon wär die Welt wieder in Ordung.
Voraussetzung ist allerdings, dass kein Reviewer dann ATI-'Quality' gegen nVidia 'Application' bencht, denn das wäre dann absolut unzulässig, weil dann tatsächlich Äpfel mit Birnen vergleichen werden.
(und wehe, hier kommt jetzt wieder jemand mit "aber AA" ;D)
Original geschrieben von Riptor
PS: Woher hat eigentlich Razor so viel Ahnung von den Radeons? Zockt er doch heimlich mit einer Radeon? :D ;)
Ab und zu teste ich damit ein bissel rum, wenn der Kollege darauf verzichten kann.
Aber sonderlich viel Neues ist da ja nicht zu entdecken...
Klar, es werden mehr und mehr Fehler beseitigt... und neue kommen hinzu.
*ocl*

Razor

StefanV
2003-10-23, 11:11:05
Original geschrieben von Razor
Nein, gibt es nicht.
Dies ist nur per Registery-Hack möglich.
Und wer sagt, dass dies mit den Deto52.xx nicht möglich ist ?
Oder gab's den rTuner schon seit Cat3.2 ?
:???:

So ein quatsch.
Beide cheaten !
Der eine ganz offiziell, der andere derzeit noch inoffiziell (von UT2003 mal abgesehen ;-).

Razor

1. Razor, ich sagte im TREIBER ists Möglich Full Tri, Partial Tri und Bi zu aktivieren, das Panel ist eine andere geschichte.
Außerdem kann mans auch per App fordern, dann ists auch Tri...
Und was sagt M$??
Richtig, FSAA und AF sollte man per APP aktivieren und NICHT per Treiberpanel...
Im ATI Treiber wird nicht gecheatet, das Panel ist eine andere Sache!!

2. nö, nix quatsch!
Wenn ich weiß, daß das so ist und wie ich es deaktivieren kann und beim anderen ists so und man kann nix machen, dann ists ein großer Unterschied, sogar ein gewaltiger...

Hellknight[FA]
2003-10-23, 11:26:51
Der NV3x beherrscht zwar pures Tri/AF, jedoch wird dies von NV im Deto 5x.xx wieder "verwässert" um hohe Geschwindigkeiten zu erzielen. Da bei NV auf dem (Hardware-) Datenblatt wahrscheinlich immer noch pures AF angegeben ist, stinkt das zumindest in diesem Falle nach Cheat (5x.xx).

ATi's Hardware lässt einfach nicht die selbe Quali (wenn ich das jetzt mal so sagen darf) beim AF zu wie NV's und dies kann man auch nicht per Treiber rauskitzeln, ergo cheatet ATi zumindest beim AF net.


Ein einfaches Beispiel:

Cheatet oder hat 3DFx gecheatet weil sie mit dem Voodoo 3 Benchmarks nur in 16bpp hingekriegt haben, während die Konkurenz schon bei 32bpp wahr? Ich denke nicht, da es einfach eine Hardwarelimitierung war, welche nicht durch Treiber auszubügeln war :D


Greetings

Timo

Razor
2003-10-23, 12:08:22
Original geschrieben von Hellknight[FA]
Der NV3x beherrscht zwar pures Tri/AF, jedoch wird dies von NV im Deto 5x.xx wieder "verwässert" um hohe Geschwindigkeiten zu erzielen. Da bei NV auf dem (Hardware-) Datenblatt wahrscheinlich immer noch pures AF angegeben ist, stinkt das zumindest in diesem Falle nach Cheat (5x.xx).
Soweit, so gut.
Voraus gesetzt natürlich, dass es einen in dieser Art ausgeprägten Referenz-Treiber geben wird...
(wovon ich ausgehe ;-)
Original geschrieben von Hellknight[FA]
ATi's Hardware lässt einfach nicht die selbe Quali (wenn ich das jetzt mal so sagen darf) beim AF zu wie NV's und dies kann man auch nicht per Treiber rauskitzeln, ergo cheatet ATi zumindest beim AF net.
Natürlich könnte man auch bei ATI die volle tri/AF-Filterung auf allen TS via CP erzwingen, man tut es aber nicht und schaltet selbst bei 'Quality' in den Stages >0 auf bilinear um -> Cheat (weil's vorher möglich war und auch 'Quality' hieß ;-)
Original geschrieben von Hellknight[FA]
Ein einfaches Beispiel:

Cheatet oder hat 3DFx gecheatet weil sie mit dem Voodoo 3 Benchmarks nur in 16bpp hingekriegt haben, während die Konkurenz schon bei 32bpp wahr? Ich denke nicht, da es einfach eine Hardwarelimitierung war, welche nicht durch Treiber auszubügeln war :D
Dann meinst Du also die Winkelabhängigkeit bei ATI ?
Ob dafür der Treiber verantworlich ist, oder die Hardware, muss sich erst noch heruas stellen...
Aber das war eigentlich nicht mein Anliegen !

Mir ging es um die verbesserung der Perofrmance zu Lasten der BQ bei ATI mit dem Cat3.2. Und dieser Cheat ist noch immer in den aktuellen Treibern vorhanden...

Wenn also das, was nVidia mit dem tri/AF macht, ein Cheat ist, dann ist das, was ATI damit seit Cat3.2 treibt, ebenfalls einer... oder habe ich da irgendetwas in Deiner Argumentation übersehen ?
:???:

Razor

Hellknight[FA]
2003-10-23, 12:32:47
Original geschrieben von Razor
Soweit, so gut.
Voraus gesetzt natürlich, dass es einen in dieser Art ausgeprägten Referenz-Treiber geben wird...
(wovon ich ausgehe ;-)

Natürlich könnte man auch bei ATI die volle tri/AF-Filterung auf allen TS via CP erzwingen, man tut es aber nicht und schaltet selbst bei 'Quality' in den Stages >0 auf bilinear um -> Cheat (weil's vorher möglich war und auch 'Quality' hieß ;-)

Dann meinst Du also die Winkelabhängigkeit bei ATI ?
Ob dafür der Treiber verantworlich ist, oder die Hardware, muss sich erst noch heruas stellen...
Aber das war eigentlich nicht mein Anliegen !

Mir ging es um die verbesserung der Perofrmance zu Lasten der BQ bei ATI mit dem Cat3.2. Und dieser Cheat ist noch immer in den aktuellen Treibern vorhanden...

Wenn also das, was nVidia mit dem tri/AF macht, ein Cheat ist, dann ist das, was ATI damit seit Cat3.2 treibt, ebenfalls einer... oder habe ich da irgendetwas in Deiner Argumentation übersehen ?
:???:

Razor

Ja - ich meinte die Winkelabhängigkeit - weil hier manche mosern, dass ATi bei tri/AF auch cheaten würde. Meiner Meinung tun sie das net - da (ebenfalls meiner Meinung nach) eine Hardwarebeschränkung vorliegt.

NV's Hardware würde dagegen (lt. Datenblatt) "volles" tri/AF zulassen, was allerdings durch die Treiber (ab 50.xx vereitelt wird um mehr Speed zu erzielen. Da NV aber kaum ihr Datenblatt für den Deto ändern werden ist's für mich ein Cheat.

Ob jetzt die allgemeine Bildquali bei ATi-Grakas seit dem Catalyst 3.2 runtergegangen ist vermag ich nicht zu beurteilen (zumindest am PC meines Bruders war die Quali in meinen Augen immer gleich gut). Sollte dies aber der Fall sein, so handelt es sich natürlich auch um einen "Cheat" (besser wäre wohl "leistungsfördernde Maßnahme", da der Begriff "Cheat" ja eher auf spezielle Benchmark-Optimierungen zutrifft, ohne die Grafik-Leistung beim Zocken von Spielen zu erhöhen).


Ich hoffe dass ich hiermit einige Unklarheiten in meinem vorigen Posting beseitigen konnte :D ;)


Greetings

Timo

Szilard
2003-10-23, 13:18:05
Eine Frage! Wir wissen ja, dass das AA von Nvidia, nicht besonders eine hervorragende "Kantenglättung" hat, kann man dies per Software/Treiber/Einstellungen umgehen (damit es vielleicht auf ATI niveau ist) oder ist das eine Hardware Limitierung (keine Chance etwas dran zu ändern)?Würde mich wirklich brennend interessieren!

Vielen Dank im voraus.

Exxtreme
2003-10-23, 13:19:18
Original geschrieben von Szilard
Eine Frage! Wir wissen ja, dass das AA von Nvidia, nicht besonders eine hervorragende "Kantenglättung" hat, kann man dies per Software/Treiber/Einstellungen umgehen (damit es vielleicht auf ATI niveau ist) oder ist das eine Hardware Limitierung (keine Chance etwas dran zu ändern)?

Vielen Dank im voraus.
Es ist eine HW-Limitierung.

Razor
2003-10-23, 13:48:04
Original geschrieben von Hellknight[FA]
Ich hoffe dass ich hiermit einige Unklarheiten in meinem vorigen Posting beseitigen konnte :D ;)Jain.
:D

Zu dem hier nicht genannten ist eigentlich nur zu sagen: Du verwechselst da was.
Die Winkelabhängigkeit bei ATI ist vermutlich eine Hardwarelimitierung, die bilineare Filterung auf den Stages >0 im 'Quality' Mode nicht...
Original geschrieben von Hellknight[FA]
Ob jetzt die allgemeine Bildquali bei ATi-Grakas seit dem Catalyst 3.2 runtergegangen ist vermag ich nicht zu beurteilen (zumindest am PC meines Bruders war die Quali in meinen Augen immer gleich gut). Sollte dies aber der Fall sein, so handelt es sich natürlich auch um einen "Cheat" (besser wäre wohl "leistungsfördernde Maßnahme", da der Begriff "Cheat" ja eher auf spezielle Benchmark-Optimierungen zutrifft, ohne die Grafik-Leistung beim Zocken von Spielen zu erhöhen).OK, dann 'cheatet' nVidia also gar nicht mehr, oder ?

"Schließlich ist aus dem ursprünglichen UT2003-Cheat nun eine "leistungsfördernde Maßnahme" für alle D3D-Games geworden. Insofern führen hier also beide IHV's 'nur' "leistungsfördernde Maßnahmen" durch und cheaten kein bischen mehr..."

Zuvor gesagtes ist lediglich eine Interpretation des von Dir gesagten.
Meinst Du das tatsächlich so ?
:???:

Razor

Hellknight[FA]
2003-10-23, 15:10:56
Original geschrieben von Razor
Jain.
:D

Zu dem hier nicht genannten ist eigentlich nur zu sagen: Du verwechselst da was.
Die Winkelabhängigkeit bei ATI ist vermutlich eine Hardwarelimitierung, die bilineare Filterung auf den Stages >0 im 'Quality' Mode nicht...
OK, dann 'cheatet' nVidia also gar nicht mehr, oder ?

"Schließlich ist aus dem ursprünglichen UT2003-Cheat nun eine "leistungsfördernde Maßnahme" für alle D3D-Games geworden. Insofern führen hier also beide IHV's 'nur' "leistungsfördernde Maßnahmen" durch und cheaten kein bischen mehr..."

Zuvor gesagtes ist lediglich eine Interpretation des von Dir gesagten.
Meinst Du das tatsächlich so ?
:???:

Razor

Ich denke mal UT2k3 ist im Falle von NVidia ein "Cheat" da der Treiber das Spiel "erkennt" und - egal ob nun (bei "Application") im UT2k3-Menü Trilineare Filterung angewählt wird oder net. Wenn ich im Treiber Application auswähle, erwarte ich, dass das Filtering, welches ich im Spiel auswähle auch wirklich "trilinear" ist und kein Mischmasch.

UT2k3 ist hier sicherlich eine populäre Ausnahme und nimmt daher im Falle von NV eine "Sonderstellung" ein. Das "Application"-Setting scheint ja bei anderen Spielen so zu funzen wie gewünscht (falls man die Filterung im Spiel selbst einstellen kann).

Bei UT2k3 versucht NV meiner Meinung nach einfach etwas vorzugeben, was im Spiel dann doch net der Fall ist (man soll es aber annehmen :D).


Greetings

Timo

p.s. und jetzt dränge mich bitte nicht NOCH weiter in die Ecke, Razor :D ;)

Razor
2003-10-24, 12:24:15
Original geschrieben von Hellknight[FA]
Ich denke mal UT2k3 ist im Falle von NVidia ein "Cheat" da der Treiber das Spiel "erkennt" und - egal ob nun (bei "Application") im UT2k3-Menü Trilineare Filterung angewählt wird oder net. Wenn ich im Treiber Application auswähle, erwarte ich, dass das Filtering, welches ich im Spiel auswähle auch wirklich "trilinear" ist und kein Mischmasch.
Was alles eben nur für den 'alten' offiziellen Treiber (45.23) gilt...
Mit dem 52.16 ist es nun eine "Designentscheidung" und damit für ALLE D3D-Applikationen gültig.

Ergo ist es nach Deiner Definition doch kein Cheat mehr, oder ?
Ich persönlich sehe das ganz anders...
Original geschrieben von Hellknight[FA]
UT2k3 ist hier sicherlich eine populäre Ausnahme und nimmt daher im Falle von NV eine "Sonderstellung" ein. Das "Application"-Setting scheint ja bei anderen Spielen so zu funzen wie gewünscht (falls man die Filterung im Spiel selbst einstellen kann).
Nein, mit den 5x.xx eben nicht mehr...
Original geschrieben von Hellknight[FA]
Bei UT2k3 versucht NV meiner Meinung nach einfach etwas vorzugeben, was im Spiel dann doch net der Fall ist (man soll es aber annehmen :D).
Nein, bei UT2003 hat nVidia nur mit ATI 'gleich gezogen'...
;-)
Original geschrieben von Hellknight[FA]
p.s. und jetzt dränge mich bitte nicht NOCH weiter in die Ecke, Razor :D ;)
Nicht doch...
Nur vermute ich, dass Du da irgendwie auf dem Holzweg bist.

Razor

Gast
2003-10-24, 12:43:55
hast du schon den deto 52.16 forceware gebencht, razor ?? bitte mach das mal, dann kann ich sehen ob sich ein treiber upgrade lohnt, danke:)

Hellknight[FA]
2003-10-24, 13:31:58
Original geschrieben von Razor
Was alles eben nur für den 'alten' offiziellen Treiber (45.23) gilt...
Mit dem 52.16 ist es nun eine "Designentscheidung" und damit für ALLE D3D-Applikationen gültig.

Ergo ist es nach Deiner Definition doch kein Cheat mehr, oder ?
Ich persönlich sehe das ganz anders...

Nein, mit den 5x.xx eben nicht mehr...

Nein, bei UT2003 hat nVidia nur mit ATI 'gleich gezogen'...
;-)

Nicht doch...
Nur vermute ich, dass Du da irgendwie auf dem Holzweg bist.

Razor

Sollte das mit dem 5x.xx tatsächlich so stimmen wie Du sagst, so bin ich natürlich von falschen Aspekten ausgegangen - aber dazu sind Diskussionsforen da :D ;)

Greetings

Timo

Razor
2003-10-24, 14:08:46
Original geschrieben von Gast
hast du schon den deto 52.16 forceware gebencht, razor ?? bitte mach das mal, dann kann ich sehen ob sich ein treiber upgrade lohnt, danke:)
Warum sollte was bei den 52.16 von nVidia anders sein, als mit den 52.16 von Fujitsu-Siemens ?
:???:
Original geschrieben von Gast
Sind mit dem 52.16 die Fog Fehler in JK3 Academie behoben ?
Also hier dann mal das, was ich dazu in 'nem anderen Thread schrieb:
--------------------------------------------------------------------------

Ähmm...
Original geschrieben von Razor
Wie gesagt, dieser Treiber hat nun den letzten kleinen Funken gebracht und mir JK3 in voller Pracht kredenzt. Wenn man also nun noch die ganzen anderen Vorteile der 5x.xx in Betracht zieht und vorerst (!) mit der tri/AF-'Optimierung' leben kann, gibt's ein eindeutiges
GO !für diesen Treiber...(klick mich ;-) (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1293431#post1293431)

Razor

Razor
2003-10-24, 14:10:37
Original geschrieben von Hellknight[FA]
Sollte das mit dem 5x.xx tatsächlich so stimmen wie Du sagst, so bin ich natürlich von falschen Aspekten ausgegangen - aber dazu sind Diskussionsforen da :D ;)

Greetings

Timo
Was natürlich nichts daran ändert, dass diese 'Optimierung' Sch...e ist !
Bei beiden IHV's...

Hoffentlich gibt's bei den neuen Deto's bald 'nen Reg-Tweak, mit dem sich das abstellen läßt (für OGL gibt's einen Parameter, der dies beeinflussen kann, obwohl es da per Defualt NICHT aktiviert ist).

Razor

Mr. Lolman
2003-10-24, 14:44:48
Original geschrieben von Razor
... obwohl es da per Defualt NICHT aktiviert ist).
Razor


Das kommt schon noch. Der Regkey für die TS war bei ATi auch schon im Cat. 3.0 vorhanden... :D

tb
2003-10-24, 15:23:02
Original geschrieben von Stefan Payne
Nö, find ich nicht, denn damit es ein Cheat ist, muss erstmal 'vorgeschrieben' sein, wie AF auszusehen hat...
AFAIK gibts aber keine 'Spec' für AF, 'nur' für Tri...


Nehmen wir einfach Microsoft's Referenz Rasterizer, welcher nunmal die min. Qualität für D3D vorgibt. Leider hat es MS versäumt, Bildqualitätsrichtlinien zu fordern. Somit optimieren beide Hersteller(ATi und NVIDIA). NVIDIA optimiert zusätzlich noch beim tri. Filtern.

http://tommti-systems.de/main-Dateien/reviews/gffx5950u/gffx3.html

Thomas

Coolj100
2003-10-24, 15:48:25
Original geschrieben von Razor
"Einer fängt an, der andere zieht nach..."
:D

Oder warum sollte nVidia den diesbezüglichen Performance-Nachteil seit Cat3.2 einfach hinnehmen ?
Aber klar, beide sollten damit aufhören !
*hmpf*

Die TS>0-Geschichte würd' ich ja noch durchgehen lassen (ATI filtert dort nur bilinear), aber auf TS0 nicht mehr trilinear zu filtern (nennt sich jetzt 'pseudo-trilinear') ist schon hart...

Mal schaun', ob ein offizieller Referenz-Treiber da noch was reißt.
Glauben tue ich daran allerdings nicht mehr so ganz...

Razor

:abgel:

Wenn man die bildquali der catalyst mit den der deto. 5x.xx vergleicht, dann verliert ganz klar die deto treiber dieses duell.

Immerhin ist das optimieren von ati nicht in der bildquali zu sehen(mit dem blossen auge) und ati optimiert auch nur minimal. Wenn ich mich an den 44.xx erinnere hatte man mit dem treiber auf einmal bei 01/03er bench auf einmal 2xxx/12xx punkte mehr und mit dem 5x.xx er treiber ist es auch nicht besser gewesen.

Und trotz des extremen optimierens ist man nicht schneller gewesen, als ne ati.

Bitte lasst euren frust nicht an dem im moment einfach besseren konkurrenten ati aus.

Razor
2003-10-24, 15:52:27
Original geschrieben von Mr. Lolman
Das kommt schon noch. Der Regkey für die TS war bei ATi auch schon im Cat. 3.0 vorhanden... :D
Dieser Analogie zur Folge müsste man diese Form der 'Optimierung' dann ja auch in der Registery abstellen können, oder ?
:D

Razor

Razor
2003-10-24, 15:57:03
Original geschrieben von Coolj100
Wenn man die bildquali der catalyst mit den der deto. 5x.xx vergleicht, dann verliert ganz klar die deto treiber dieses duell.
Tut er nicht...
Siehe die ganzen Tests und Reviews zu dem FX5700/5950-Launch.
Original geschrieben von Coolj100
Immerhin ist das optimieren von ati nicht in der bildquali zu sehen und ati optimiert auch nur minimal. Wenn ich mich an den 44.xx erinnere hatte man mit dem treiber auf einmal bei 01/03er bench auf einmal 2xxx/12xx punkte mehr und mit dem 5x.xx er treiber ist es auch nicht besser gewesen.
Dann zeig mir mal beim 01/03'er nur eine einzige sichtbare Form der Optimierung bei NV.

Auch lehnt sich nVidia derzeit sehr weit aus dem Fenster und behauptet JEGLICHE applikations-spezifische Form der Optimierung entfern zu haben (deswegen ja auch leider die D3D-tri/AF Optimierung für ALLE *grmpf*)
Original geschrieben von Coolj100
Und trotz des extremen optimierens ist man nicht schneller gewesen, als ne ati.
Hab ich da was verpaßt ?
Oder hast Du vielleicht jegliche diesbezüglichen Tests 'übersehen' ?
;-)
Original geschrieben von Coolj100
Bitte lasst euren frust nicht an dem im moment einfach besseren konkurrenten ati aus.
Das ist kein Frust, sondern berechtigte Kritik... an beiden !

Razor

Coolj100
2003-10-24, 16:30:13
Original geschrieben von Razor
Tut er nicht...
Siehe die ganzen Tests und Reviews zu dem FX5700/5950-Launch.

Dann zeig mir mal beim 01/03'er nur eine einzige sichtbare Form der Optimierung bei NV.

Auch lehnt sich nVidia derzeit sehr weit aus dem Fenster und behauptet JEGLICHE applikations-spezifische Form der Optimierung entfern zu haben (deswegen ja auch leider die D3D-tri/AF Optimierung für ALLE *grmpf*)

Hab ich da was verpaßt ?
Oder hast Du vielleicht jegliche diesbezüglichen Tests 'übersehen' ?
;-)

Das ist kein Frust, sondern berechtigte Kritik... an beiden !

Razor

Berechtigte kritik wäre wenn du schreben würdest ati optimiert zwar(das habe ich ja auch nicht abgestritten), aber nv übertreibt es mit dem optimieren.

Hier sind nur paar tests mit den detos(könnte noch tausend seiten finden und hier rein posten),

http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/index4.php

http://www.3dcenter.de/artikel/detonator_52.14/

Und hier ein test der fx5950,

http://www.tomshardware.de/graphic/20031023/index.html

Und obwohl die tomshardware seite ein nv arschkriecher ist gewinnt hier die xt fast immer gegen die fx5950

Razor
2003-10-24, 16:54:59
Was die BQ angeht rede ich hier von den Zig-Reviews zu den neuen nVidia's...
... und nicht von 'alten' 3DCenter-Artikeln (die ich selbstredend kenne ;-).

Und mit dem THG-Artikel hast Du genau einen heraus gepickt, bei dem die R98XT tatsächlich mal ein bissel besser dasteht.

Aber wo Du schon 3DC favorisierst, halte ich es ebenso:
Sicherlich interessanter ist nun der Vergleich GeForceFX 5950 Ultra vs. Radeon 9800XT, also der beiden neuen HighEnd-Lösungen: Nach der Betrachtung von unzähligen heute veröffentlichten Benchmarks sehen wir aber wieder nur einen Gleichstand zwischen ATi und nVidia. Auch wenn der eine oder andere der heute veröffentlichen Tests womöglich mehr in die eine oder andere Richtung tendiert, so gleicht sich das Bild insgesamt gesehen wohl doch aus ...
Wie dem auch sei...
nVidia trixt nun genauso an der BQ, wie auch ATI.
Ich bin der Meinung, beide sollten SOFORT damit aufhören !

Und auch wenn Du es nicht glaubst, die ATI-BQ war damals mit ein Hauptgrund, mich NICHT für ATI zu entscheiden. Was sich derzeit aber fast relativert hat...
;-)

Razor

Coolj100
2003-10-24, 17:09:45
Original geschrieben von Razor
Was die BQ angeht rede ich hier von den Zig-Reviews zu den neuen nVidia's...
... und nicht von 'alten' 3DCenter-Artikeln (die ich selbstredend kenne ;-).

Und mit dem THG-Artikel hast Du genau einen heraus gepickt, bei dem die R98XT tatsächlich mal ein bissel besser dasteht.

Aber wo Du schon 3DC favorisierst, halte ich es ebenso:

Wie dem auch sei...
nVidia trixt nun genauso an der BQ, wie auch ATI.
Ich bin der Meinung, beide sollten SOFORT damit aufhören !

Und auch wenn Du es nicht glaubst, die ATI-BQ war damals mit ein Hauptgrund, mich NICHT für ATI zu entscheiden. Was sich derzeit aber fast relativert hat...
;-)

Razor

Ich finde solange man den bildqualitäts verlust nicht mit blossem auge sieht gehen die optimierungen i.O., aber wenn es soweit geht das die dx9 spiele nicht mehr so aussehen wie dx9 spiele (beispiel tomb raider aod), dann muss ich auch kotzen(und das haben die beta 5x.xx treiber gemacht).

Ich glaube nicht das beide damit aufhören werden, weil wenn nv optimiert in ihren treibern zieht sicherlich irgendwann auch ati nach, dass ist halt so(hin und her).

Leider tragen die ihr wettstreit aus ohne die user ihrer karten zu fragen.

Immerhin kann man bei den ati treibern noch den r-tool nutzen um die bildquali zu verbessern, was bei den blockade treibern von nv ja nicht geht.

Razor
2003-10-24, 17:15:46
Original geschrieben von Coolj100
Ich finde solange man den bildqualitäts verlust nicht mit blossem auge sieht gehen die optimierungen i.O., aber wenn es soweit geht das die dx9 spiele nicht mehr so aussehen wie dx9 spiele (beispiel tomb raider aod), dann muss ich auch kotzen(und das haben die beta 5x.xx treiber gemacht).
Bisher warens in diversen Tests eher die ATI Treiber, die Probleme mit TR:AoD hatten...
(flackernde Texturen etc.)
Original geschrieben von Coolj100
Ich glaube nicht das beide damit aufhören werden, weil wenn nv optimiert in ihren treibern zieht sicherlich irgendwann auch ati nach, dass ist halt so(hin und her).

Leider tragen die ihr wettstreit aus ohne die user ihrer karten zu fragen.
Oh doch... sie werden auf die User achten...

Aber die meisten sagen:
"Is' mir doch wurscht.
Hauptsache 'nen längeren <zensiert> beim Murks !
Har, har, har..."

Ansonsten: Full Ack !
Original geschrieben von Coolj100
Immerhin kann man bei den ati treibern noch den r-tool nutzen um die bildquali zu verbessern, was bei den blockade treibern von nv ja nicht geht.
Was noch zu klären wäre...
Schließlich gehts unter OpenGL ja auch.
Warum also nicht unter D3D ?

Oder gab es damals nach Erscheinen des Cat3.2 schon Tools, die in der Lage waren, die 'Optimierung' abzuschalten ?

Ich bin mir fast sicher, dass es gehen muss...
Wir werden sehen... wir sind ja nicht blind !
:D

Razor

Gast
2003-10-24, 17:16:56
Original geschrieben von Razor
Wie dem auch sei...
nVidia trixt nun genauso an der BQ, wie auch ATI.
Ich bin der Meinung, beide sollten SOFORT damit aufhören !


aber das aa von nVidia ist nunmal von hardware so grauenhaft, da kann man nix dran ändern
:D

Coolj100
2003-10-24, 17:25:22
Original geschrieben von Gast
aber das aa von nVidia ist nunmal von hardware so grauenhaft, da kann man nix dran ändern
:D

Ja weil sie das aa verfahren seid der geforce3 nicht geändert haben.

Gast
2003-10-24, 17:28:13
Original geschrieben von Coolj100
Ja weil sie das aa verfahren seid der geforce3 nicht geändert haben.

wars nicht ab geforce 2 (intelisample verfahren) ??

Coolj100
2003-10-24, 17:30:37
Original geschrieben von Razor
Bisher warens in diversen Tests eher die ATI Treiber, die Probleme mit TR:AoD hatten...
(flackernde Texturen etc.)

Oh doch... sie werden auf die User achten...

Aber die meisten sagen:
"Is' mir doch wurscht.
Hauptsache 'nen längeren <zensiert> beim Murks !
Har, har, har..."

Ansonsten: Full Ack !

Was noch zu klären wäre...
Schließlich gehts unter OpenGL ja auch.
Warum also nicht unter D3D ?

Oder gab es damals nach Erscheinen des Cat3.2 schon Tools, die in der Lage waren, die 'Optimierung' abzuschalten ?

Ich bin mir fast sicher, dass es gehen muss...
Wir werden sehen... wir sind ja nicht blind !
:D

Razor

Ich glaube auch eher ganz kann man die optimierungen bestimmt nie abschalten(so ein programm muss erst programmiert werden).

Wenn es unter opengl geht kann man es "vielleicht" auch unter direct3d abschalten. Was für tools gibt es für die nv zum abschalten der optimierungen(rivatuner??)??

Ansonsten ist das problem halt wie du schon sagst, niemand interessiert sich für die optimierungen hauptsache seine karte ist im 01/03er bench schneller als die konkurrenz.

Coolj100
2003-10-24, 17:31:23
Original geschrieben von Gast
wars nicht ab geforce 2 (intelisample verfahren) ??

Ja das verfahren war ab der geforce 2, danach kam ja glaube ich noch ein verfahren dazu(geforce3) oder???

*edit*

Ja ich glaube das multisample verfahren!!!

Razor
2003-10-24, 17:37:41
Original geschrieben von Gast
aber das aa von nVidia ist nunmal von hardware so grauenhaft, da kann man nix dran ändern
:D
Mega-LÖL !
;D

Razor

Razor
2003-10-24, 17:44:46
Original geschrieben von Coolj100
Ja das verfahren war ab der geforce 2, danach kam ja glaube ich noch ein verfahren dazu(geforce3) oder???

*edit*

Ja ich glaube das multisample verfahren!!!
Nun mal nix hier durcheinander bringen...
Multi-Sample AA gab's erst seit gf3.
Und "IntelliSample" (tm ;-) hat man's ab gf4(ti) genannt...

Aber wir sind uns doch wohl hoffentlich einig darüber, dass am AA nix gecheatet wird.
ATI und nVidia haben hier unterschiedliche Ansätze...

ATI hat das eindeutig bessere MS-Verfahren, nebst Gammakorrektur, während nVidia sog. Misch-Modi anbietet ('mix' aus MS und SS) und es zumindest erlaubt, auch reine SuperSampling-Modi über die Registery zu aktivieren (letzteres sollte defakto mit JEDER GraKa möglich sein, ATI 'erlaubt' es derzeit allerdings nicht).

Aber bitte jetzt nicht abschweifen...
Es geht hier um Optimierungen und nicht um BQ im Allgemeinen, oder ?
:???:

Razor

Gast
2003-10-24, 17:47:16
Original geschrieben von Razor
Mega-LÖL !
;D

Razor

wieso löl ?? eher musst du den tatsachen gegenüber traurig aus der wäsche gucken !!!
;D

Razor
2003-10-24, 17:49:07
Original geschrieben von Coolj100
Ich glaube auch eher ganz kann man die optimierungen bestimmt nie abschalten(so ein programm muss erst programmiert werden).
Na ja...
Mittel und Wege wird es IMMER geben.
Und wenn es der Konkurrent ist, der mit entsprechendem Aufwand ein solches Verfahren 'leaken' läßt...
:D
Original geschrieben von Coolj100
Wenn es unter opengl geht kann man es "vielleicht" auch unter direct3d abschalten. Was für tools gibt es für die nv zum abschalten der optimierungen(rivatuner??)??
Nö, wenn's der RT kann, guck ich mir einmal an, wie er es macht und installiere dann den Treiber neu !
;D

Ich denke mal, dass es ähnlich einfach gehen sollte, wie unter OGL. Und damit würden durchaus 'nicht-invasive' Proggi's ala aTuner mit klar kommen...
Original geschrieben von Coolj100
Ansonsten ist das problem halt wie du schon sagst, niemand interessiert sich für die optimierungen hauptsache seine karte ist im 01/03er bench schneller als die konkurrenz.
Jup.
Und das ist auch das eigentliche Problem.

Man könnte ironischer weise schon fast sagen:
"Die Kunden wollen es doch so !"

Aber das würde jetzt schon fast in den philosophischen Bereich abdriften...
:-(

Razor

Gast
2003-10-24, 18:25:11
Nvidia behält sich daher weiter vor, applikationsabhängige Optimierungen in die Treiber einzubauen, und hat dafür einige Richtlinien aufgestellt. Nach diesen Regeln sind Optimierungen solange erlaubt, wie sie das "korrekte" Bild erzeugen. Korrekt bedeutet dabei, dass das Bild und die damit erzielten Bildraten "das beste Spielerlebnis" vermitteln sollen, wobei Abstriche bei der Bildqualität nicht ausgeschlossen sind. Diesen müsse der Spieleentwickler aber zustimmen. Ferner müssen Optimierungen so allgemeingültig sein, dass sie nicht nur einen Benchmark beschleunigen und dürfen nicht mit vorberechneten, statischen Geometrien oder Texturen arbeiten. (Manfred Bertuch)

das zum Thema Optimierungen von nVidia... :(

Coolj100
2003-10-24, 18:41:52
Original geschrieben von Gast
Nvidia behält sich daher weiter vor, applikationsabhängige Optimierungen in die Treiber einzubauen, und hat dafür einige Richtlinien aufgestellt. Nach diesen Regeln sind Optimierungen solange erlaubt, wie sie das "korrekte" Bild erzeugen. Korrekt bedeutet dabei, dass das Bild und die damit erzielten Bildraten "das beste Spielerlebnis" vermitteln sollen, wobei Abstriche bei der Bildqualität nicht ausgeschlossen sind. Diesen müsse der Spieleentwickler aber zustimmen. Ferner müssen Optimierungen so allgemeingültig sein, dass sie nicht nur einen Benchmark beschleunigen und dürfen nicht mit vorberechneten, statischen Geometrien oder Texturen arbeiten. (Manfred Bertuch)

das zum Thema Optimierungen von nVidia... :(

Nvidia ist halt der optimierungskönig. Ati hat zwar auch minimale optimierungen, aber halt nicht mit dem blossen auge sichbare optimierungen(nur mit programmen sichtbar). Und ati versucht auch seine optimierungen nicht zu verstecken, indem sie ihre treiber verschlüsseln. Nv hat wohl einen grund seine treiber zu verschlüsseln. Ich besitze ja eine fx5800 und kann deshalb gute vergleiche zwischen der radeon und der nv sehen.
Und trotz den optimierungen ist die nv karte sehr langsamm in dx9 games.

Das ist wohl ein generelles hardware problem von nv, was man nicht mit neuen treibern beheben kann(ausser man optimiert so stark das nur noch strichmännchen im spiel rumlaufen).

reunion
2003-10-24, 19:30:49
Original geschrieben von Razor
Was die BQ angeht rede ich hier von den Zig-Reviews zu den neuen nVidia's...
... und nicht von 'alten' 3DCenter-Artikeln (die ich selbstredend kenne ;-).


Wo immernoch die gleichen Cheats drin sind wie beim 3DCenter-Artikel, somit ist der Artikel nicht alt sonder aktuell und gilt auch für den 52.16 WHQL!

Und mit dem THG-Artikel hast Du genau einen heraus gepickt, bei dem die R98XT tatsächlich mal ein bissel besser dasteht.


:lol: Zeig mir nur ein Review wo die 9800XT nicht "ein bissel besser dasteht". Die XT ist klar schneller als die FX5950, wenn du das nicht einsiehst lebst du im traumland...


Wie dem auch sei...
nVidia trixt nun genauso an der BQ, wie auch ATI.
Ich bin der Meinung, beide sollten SOFORT damit aufhören !


Nur mit dem Unterschied das NV viel öfter Cheatet!

Und auch wenn Du es nicht glaubst, die ATI-BQ war damals mit ein Hauptgrund, mich NICHT für ATI zu entscheiden. Was sich derzeit aber fast relativert hat...
;-)

Razor

:lol: Du würdest doch sowieso eine NV kaufen, selbst wenn NV schon untergegangen währe würdest du noch bei eBay NV Karten zusammenkaufen...

Und zu deinen Komentar fast relativiert gibt gleich nochmal ein :lol:, NV optimiert sogar die tri Texturfilterung(!), während ATI nur bei AF optimiert, was man allerdings kinderleicht umgehen kann...

Gast
2003-10-24, 19:31:15
Original geschrieben von Coolj100
Nvidia ist halt der optimierungskönig. Ati hat zwar auch minimale optimierungen, aber halt nicht mit dem blossen auge sichbare optimierungen(nur mit programmen sichtbar). Und ati versucht auch seine optimierungen nicht zu verstecken, indem sie ihre treiber verschlüsseln. Nv hat wohl einen grund seine treiber zu verschlüsseln. Ich besitze ja eine fx5800 und kann deshalb gute vergleiche zwischen der radeon und der nv sehen.
Und trotz den optimierungen ist die nv karte sehr langsamm in dx9 games.

Das ist wohl ein generelles hardware problem von nv, was man nicht mit neuen treibern beheben kann(ausser man optimiert so stark das nur noch strichmännchen im spiel rumlaufen).

hast du eine hercules 9700pro gegen welche fx5800 verglichen ???

StefanV
2003-10-24, 19:45:56
Original geschrieben von Gast
hast du eine hercules 9700pro gegen welche fx5800 verglichen ???
???

Warum ausgerechnet 'ne Hercules??

Razor
2003-10-24, 19:56:54
Original geschrieben von Gast
<...snap...> (Manfred Bertuch)

das zum Thema Optimierungen von nVidia... :( Wer ist Manfred Bertuch ?
:???:

Razor

Gast
2003-10-24, 20:08:00
Original geschrieben von Razor
Wer ist Manfred Bertuch ?
:???:

Razor

mein dildo.... ne im ernst http://heise.de/newsticker/data/anw-24.10.03-004/

Razor
2003-10-24, 20:09:05
Original geschrieben von Coolj100
Nvidia ist halt der optimierungskönig. Ati hat zwar auch minimale optimierungen, aber halt nicht mit dem blossen auge sichbare optimierungen(nur mit programmen sichtbar). Glaube mir, sie sind sehr wohl mit bloßem Auge sichtbar...
Gute Beipiele wären hier UT2003, Chrome und noch so einige andere.
Original geschrieben von Coolj100
Und ati versucht auch seine optimierungen nicht zu verstecken, indem sie ihre treiber verschlüsseln. Nv hat wohl einen grund seine treiber zu verschlüsseln.ATI hat die Optimierungen und Workarounds im ganzen Treiber-Code verstreut... selbst Unwinder konnte und wollte keinesfalls ausschließen, alle 'Optimierungen' mit seinem Script deaktiviert zu haben. Bei nVidia war dies wesentlich einfacher, denn alle 'Sonderbehandlungen' waren in einer zentralen Routine zu finden, die einfach abgestellt werden konnte.

Mal ganz davon abgesehen, dass es ihr gutes Recht ist, geistiges Eigentum zu schützen.
Oder seit wann sind Hardware-Treiber 'OpenSource' ?

Original geschrieben von Coolj100
Ich besitze ja eine fx5800 und kann deshalb gute vergleiche zwischen der radeon und der nv sehen.
Und trotz den optimierungen ist die nv karte sehr langsamm in dx9 games.
Und welche "DX9-Games" wären das ?
Das buggy TR:AoD oder gar das noch lange nicht erscheinende HL2 ?
:???:
Original geschrieben von Coolj100
Das ist wohl ein generelles hardware problem von nv, was man nicht mit neuen treibern beheben kann(ausser man optimiert so stark das nur noch strichmännchen im spiel rumlaufen).
Dazu gibt es nun schon wirklich genug Threads...
Ganz kurz:
- nVidia liebt komplexe Shader und paarweise übergebene Textur-Anweisungen
- ATI liebt kurze Shader und als Block übergebene Textur-Anweisungen

Das sind fast gegenläufige Anforderungen an den zugrunde liegenden Compiler.
Aber lassen wir das...

Der 52.16 hat ja nun schon gezeigt, dass mit einem Treiber-integrierten Recompiler eine Menge an Performance heraus zu holen ist. Selbst bei dem schrottigen TR:AoD ist der 'Vorsprung' ATI's lange nicht mehr 100%, was auch für <zensiert> gilt.

Also wartet doch erst einmal 'richtige' DX9-Games ab. Halo ist hierfür ein gutes Beispiel... setzt es doch überwiegend Shader der Version 1.4 und 2.0 ein... und davon gleich sehr viel mehr als TR:AoD.

Und wie verhält sich das mit der Performance dort ?
:D

Razor

Razor
2003-10-24, 20:22:09
Original geschrieben von Gast
mein dildo.... ne im ernst http://heise.de/newsticker/data/anw-24.10.03-004/
Tja...
Wenn man den komplette Artikel liest, kommt doch der Verdacht, dass insbesondere der letzte Teil eher eine eigene Interpretation des Authors vom Dargestellten ist.

Formulierungen wie "Nvidia behält sich daher weiter vor..." ist ein Schlußfolgerung, die zutreffen kann, oder auch nicht. "Korrekt bedeutet dabei, dass " ist wieder ein Erklärungsversuch der eigenen Interpretation. Der Rest hingegen ist wieder allgemein Bekanntes... (wurde schon vor Wochen auf diversen Sites gepostet).

Warten wir doch einfach mal ab.

Fakt dürfte sein, dass der Recompiler den jeweiligen Bedürfnissen permanent angepaßt werden muss, um nach und nach alle möglichen Formen von 'Futter' nVidia-gerecht zu verarbeiten. Dies gilt insboesonders für Shader, die nach ATI-Richtlinien geschrieben und schlimmstenfalls mit dem 2.0-Profil des DX9-SDKs compiliert wurden.

Mal schaun', wie sich das Ganze entwickelt...
;-)

Razor

Mrs. Lolman
2003-10-24, 20:32:14
Original geschrieben von Razor
Also wartet doch erst einmal 'richtige' DX9-Games ab. Halo ist hierfür ein gutes Beispiel... setzt es doch überwiegend Shader der Version 1.4 und 2.0 ein... und davon gleich sehr viel mehr als TR:AoD.

Und wie verhält sich das mit der Performance dort ?
:D

Razor

Viel besser als man annehmen müsste, im Wissen dass die Shader von NV geschrieben wurden... (Wenn man Shader für ATi schreibt, schauts halt mit optimierten Treibern so aus wie in HL2 oder TROAD)

Gast
2003-10-24, 20:34:05
Original geschrieben von Razor
Mal ganz davon abgesehen, dass es ihr gutes Recht ist, geistiges Eigentum zu schützen.
Oder seit wann sind Hardware-Treiber 'OpenSource' ?

Ja, um ihre optimierungen geheim zu halten...


Original geschrieben von Razor Und welche "DX9-Games" wären das ?
Das buggy TR:AoD oder gar das noch lange nicht erscheinende HL2 ?

Max payne 2 ist auch ein gutes beispiel :P


Original geschrieben von Razor Der 52.16 hat ja nun schon gezeigt, dass mit einem Treiber-integrierten Recompiler eine Menge an Performance heraus zu holen ist. Selbst bei dem schrottigen TR:AoD ist der 'Vorsprung' ATI's lange nicht mehr 100%, was auch für <zensiert> gilt.


Welche performance meinst du ??
leider hat der treiber nicht das gehalten, was alle gedacht haben -> 100% mehrleistung :lol:
wunder-treiber :lol: und weils so schön ist noch ein :lol:


Original geschrieben von Razor Also wartet doch erst einmal 'richtige' DX9-Games ab. Halo ist hierfür ein gutes Beispiel... setzt es doch überwiegend Shader der Version 1.4 und 2.0 ein... und davon gleich sehr viel mehr als TR:AoD.

Ja klar... halo ein gutes beispiel :kotz:

"Gearbox, die die PC-Portierung des X-Box-Spiels Halo durchführten, waren Nvidia daher sehr verbunden, weil Nvidia-Entwickler sämtliche DirectX-9-Shader für den FX-Pfad geschrieben haben"

Quelle: Nvidia!

Mr. Lolman
2003-10-24, 20:37:15
Jetzt wunderts mich noch mehr warum ATi bei der Halo 1.5 beta so weit vorne war :ratlos:

Gast
2003-10-24, 20:42:41
Original geschrieben von Razor
Tja...
Wenn man den komplette Artikel liest, kommt doch der Verdacht, dass insbesondere der letzte Teil eher eine eigene Interpretation des Authors vom Dargestellten ist.

Formulierungen wie "Nvidia behält sich daher weiter vor..." ist ein Schlußfolgerung, die zutreffen kann, oder auch nicht. "Korrekt bedeutet dabei, dass " ist wieder ein Erklärungsversuch der eigenen Interpretation. Der Rest hingegen ist wieder allgemein Bekanntes... (wurde schon vor Wochen auf diversen Sites gepostet).

Warten wir doch einfach mal ab.

Fakt dürfte sein, dass der Recompiler den jeweiligen Bedürfnissen permanent angepaßt werden muss, um nach und nach alle möglichen Formen von 'Futter' nVidia-gerecht zu verarbeiten. Dies gilt insboesonders für Shader, die nach ATI-Richtlinien geschrieben und schlimmstenfalls mit dem 2.0-Profil des DX9-SDKs compiliert wurden.

Mal schaun', wie sich das Ganze entwickelt...
;-)

Razor

Ist mir schon klar, razor !! alles was nicht von nvidia kommt ist blödsinn !! wenn nv behauptet ja bald kommt der deto 50 der wie eine granate einschlagen wird, mit was weiß ich wie viel % mehrleistung.....der erste ders glaubt bist immer du, razor :lol:

und sprüche ala "wir werden ja sehen" ablässt :lol:

oh mensch junge......

Gast
2003-10-24, 20:45:26
ausserdem razor, worauf willst du immer warten ?? bald sind wir im jahre 2010 aber dein motto "warten wir doch einfach mal ab" :(

:lol:

Razor
2003-10-24, 20:46:52
Original geschrieben von Mrs. Lolman
Viel besser als man annehmen müsste, im Wissen dass die Shader von NV geschrieben wurden... (Wenn man Shader für ATi schreibt, schauts halt mit optimierten Treibern so aus wie in HL2 oder TROAD)
Und da ist das Problem.
Shader die gut auf ATI-Hardware hin optimiert wurden, laufen nicht sonderlich dolle auf nVidia-Hardware. Shader die wiederum konsequent auf nVidia-Hardware hin optimiert werden, laufen u.U. gar nicht auf ATI-Hardware und wenn dann aber nicht mit voller Leistung.

Irgend einen Weg wird man sich hier einfallen lassen müssen.
Schließlich wollen die Spiele-Progger ja möglichste viele Kunden erreichen, oder ?
;-)

Razor

StefanV
2003-10-24, 20:48:40
Original geschrieben von Razor
Und da ist das Problem.
Shader die gut auf ATI-Hardware hin optimiert wurden, laufen nicht sonderlich dolle auf nVidia-Hardware. Shader die wiederum konsequent auf nVidia-Hardware hin optimiert werden, laufen u.U. gar nicht auf ATI-Hardware und wenn dann aber nicht mit voller Leistung.

Irgend einen Weg wird man sich hier einfallen lassen müssen.
Schließlich wollen die Spiele-Progger ja möglichste viele Kunden erreichen, oder ?
;-)

Razor

???

TR:AOD ist doch ein TWIMTBP Game, ergo nV Finanziert...

Gast
2003-10-24, 20:50:33
Original geschrieben von Stefan Payne
???

TR:AOD ist doch ein TWIMTBP Game, ergo nV Finanziert...

trotztdem kommt dann eben die ausrede von razor, dass das spiel scheisse programmiert ist :lol:

aber razor ist einfach nur ein klon von lovesuckz und den gesperrten ulukay usw... :D

Razor
2003-10-24, 20:53:37
Original geschrieben von Gast
Ja, um ihre optimierungen geheim zu halten...
Ob ich nun meine 'Sonderbehandlungen' im ganzen Source-Code 'verstecke' und sie dadurch im Compilat nicht mehr zu identifizieren sind, oder ich aber das Compilat gleich verschlüssele, kommt auf's selbe hinaus...
Original geschrieben von Gast
Max payne 2 ist auch ein gutes beispiel
Für ein DX9-Game ?
Da solltest Du noch mal in Dich gehen...
:D
Original geschrieben von Gast
Welche performance meinst du ??
leider hat der treiber nicht das gehalten, was alle gedacht haben -> 100% mehrleistung
Nun ja, 60% (in Grenzsituationen) sind doch schon nicht schlecht, oder ?
Schließlich ist das ja erst der erste 'Versuch' !
:D
Original geschrieben von Gast
Ja klar... halo ein gutes beispiel
Finde ich auch...

Hat derzeit die meisten Shader in Gebrauch in einem bunten Mix aus PS1.1/1.4 und 2.0 und davon dann jeweils hunderte. IMO das erste 'richtige' Game, welches einen 'vernünftigen' Vergleich zuläßt...

Oder wolltest Du auf die Optik hinaus ?
Das liegt lediglich an den Texturen und die haben weniger was mit der Shader-Leistung zu tun.
Original geschrieben von Gast
"Gearbox, die die PC-Portierung des X-Box-Spiels Halo durchführten, waren Nvidia daher sehr verbunden, weil Nvidia-Entwickler sämtliche DirectX-9-Shader für den FX-Pfad geschrieben haben"
Tja...
Bei HL2 war's ATI.
Original geschrieben von Gast
Quelle: Nvidia!
Quelle: Valve !
;D

Razor

Razor
2003-10-24, 20:54:17
Original geschrieben von Mr. Lolman
Jetzt wunderts mich noch mehr warum ATi bei der Halo 1.5 beta so weit vorne war :ratlos:
Weil's da noch keine vernünftigen Treiber für die FX'er gab ?
;-)

Razor

Razor
2003-10-24, 20:55:40
Original geschrieben von Stefan Payne
TR:AOD ist doch ein TWIMTBP Game, ergo nV Finanziert...
Red' keinen Quatsch.
Oder hast Du auch nur einen einzigen nachvollziehbaren Beleg für Deine Behauptung ?
(nicht TWIMTBP, sondern die 'Finanzierung')

Razor

Razor
2003-10-24, 20:57:19
Original geschrieben von Gast
trotztdem kommt dann eben die ausrede von razor, dass das spiel scheisse programmiert ist
Das Spiel ist nicht nur Sch...e geproggt, sondern es IST insgesamt Sch...e !
Selten habe ich ein Spiel gesehen, was dermaße verbuggt war.
Und wenn man dann noch die miserable Steuerung dazu nimmt...

Sorry, aber dieses Game ist absoluter Mist !

Razor

Gast
2003-10-24, 20:59:27
razor du bist einfach nur ein doofy... wenn traod schlecht programmiert ist, will ich nicht wissen was halo ist aber nene da ist die nv einigermaßen gut und deswegen ist das spiel eine 1a um die fx in den himmel zu loben. einfach nur :lol:

Geron!mo
2003-10-24, 20:59:30
Soweit ich das bis jetzt verfolgen konnte, gibt es diese pseudo-tri/AF optimierung nur auf FX Karten.

Stimmt das soweit? Wenn ja, auf allen FX Karten (also ab NV30/FX5800)?

Eigentlich wäre das ein sehr guter Treiber für GeForce3/4 Karten, weil dann der Hauptkritikpunkt eigentlich wegfallen würde.


@razor: freu mich schon auf das lange angekündigtes Review deiner FX5900

mfg

Geron!mo

StefanV
2003-10-24, 20:59:57
@Razor

Warum sollte man als Spielehersteller 'einfach so' ein Logo eines bestimmten Herstellers ins SPiel einbauen??

'weil einam danach war' macht mans bestimmt nicht...

StefanV
2003-10-24, 21:01:27
Original geschrieben von Geron!mo
Soweit ich das bis jetzt verfolgen konnte, gibt es diese pseudo-tri/AF optimierung nur auf FX Karten.

Stimmt das soweit? Wenn ja, auf allen FX Karten (also ab NV30/FX5800)?

Eigentlich wäre das ein sehr guter Treiber für GeForce3/4 Karten, weil dann der Hauptkritikpunkt eigentlich wegfallen würde.


@razor: freu mich schon auf das lange angekündigtes Review deiner FX5900

mfg

Geron!mo

1. jap
2. jap, auf allen FXen

3. naja, nur tätens für die GF3 und GF4 auch ältere Treiber...
Die 'neuen' Treiber bringen idR auch nur was bei 'der neuen' HW...

Razor
2003-10-24, 21:13:32
Original geschrieben von Gast
<snip> wenn traod schlecht programmiert ist, will ich nicht wissen was halo ist <snap>
Halo spielt sich ganz hervorragend, hat eine packende Story, an der Steuerung ist nichts auszusetzen und der Soundtrack einfach genial. Die Grafik ist Sch...e, aber das ist bei einem guten Game eher nebensächlich.

TR:AoD ist optisch sehr gut, die Story noch OK, aber die Steuerung absoluter Müll. Dann noch die ganzen Probleme im Ablauf... und habe ich die Steuerung schon erwähnt ?
:D

Razor

Razor
2003-10-24, 21:14:57
Original geschrieben von Geron!mo
@razor: freu mich schon auf das lange angekündigtes Review deiner FX5900
Dann drück mir mal die Daumen, dass ich die Zeit dafür finde !
;-)

Razor

Razor
2003-10-24, 21:16:40
Original geschrieben von Stefan Payne
3. naja, nur tätens für die GF3 und GF4 auch ältere Treiber...
Die 'neuen' Treiber bringen idR auch nur was bei 'der neuen' HW...
Nicht so ganz...
Die ganzen Vorteile (und es werden immer mehr) des neuen CP's bekommen auch gf3/gf4(ti)-Nutzer erst mit dem 50'er. Insofern werden sie nicht darum herum kommen... über kurz oder lang.
:D

Razor

Razor
2003-10-24, 21:18:29
Ups, hab' ich übersehen... ;)
Original geschrieben von Stefan Payne
@Razor

Warum sollte man als Spielehersteller 'einfach so' ein Logo eines bestimmten Herstellers ins SPiel einbauen??

'weil einam danach war' macht mans bestimmt nicht... Weil die Entwickler mit Rat und Tat unterstützt haben. Klar, das ist auch fast wie bares Geld. Ist es das, was Du meintest ?
:???:

Razor

Razor
2003-10-24, 21:19:51
Original geschrieben von Gast
fakt ist, dass BEIDE spiele, der letzte schrott ist....
Nö.
Halo spiele ich sehr gerne (auch wenn die Optik besser hätte sein können), TR:AoD kann man gar nicht spielen...

Ein kleiner, aber feiner Unterschied, gell ?
:D

Razor

StefanV
2003-10-24, 21:20:06
Original geschrieben von Razor
Nicht so ganz...
Die ganzen Vorteile (und es werden immer mehr) des neuen CP's bekommen auch gf3/gf4(ti)-Nutzer erst mit dem 50'er. Insofern werden sie nicht darum herum kommen... über kurz oder lang.
:D

Razor
Hm, 'never change a running system' :|

Gast_01
2003-10-24, 21:20:25
Original geschrieben von Gast
@razor

es gibt eine editierfunktion also spamm nicht soviel RUM oder willst du unqaulifiziert beiträge sammeln ?

der macht das mit absicht :(

Gast
2003-10-24, 21:21:19
Original geschrieben von Razor
Nö.
Halo spiele ich sehr gerne (auch wenn die Optik besser hätte sein können), TR:AoD kann man gar nicht spielen...

Ein kleiner, aber feiner Unterschied, gell ?
:D

Razor

deine käsenmeinung interessiert aber niemanden, kapische+gelle ??

Razor
2003-10-24, 21:21:42
Original geschrieben von Stefan Payne
Hm, 'never change a running system' :|
So ein quatsch, sorry...
Wo bleibt denn da der ganze Spaß ?
:D

Razor

P.S.: Der 52.16 läuft ganz hervorragend mit meiner gf3... ;)

Razor
2003-10-24, 21:23:26
@Gast

Von nun an, werde nicht mehr nur partiell, sondern gar nicht mehr auf Deine Posts reagieren...
(es sei denn, Du schaffst es, Dir einen anderen Ton anzugewöhnen)

Schönen Tag noch.

Razor

StefanV
2003-10-24, 21:23:29
Original geschrieben von Razor
So ein quatsch, sorry...
Wo bleibt denn da der ganze Spaß ?
:D

Razor

P.S.: Der 52.16 läuft ganz hervorragend mit meiner gf3... ;)

Razor, es soll auch 'diverse' Personengruppierungen geben, die sich nicht wie wild auf 'nen neuen Treiber stürzen und 'ab und an' auch recht lange recht alte Treiber nutzen :eyes:

Wobei: wuzu den Deto 50, wenn ich mit meiner Karte nur arbeite und nie spiele??

Würde da bei 'ner GF3 nicht auch ein 12er langen??

Razor
2003-10-24, 21:26:40
Original geschrieben von Stefan Payne
Razor, es soll auch 'diverse' Personengruppierungen geben, die sich nicht wie wild auf 'nen neuen Treiber stürzen und 'ab und an' auch recht lange recht alte Treiber nutzen :eyes:
Tatsächlich ?
Wo ?
:???:

mir ist auch klar, dass es solche Leute gibt... die trieben sich aber wohl eher selten in Foren wie diesen herum, oder ?
Original geschrieben von Stefan Payne
Wobei: wuzu den Deto 50, wenn ich mit meiner Karte nur arbeite und nie spiele??
Um nView 3.0 und die ganzen anderen Vorteile nutzen zu können ?
:???:
Original geschrieben von Stefan Payne
Würde da bei 'ner GF3 nicht auch ein 12er langen??
Und mich mit der fusseligen TV-Out-Geschichte und den anderen 'Schwachheiten' zufrieden geben ?
Damals mag das ja noch OK gewesen sein, heute aber, erwarte ich da schon 'etwas' mehr.

Ergo: Nein.

Razor

StefanV
2003-10-24, 21:29:20
Original geschrieben von Razor
Tatsächlich ?
Wo ?
:???:

Um nView 3.0 und die ganzen anderen Vorteile nutzen zu können ?
:???:

Und mich mit der fusseligen TV-Out-Geschichte und den anderen 'Schwachheiten' zufrieden geben ?
Damals mag das ja noch OK gewesen sein, heute aber, erwarte ich da schon 'etwas' mehr.

Ergo: Nein.

Razor

1. ja, tatsächlich...
Wo??
Hm, z.B. ALDI??
Du solltest halt nicht vergessen, daß die 'DAUs' die überwiegende Mehrheit der PC User sind...

2. nView auf 'ner GF3 ?(

3. den TV Out kannst mit dem Deto eh vergessen, dazu 'darf' man eh das TV Tool nutzen, also von daher...

Außerdem: welche schwachheiten???

Razor
2003-10-24, 21:31:03
Original geschrieben von Stefan Payne
1. ja, tatsächlich...
Wo??
Hm, z.B. ALDI??
Du solltest halt nicht vergessen, daß die 'DAUs' die überwiegende Mehrheit der PC User sind...
Siehe oben...
Original geschrieben von Stefan Payne
2. nView auf 'ner GF3 ?(
Jep.
Original geschrieben von Stefan Payne
3. den TV Out kannst mit dem Deto eh vergessen, dazu 'darf' man eh das TV Tool nutzen, also von daher...
Das TV-Tool braucht man nicht mehr...

Razor

reunion
2003-10-24, 21:48:47
Original geschrieben von Razor
Tja...
Bei HL2 war's ATI.


Razor

Nur mit dem Unterschied das ATI bei Halo trozdem locker mithalten kann, während bei HL2 jeder 9600 die fx5900 versägt!

reunion
2003-10-24, 21:51:32
Original geschrieben von Razor
Für ein DX9-Game ?
Da solltest Du noch mal in Dich gehen...
:D

Razor

Vielleicht nicht für ein DX9 Game, allerdings ist es ein weiteres Game nach WC3, Battlefield, Enclave, TR:AOD, HL2,... indem die FX5900 chancenlos ist...

reunion
2003-10-24, 21:53:15
Original geschrieben von Razor
Das Spiel ist nicht nur Sch...e geproggt, sondern es IST insgesamt Sch...e !
Selten habe ich ein Spiel gesehen, was dermaße verbuggt war.
Und wenn man dann noch die miserable Steuerung dazu nimmt...

Sorry, aber dieses Game ist absoluter Mist !

Razor

Ja richtig, das spiel ist scheiße programmiert, nur läuft es auf FX Karten auch scheiße...

Razor
2003-10-24, 21:53:17
Original geschrieben von reunion
Nur mit dem Unterschied das ATI bei Halo trozdem locker mithalten kann, während bei HL2 jeder 9600 die fx5900 versägt! Was darauf hinaus läuft, dass Halo nicht mit der Absicht programmiert wurde, die Konkurrenz schlecht aussehen zu lassen, oder ? Zumal Halo ja auch ein M$-Game ist und von daher den neuen 'Partner' ja nicht unbedingt vor den Kopf stoßen wollte...

Ist aber selbstredend nur eine Vermutung...
:D

Razor

Razor
2003-10-24, 21:56:31
Original geschrieben von reunion
Vielleicht nicht für ein DX9 Game, allerdings ist es ein weiteres Game nach WC3, Battlefield, Enclave, TR:AOD, HL2,... indem die FX5900 chancenlos ist..0
"Chancenlos" ?
Es läuft schlicht perfekt...
Auf gf3, FX5200 und FX5900.

Und der Bekannte von mir meinte, dass es auf der R9500 ebnso gut läuft.

Wovon also redest Du ?
:???:

Razor

Razor
2003-10-24, 21:57:55
Original geschrieben von reunion
Ja richtig, das spiel ist scheiße programmiert, nur läuft es auf FX Karten auch scheiße... Unspielbar ist es auf allen GraKa's...
Und ich meine damit nicht die Performance.
(die auch überall sch...e ist ;-)

Razor

StefanV
2003-10-24, 21:57:56
Original geschrieben von Razor
Siehe oben...

Jep.

Das TV-Tool braucht man nicht mehr...

Razor

1. was hats damit zu tun, ob sie in Foren schauen??

2. ???

3. super, ohne TV Tool hab ich immer noch 'nen hübschen schwarzen Rahmen um den Schirm...

Ergo: es brauchts TV Tool...

reunion
2003-10-24, 21:58:11
Original geschrieben von Razor
Was darauf hinaus läuft, dass Halo nicht mit der Absicht programmiert wurde, die Konkurrenz schlecht aussehen zu lassen, oder ? Zumal Halo ja auch ein M$-Game ist und von daher den neuen 'Partner' ja nicht unbedingt vor den Kopf stoßen wollte...

Ist aber selbstredend nur eine Vermutung...
:D

Razor

Hallo!
Wach auf...
NV selbst durfte die Shader für Halo schreiben(bzw. einen eigenen FX-Pfad), und trozdem kann die Radeon locker mithalten, ziemlich peinlich für NV, findest du nicht??

reunion
2003-10-24, 22:00:06
Original geschrieben von Razor
"Chancenlos" ?
Es läuft schlicht perfekt...
Auf gf3, FX5200 und FX5900.

Und der Bekannte von mir meinte, dass es auf der R9500 ebnso gut läuft.

Wovon also redest Du ?
:???:

Razor

Nur bekomm ich auf jeder 9600er bessere Performace als auf einer 500$ teuren FX5900U...

Gast
2003-10-24, 22:01:33
Original geschrieben von Razor
Was darauf hinaus läuft, dass Halo nicht mit der Absicht programmiert wurde, die Konkurrenz schlecht aussehen zu lassen, oder ? Zumal Halo ja auch ein M$-Game ist und von daher den neuen 'Partner' ja nicht unbedingt vor den Kopf stoßen wollte...

Ist aber selbstredend nur eine Vermutung...
:D

Razor

falsch. da eine konvertierung, die aber erst 2 jahre verspättet erscheint....

reunion
2003-10-24, 22:02:32
Original geschrieben von Razor
Unspielbar ist es auf allen GraKa's...

Nagut soweit einverstanden...

Und ich meine damit nicht die Performance.
(die auch überall sch...e ist ;-)

Razor

Also ich konnte TR:AOD mit meiner 1Jahr alten 9700pro mit voller Qualität mit 1024x768 und 4xAA+8xbiAF spielen, die Performance ist also zumindest auf ATI Karten kein problem...

Razor
2003-10-24, 22:02:33
Original geschrieben von Stefan Payne
1. was hats damit zu tun, ob sie in Foren schauen??
Neue Treiber = Internet
Foren = Internet
3DForen = interssiertes Internet = Verweis auf neue Treiber

Zusammenhang klar ?
(wohl nicht ;-)
Original geschrieben von Stefan Payne
2. ???
Funzt ganz hervorragend...
(Clone-Modus, FullScreenDevice, TV-Out-Management)
Original geschrieben von Stefan Payne
3. super, ohne TV Tool hab ich immer noch 'nen hübschen schwarzen Rahmen um den Schirm...
Dann machst Du was falsch.
So etwas habe ich schon lange nicht mehr...
Weder mit gf3, noch mit FX5200/5900.

Razor

Razor
2003-10-24, 22:04:20
Original geschrieben von reunion
Nur bekomm ich auf jeder 9600er bessere Performace als auf einer 500$ teuren FX5900U... Sorry, aber ich versteh' noch immer nicht...
Ich kann es locker mit 4xS und 8xAF in vollen Details absolut flüssig spielen.
Was bitte soll ich mehr wollen ?
:???:

Razor

reunion
2003-10-24, 22:06:08
Original geschrieben von Razor
Sorry, aber ich versteh' noch immer nicht...
Ich kann es locker mit 4xS und 8xAF in vollen Details absolut flüssig spielen.
Was bitte soll ich mehr wollen ?
:???:

Razor

:lol: TR:AOD oder HL2 läuft nichtmal ohne AA oder AF flüssig...

StefanV
2003-10-24, 22:07:31
Original geschrieben von Razor
Neue Treiber = Internet
Foren = Internet
3DForen = interssiertes Internet = Verweis auf neue Treiber

Neue Treiber -> CD Beigabe bei diversen Heften, z.B. PCGH usw.

Original geschrieben von Razor
Zusammenhang klar ?
(wohl nicht ;-)

Funzt ganz hervorragend...
(Clone-Modus, FullScreenDevice, TV-Out-Management)

1. klar, da die GF3 kein nView unterstützt :eyes:

2. öhm, wie willst Fullscreen Device bei 'ner GF3 nutzen??

Original geschrieben von Razor
Dann machst Du was falsch.
So etwas habe ich schon lange nicht mehr...
Weder mit gf3, noch mit FX5200/5900.

Razor

1. _DAS_ denke ich nicht, da man da nicht wirklich viel falsch machen kann, meinst nicht auch, Razor??

2. von den GFs mit integrietem reden wir nicht, dafür gibts entsprechende Buttons bzw 'nen Regler im Panel, welcher zwar auch nicht besonders doll ist (da nicht Höhe und Breite getrennt), aber immerhin...

StefanV
2003-10-24, 22:08:33
Original geschrieben von Razor
Sorry, aber ich versteh' noch immer nicht...
Ich kann es locker mit 4xS und 8xAF in vollen Details absolut flüssig spielen.
Was bitte soll ich mehr wollen ?
:???:

Razor

Hm, hier hätte ich die Vermutung, daß 4x SSMSAA 'etwas' hübscher ausschauen könnte...

Razor
2003-10-24, 22:08:54
Original geschrieben von reunion
Also ich konnte TR:AOD mit meiner 1Jahr alten 9700pro mit voller Qualität mit 1024x768 und 4xAA+8xbiAF spielen, die Performance ist also zumindest auf ATI Karten kein problem... Konntest Du es wirklich 'spielen' ?
:???:

Ich hab' nach 2 Stunden aufgegeben, mich mit dieser Idioten-Steuerung herum zu plagen. Als ich während dessen dann auch noch an diversen Ecken 'hängen' geblieben, oder abgestürzt bin, nur weil wieder irgendwas hakte und die Tussi einfach nicht das machte, was ich wollte... hätt ich fast in die Tastatur gebissen.

Neee... spielen kann man das Game nicht.
Und gut aussehen tut es aufgrund der ganzen Irregularitäten auch nicht.
(IHV unabhängig... gesehen auf gf3, gf4ti, R9500, R9800p und selbstverständlich auf FX5200/5900)

Razor

Razor
2003-10-24, 22:17:35
Original geschrieben von Stefan Payne
Neue Treiber -> CD Beigabe bei diversen Heften, z.B. PCGH usw.
Huh ?
Über was reden wir hier eigentlich ?
:???:
Original geschrieben von Stefan Payne
1. klar, da die GF3 kein nView unterstützt

2. öhm, wie willst Fullscreen Device bei 'ner GF3 nutzen??
Ich werd' mir das nochmal anschaun'...
Original geschrieben von Stefan Payne
1. _DAS_ denke ich nicht, da man da nicht wirklich viel falsch machen kann, meinst nicht auch, Razor??
Offenbar doch...
Oder warum kannst Du nicht einstellen, was offenbar allen anderen gelingt ?
Original geschrieben von Stefan Payne
2. von den GFs mit integrietem reden wir nicht, dafür gibts entsprechende Buttons bzw 'nen Regler im Panel, welcher zwar auch nicht besonders doll ist (da nicht Höhe und Breite getrennt), aber immerhin...
Wie ?
Soll ich Dir wirklich erklären, wie man dieses Panel benutzt ?
(ist doch nun wirklich selbsterklärend)

Razor

Hier mal das Panel...
Was bitte ist daran unverständlich ?

reunion
2003-10-24, 22:19:34
Original geschrieben von Razor
Konntest Du es wirklich 'spielen' ?
:???:


Performacemäßig schon (Sonst nicht wirklich)...

Ich hab' nach 2 Stunden aufgegeben, mich mit dieser Idioten-Steuerung herum zu plagen. Als ich während dessen dann auch noch an diversen Ecken 'hängen' geblieben, oder abgestürzt bin, nur weil wieder irgendwas hakte und die Tussi einfach nicht das machte, was ich wollte... hätt ich fast in die Tastatur gebissen.


Ich hab im dritte Level aufgegeben, wo ich jedesmal wenn ich eine bestimmte Stufe hinaufgelaufen bin einfach ins unendliche hinuntergeflogen bin...

Neee... spielen kann man das Game nicht.
Und gut aussehen tut es aufgrund der ganzen Irregularitäten auch nicht.
(IHV unabhängig... gesehen auf gf3, gf4ti, R9500, R9800p und selbstverständlich auf FX5200/5900)

Razor

Stimmt irregulär ist es wirklich immerhin ist es ein TWIMTBP-Spiel das auch noch Cg unterstützt...

Razor
2003-10-24, 22:23:39
Original geschrieben von reunion
Performacemäßig schon (Sonst nicht wirklich)...OK.
Original geschrieben von reunion
Ich hab im dritte Level aufgegeben, wo ich jedesmal wenn ich eine bestimmte Stufe hinaufgelaufen bin einfach ins unendliche hinuntergeflogen bin...*argh*
Original geschrieben von reunion
Stimmt irregulär ist es wirklich immerhin ist es ein TWIMTBP-Spiel das auch noch Cg unterstützt... Cg ist eine Entwicklungsumgebung...
Shader, die man damit 'baut' kann man auch durch den M$-Compiler jagen.
(was die Entwickler von TR:AoD per Default ja wohl auch getan haben)

Mir ist auch noch immer nicht ganz klar, wie und wozu dieser alternative Weg implementiert wurde.

Razor

StefanV
2003-10-24, 22:25:08
Original geschrieben von Razor
Huh ?
Über was reden wir hier eigentlich ?
:???:

Darüber, daß 'Anfänger' keinen Zugriff aufs Netz haben, wohl aber auf diverse Beilagen CDs, welche Treiber enthalten...

Original geschrieben von Razor
Ich werd' mir das nochmal anschaun'...

Offenbar doch...
Oder warum kannst Du nicht einstellen, was offenbar allen anderen gelingt ?

Machs, aber bitte mit 'ner GF3 und nicht mit 'ner FX!!!


Original geschrieben von Razor
Wie ?
Soll ich Dir wirklich erklären, wie man dieses Panel benutzt ?
(ist doch nun wirklich selbsterklärend)

1. nicht nötig, da ich denke, daß ich in der Lage bin, dieses Panel zu bedienen.

Es wäre aber schön, zu erklären, wie ich den 'Größenbutton' auf einer GF3 mit 'nem CX25871 bekomme, denn bei mir sehe ich den nicht, welcher eigentlich nicht zu übersehen sein sollte...

Original geschrieben von Razor
Hier mal das Panel...
Was bitte ist daran unverständlich ?

1. ja, von 'ner FX/GF4 MX, nicht aber von 'ner GF3!!!

2. Daß sich die Optionen für jeden TV Encoder ev 'etwas' unterscheiden könnten und das ich nicht alle Optionen, die ich bei 'ner FX hab, auf 'ner GF3 hab??

Razor
2003-10-24, 22:25:27
Original geschrieben von Stefan Payne
Hm, hier hätte ich die Vermutung, daß 4x SSMSAA 'etwas' hübscher ausschauen könnte...
Was ist 4xSSMSAA ?
:???:

Razor

StefanV
2003-10-24, 22:27:14
Original geschrieben von Razor
Was ist 4xSSMSAA ?
:???:

Razor

Sparse Sampled Multi Sampling Anti Aliasing :eyes:

Razor
2003-10-24, 22:32:52
Original geschrieben von Stefan Payne
Darüber, daß 'Anfänger' keinen Zugriff aufs Netz haben, wohl aber auf diverse Beilagen CDs, welche Treiber enthalten...Ja und ?
:???:
Original geschrieben von Stefan Payne
Machs, aber bitte mit 'ner GF3 und nicht mit 'ner FX!!!Ähm...
Original geschrieben von Stefan Payne
1. nicht nötig, da ich denke, daß ich in der Lage bin, dieses Panel zu bedienen.Gut.
Original geschrieben von Stefan Payne
Es wäre aber schön, zu erklären, wie ich den 'Größenbutton' auf einer GF3 mit 'nem CX25871 bekomme, denn bei mir sehe ich den nicht, welcher eigentlich nicht zu übersehen sein sollte...Kann ich Dir nicht sagen...
Nur, dass es auf der guten alten ELSA Gladiac 920 mit 'nem BT869 da ist.
Original geschrieben von Stefan Payne
1. ja, von 'ner FX/GF4 MX, nicht aber von 'ner GF3!!!Ähm...
Original geschrieben von Stefan Payne
2. Daß sich die Optionen für jeden TV Encoder ev 'etwas' unterscheiden könnten und das ich nicht alle Optionen, die ich bei 'ner FX hab, auf 'ner GF3 hab?? Das ist ja auch was anderes...
Offenbar hast Du eine gf3 mit einem nicht voll unterstützten TV-Out-Encoder-Chip am Wickel... soll's geben, so etwas.

Bietet Dein Hardware-Hersteller keine passenden Treiber ?
:D

Razor

Razor
2003-10-24, 22:33:47
Original geschrieben von Stefan Payne
Sparse Sampled Multi Sampling Anti Aliasing :eyes: Und ?
:???:

Razor

StefanV
2003-10-24, 22:35:02
Original geschrieben von Razor
Und ?
:???:

Razor

Und was?? :eyes:

Gast
2003-10-24, 22:38:43
Original geschrieben von Razor
Und ?
:???:

Razor

wie und ? hat stefan gefragt was es bedeutet oder du :freak:
wach auf....

Razor
2003-10-24, 22:41:25
Original geschrieben von Stefan Payne
Und was??Wollen wir jetzt so weiter machen, oder erzählst Du endlich, worauf Du eigentlich hinaus willst ?
:???:

Razor

StefanV
2003-10-24, 22:45:37
Original geschrieben von Razor
Wollen wir jetzt so weiter machen, oder erzählst Du endlich, worauf Du eigentlich hinaus willst ?
:???:

Razor


Naja, ich kann so weiter machen, bringt mich näher an die 25k *eg*

Aber warum sollte ich jetzt erklären, worauf ich hinaus will??

Ich stehe halt auf Rätsel *eg*

Meine Aussage ist einfach nur, daß 4x SSMSAA besser ausschaut als 2x SSMSAA + 2xOGSSAA...

aths
2003-10-24, 22:51:47
Thread zu, denn:

zu wenig Nahrung für zu viele Postings...