PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 und die Anisotrope Qualität


Seiten : 1 2 [3]

aths
2004-05-06, 13:10:28
Original geschrieben von LovesuckZ
Ich meine, es ist kein Problem, dass SM3.0 nicht zu unterstuetzen, aber das es keine Veraenderung beim AA und bei der Filterung gibt, ist erbaermlich. Denn das haette man sich annehmen koennen...In Dingen AA sind sie ungeschlagen gut, in Dingen AF reicht es den meisten, wenn man was zuschalten kann, was "16x" heißt. Insofern war es eine sinnvolle Entscheidung.

ow
2004-05-06, 13:10:39
.

ow
2004-05-06, 13:14:09
.

betasilie
2004-05-06, 13:28:26
Original geschrieben von ow
Was hat das alles mit technischem Fortschritt zu tun?
Fuer mich ist das kein technischer Fortschritt sondern alles alter Kaese, der bislang nur nicht in HW implementiert wurde.
SM3.0 zB. ist dagegen neu und ein technischer Fortschritt.
:kratz: Also wenn Du dir da mal nicht wiedersprichst. Ich könnte auch schreiben:

Was hat das alles mit technischem Fortschritt zu tun?
Fuer mich ist SM3.0 kein technischer Fortschritt sondern alles alter Kaese, der bislang nur nicht in HW implementiert wurde.
8*SGMSAA zB. wäre dagegen neu und ein technischer Fortschritt.

aths
2004-05-06, 13:34:42
Original geschrieben von betareverse
:kratz: Also wenn Du dir da mal nicht wiedersprichst. Ich könnte auch schreiben:

Was hat das alles mit technischem Fortschritt zu tun?
Fuer mich ist SM3.0 kein technischer Fortschritt sondern alles alter Kaese, der bislang nur nicht in HW implementiert wurde.
8*SGMSAA zB. wäre dagegen neu und ein technischer Fortschritt. Wieso wäre 8x sparsed MSAA kein alter Käse, sondern technischer Fortschritt, wenn SM 3.0 kein technischer Fortschritt sein soll?

Dass PS 3, VS 3, FP-TMUs je für sich alleine fortschrittlicher sind als 3Dc siehst du nicht so? (Oder bringe ich jetzt was durcheinandern?)

Exxtreme
2004-05-06, 13:57:27
Original geschrieben von ow
?? Wieso hattest du denn dann zuvor keine Gf4??
Hat schnelles AA, bis heute unerrreicht gutes AF und eine brachiale Performance.
Weil ich da schon eine R8500 hatte. Und diese hat mir damals ausgereicht. Ich bin nicht der Typ, der sich alle 3 Monate eine GraKa kauft.

betasilie
2004-05-06, 14:20:26
Original geschrieben von aths
Wieso wäre 8x sparsed MSAA kein alter Käse, sondern technischer Fortschritt, wenn SM 3.0 kein technischer Fortschritt sein soll?
SM3.0 ist ja auch nix neues, wenn man bedenkt wieviele Jahre die Specs für SM3.0 schon stehen.

Ich wollte schlicht darauf hinaus, dass man ows Aussage auch genausogut umdrehen kann.

Original geschrieben von aths
Dass PS 3, VS 3, FP-TMUs je für sich alleine fortschrittlicher sind als 3Dc siehst du nicht so? (Oder bringe ich jetzt was durcheinandern?)
Doch, natürlich ist SM3.0 fortschrittlicher, aufwendiger, etc., aber ein 8*SGMSAA wäre deswegen doch kein alter Käse. Dieser Mode wird bisher immerhin von keiner einzigen GPU unterstützt wird.

Nur weil SM3.0 schon seit Jahren in DX9 spezifiziert ist und bislang nur nicht in HW implementiert wurde, nenne ich SM3.0 doch auch keinen alten Käse. ;)

Demirug
2004-05-06, 14:32:22
Original geschrieben von betareverse
Doch, natürlich ist SM3.0 fortschrittlicher, aufwendiger, etc., aber ein 8*SGMSAA wäre deswegen doch kein alter Käse. Dieser Mode wird bisher immerhin von keiner einzigen GPU unterstützt wird.

Das stinkt sogar schon. 3dlabs hat das mal mit bis zu 16 Samples gemacht.

betasilie
2004-05-06, 14:34:33
Original geschrieben von Demirug
Das stinkt sogar schon. 3dlabs hat das mal mit bis zu 16 Samples gemacht.
Ok, ich gebe mich geschlagen. :schmor:

3Dlabs. :ratlos: Woher soll ich Mainstreamjunkie das wissen. ;)

Demirug
2004-05-06, 14:38:54
Original geschrieben von betareverse
Ok, ich gebe mich geschlagen. :schmor:

3Dlabs. :ratlos: Woher soll ich Mainstreamjunkie das wissen. ;)

Lesen bildet: http://www.3dlabs.com/product/technology/superscene_antialiasing.htm

betasilie
2004-05-06, 14:47:59
Original geschrieben von Demirug
Lesen bildet: http://www.3dlabs.com/product/technology/superscene_antialiasing.htm
Thanks. Sehr interessant. Hätte nicht gedacht, dass sogar schon 16*SGMSAA im Einsatz ist.

Wo werden die Wildcats bevorzugt eingesetzt?

MadManniMan
2004-05-06, 15:03:26
@ow: Jo, ich erinner dich erstmal hier daran :) Ich hab beim Kyro immer nur - wenn überhaupt - Supersampling benutzt, war damals noch reiner AA-Junkie.

@LS: Was bist du? Spieler? Ich ja und ich war davon ausgegangen, daß du deine Grafikkarte hauptsächlich für Spiele nutzt. Bei ow als reinem Technikfreak verstehe ich diese Leidenschaft für marginalste Vorteile - selbst wenns aus Prinzip ist und vor allem Offlinerendering etc. betrifft.
Ich finde es prinzipiell nicht gut, daß ATi nur SM2.X bietet, aber tatsächlich und praktisch sehe ich den Speed und ich sehe, daß man eben keinen Qualivorteil bezogen auf AA/AF bei irgendwem ausmachen kann (ATi -> nutzbares 6*SGMS, nV -> vorhandene Kombimodi). Ich sehe den Preis, die Abwärme für mein nur mäßig gekühltes Silentsystem und die Lautstärke der Karte.
Von daher wäre es blasphemisch, Fisch zu preisen und Fleisch zu essen.

@aths: :wink: Man beachte den rein egoistischen Praxisnutzen der Koyf0r. :wink:

LovesuckZ
2004-05-06, 15:16:14
Original geschrieben von MadManniMan
Ich ja und ich war davon ausgegangen, daß du deine Grafikkarte hauptsächlich für Spiele nutzt.

Ich benutze meine grafikkarte hauptschaechlich für Officeanwendungen.
Und wenn wir nur auf Speed achten, die AF Geschichte sollte uns geziegt haben, dass Speed nicht alles sein kann.
Und auch als Spieler kann man sich vor technischer Weiterentwicklung nicht verschließen, ansonsten koennte man auch mal auf die Idee kommen, warum wir jetzt farcry in solcher Pracht und in hoher Geschwindigkeit erleben koennen...

edit: Wo du gerade Speed ansprichst: Du belegst daher meine Vermutung, dass ATi nur den reinen Spedvorteil wirklich nutzen muss. Je naehe beide Kartenhersteller sic von der Leistung kommen, umso staerker geht das Pendel auf die Seite von Nvidia.

betasilie
2004-05-06, 15:21:19
Original geschrieben von LovesuckZ
Je naehe beide Kartenhersteller sic von der Leistung kommen, umso staerker geht das Pendel auf die Seite von Nvidia.
Dem kann ich zustimmen, aber den Preis darf man nicht aus den Augen verlieren.

MadManniMan
2004-05-06, 15:21:39
Betreff Office: LOL :D Stimmt schon, zu 80% nutz ich meine Karte auch für Office/Internet/Filme/Sonstwas, aber wenn es denn auf 3D-Leistung ankommt, sinds doch auch bei dir Spiele, nicht wahr?

Ansonsten hast du sicherlich Recht und ich finde es auch gut, daß der NV40 den Fortschritt forciert, aber ich bin nicht der Gesamtmarkt, ich hol mir einfach vernünftige (Spieler-)Preis-Leistung :)

LS sagte
edit: Wo du gerade Speed ansprichst: Du belegst daher meine Vermutung, dass ATi nur den reinen Spedvorteil wirklich nutzen muss. Je naehe beide Kartenhersteller sic von der Leistung kommen, umso staerker geht das Pendel auf die Seite von Nvidia.

Ja, das stimmt. Wenn du mit Leistung Preis/Leistung meinst :)

Nasowas
2004-05-06, 15:48:02
[B]Abgesehen vom AF bin ich vom NV40 begeistert. Nicht begeistert bin ich davon, wie NV offenbar schon wieder, äh, 'optimiert'.

Schreib doch nicht sowas ;-(.

Da mag ich Deinen zukünftigen Artikel schon gar nicht mehr lesen. Hatte noch Hoffnung...

MadMan2k
2004-05-06, 15:51:06
Original geschrieben von LovesuckZ
ansonsten koennte man auch mal auf die Idee kommen, warum wir jetzt farcry in solcher Pracht und in hoher Geschwindigkeit erleben koennen...
weil Ati mit dem PS1.4 die Entwicklung ganz alleine vorangetrieben hat?
Danke Ati! :massa: :freak:

HOT
2004-05-06, 15:51:22
Original geschrieben von DrumDub
hot

schon richtig, aber du vergisst bei dieser aussage, dass es auch noch einen anderen bereich als anwendungsgebiet von 3d-grakas außer spiele gibt. ich denke, für diesem markt musste nv sm 3.0 liefern genau wie den fp-framebuffer und andere für den spieler (noch) überflüssige features.

Ich gehe immer von der Sicht des Normalkonsumenten aus. Mir ist sehr wohl bewusst dass professionelle Kunden sher wohl von den Neuerungen profitieren können (Stichwort Präzision).
ATI kann hier selbstverständlich nicht mithalten, verballerten dafür aber auch weniger Transen, die sie dann zugunsten der für Spiele so wichtigen Fillrate einsparten. Die Ansätze sind verschieden ;)
Ich als Spielenutzer benötige weder SM3.0 noch besondere Präzision. Was mir aber doch gelegen käme wäre eine Verbesserung, besser Perfektionierung der BQ. Gerade bei der Leistung, die die heutigen KArten bieten, wären diese Qualisettings realisierbar und vor allem Nutzbar gewesen, das ist echt ärgerlich. Na ja es gibt ja noch Hoffnung, dass NV das öffnen kann oder die Konkurrenz was brauchbares bringt ;)

HOT
2004-05-06, 15:54:10
Original geschrieben von DrumDub
noe. das stimmt. sieh das ganze mal nicht nur aus der perspektive des spielers.

Na ja dann halte ich mal dagegen: ATI optimierte für Takt. Da die Anwendungszweckzielbestimmung sich unterscheidet, ist weder ATI noch NV technologisch unterentwickelt. Aus der Sicht eines Spielers eher optimal bei ATI aus der Sicht eines Entwicklers ist NV besonders optimal.

LovesuckZ
2004-05-06, 15:54:36
Original geschrieben von MadMan2k
weil Ati mit dem PS1.4 die Entwicklung ganz alleine vorangetrieben hat?
Danke Ati! :massa: :freak:

Farcry benutzt PS1.4?!

HOT
2004-05-06, 15:56:10
Original geschrieben von LovesuckZ
Er kauft sich solch eine Karte, um damit in die Zukunft gucken zu koennen. Und wer bietet da wohl die bessere Alternative? ATi, mit 6xMSAA und SM2.0 oder Nvidia mit 4xMSAA und SM3.0?
Und das schoenste, unter SM2.0 ist Nvidia nicht mal so deutlich abgeschlagen beim Einsatz von FP32.

Der Normalo kauft sich HighEnd wenn er vor Geld net mehr laufen kann ;)
Also absoluter Blödsinn.

aths
2004-05-06, 16:03:56
Original geschrieben von LovesuckZ
Farcry benutzt PS1.4?! Wie viel von 1.4 ist in 2.0 noch zu finden, wenn man mit 1.1/1.3 vergleicht?

DrumDub
2004-05-06, 16:05:01
Original geschrieben von HOT
Na ja dann halte ich mal dagegen: ATI optimierte für Takt. Da die Anwendungszweckzielbestimmung sich unterscheidet, ist weder ATI noch NV technologisch unterentwickelt. Aus der Sicht eines Spielers eher optimal bei ATI aus der Sicht eines Entwicklers ist NV besonders optimal.

stimmt. es kommt halt drauf an, welchen aspekt der jeweiligen technolgie man betrachtet. ;)

aths
2004-05-06, 16:07:31
Original geschrieben von betareverse
SM3.0 ist ja auch nix neues, wenn man bedenkt wieviele Jahre die Specs für SM3.0 schon stehen.Die Specs wurden dann verabschiedet, als praktisch fix war, was der NV40 alles können soll.


Original geschrieben von betareverse
Doch, natürlich ist SM3.0 fortschrittlicher, aufwendiger, etc., aber ein 8*SGMSAA wäre deswegen doch kein alter Käse. Dieser Mode wird bisher immerhin von keiner einzigen GPU unterstützt wird.8x sparsed MSAA wäre das Sahnehäubchen. Spätestens ab NV50 rechne ich damit. Ehe ich nach 8x ggü. 4x schreie, will ich aber erst mal Oldschool-AF zurück :motz:

Mancko
2004-05-06, 17:22:32
Original geschrieben von HOT
Ich als Spielenutzer benötige weder SM3.0 noch besondere Präzision.

Na dann frage ich mich wieso gerade du und andere bei jedem FP16 und FX12 Einsatz geschriehen hast.
Da du ja keine besondere Präzision benötigst, ist es doch nur legitim, wenn Nvidia einfach bei seinen FX12 geblieben wäre.
Nach deinen Worten ja ausreichend.

MadManniMan
2004-05-06, 17:45:27
Original geschrieben von Mancko
Na dann frage ich mich wieso gerade du und andere bei jedem FP16 und FX12 Einsatz geschriehen hast.
Da du ja keine besondere Präzision benötigst, ist es doch nur legitim, wenn Nvidia einfach bei seinen FX12 geblieben wäre.
Nach deinen Worten ja ausreichend.

Muß man immer alles extra provokant formulieren? Zynismus in allen Ehren, aber derart inflationär benutzt, wie in diesem Thread hier, wirkt er sehr nervig und aufheizend ;(

r@h
2004-05-06, 18:06:28
Original geschrieben von HOT
Na ja dann halte ich mal dagegen: ATI optimierte für Takt. Da die Anwendungszweckzielbestimmung sich unterscheidet, ist weder ATI noch NV technologisch unterentwickelt. Aus der Sicht eines Spielers eher optimal bei ATI aus der Sicht eines Entwicklers ist NV besonders optimal. Wieso das ?
:???:

Ich würde eher sagen:
"Aus Sicht des Spielers sind ATI und nVidia optimal, aus Sicht der Entwickler kann man mit ATI nicht wirklich viel anfangen"

Ausser veilleicht, um die Spiele-Kompatibilität zu gewährleisten... ;)

Razor

P.S.: Mit dem R300 war ATI weit vorne (technologisch fast ebenbürtig, Performance-seitig unerreicht), aber mit dem R420 auf R300-Basis sind sie technologisch sehr weit zurück gefallen... wohl zugunsten einer tatsächlichen Neuentwicklung, die dann im R500 und wohl in der XBox2 zum Einsatz kommen wird.

HOT
2004-05-06, 18:36:54
Original geschrieben von Mancko
Na dann frage ich mich wieso gerade du und andere bei jedem FP16 und FX12 Einsatz geschriehen hast.
Da du ja keine besondere Präzision benötigst, ist es doch nur legitim, wenn Nvidia einfach bei seinen FX12 geblieben wäre.
Nach deinen Worten ja ausreichend.

a.) Habe ich nicht
b.) Der Einsatz von PP wurde denke ich geklärt und bei der GFX als sinnvoll und notwendig erachtet. Desweiteren wurde geklärt, dass sowohl der GeforceFX-Weg als auch der Radeon-Weg als ausreichend Präzise erarchtet wird. Mehr Quali ist mit der jeweiligen Technologielevel durch höhere Präzision wohl nicht zu erreichen.
c.) ging es mir nicht darum, sondern um FP Filter, FP Texturen und die bessere Filterpräzision bein NV (8Bit zu 5Bit).

Das letztere sieht man in Spielen nicht und FP Texturen(+Filter) wird wohl noch seeeehr lange in Spielen auf sich warten lassen, da dies massenhaft zusätzlichen Datenträgerplatz kosten dürfte ;)

HOT
2004-05-06, 18:40:18
Original geschrieben von r@h
Wieso das ?
:???:

Ich würde eher sagen:
"Aus Sicht des Spielers sind ATI und nVidia optimal, aus Sicht der Entwickler kann man mit ATI nicht wirklich viel anfangen"

Ausser veilleicht, um die Spiele-Kompatibilität zu gewährleisten... ;)

Razor

P.S.: Mit dem R300 war ATI weit vorne (technologisch fast ebenbürtig, Performance-seitig unerreicht), aber mit dem R420 auf R300-Basis sind sie technologisch sehr weit zurück gefallen... wohl zugunsten einer tatsächlichen Neuentwicklung, die dann im R500 und wohl in der XBox2 zum Einsatz kommen wird.

Wenn du das so siehst....
Mir ging es darum, dass der Spieler bei ATI mehr von AA+AF hat, weil es schlicht schneller ist und gleich aussieht. Die ausrichtung ist eine andere. Sicher kann ein Spieler mit beiden leben, aber fixer ist eben ATI und da wird sich wohl auch so schnell nichts dran ändern ;)

Irgendwelche extreme super hyper duber maxi Versionen die 10000€ kosten und nen eigenes Kraftwerk benötigen, wovon es genau 30 oder so gibt jetzt mal nicht mit berücksichtig.

betasilie
2004-05-06, 18:42:50
Original geschrieben von aths
8x sparsed MSAA wäre das Sahnehäubchen. Spätestens ab NV50 rechne ich damit. Ehe ich nach 8x ggü. 4x schreie, will ich aber erst mal Oldschool-AF zurück :motz:
Also ich denke mal, dass R500 und NV50 ein 8*SGMSAA anbieten werden. :)

Was ist denn nun mit dem oldschool AF des NV40. Ist das sicher, dass es nicht mehr kommt? Ich habe ja eigentlich noch drauf gehofft.

Jenaq
2004-05-06, 18:47:34
In der PCGames Hardware steht das es nicht kommen wird, genauso dass das Antialiasing beim NV40 den 32-Z/Stencil Mode unterbindet, ahoi doom3...
Interessant ist ja, das trotz Winkel Filterung, die Leistung ähnlich absackt wie bei den Vorgängern, Taktprobleme ?

r@h
2004-05-06, 18:56:50
Original geschrieben von HOT
Wenn du das so siehst....Jup, sehe ich so.
Original geschrieben von HOT
Mir ging es darum, dass der Spieler bei ATI mehr von AA+AF hat, weil es schlicht schneller ist und gleich aussieht. Die ausrichtung ist eine andere. Sicher kann ein Spieler mit beiden leben, aber fixer ist eben ATI und da wird sich wohl auch so schnell nichts dran ändern ;)Wenn ATI nichts an der Quali zum besseren ändert, ganz sicher nicht *eg*

2x/4xAA ist auch bei ATI nicht schneller und 6xAA bringt zu wenig Vorteile, um den Performance-Verlust zu rechtfertigen. Beim AF werde ich derzeit sicher keine Aussage treffen wollen, denn a) weiß man noch nicht, ob nVidia nicht doch eine Möglichkeit des Deaktivierens der Winkelabhängigkeit geben wird (soweit technisch möglich) und b) habe ich in einigen Reviews so nette Dinge gelesen, wie dass sich das ATI 'stage-optimizing' (i.e. nur bilinear auf Stage 1-7 = ultra häßlich... selbstredend auf das Game bezogen ;-) einfach nicht abschalten ließ... worauf viele trotz Einsatz des rTools schlicht gar nicht geachtet haben dürften.

Insofern mutmaße ich einfach, dass die hohe AF-Perofrmance und damit eine unvergleichbare Basis eines Quali-Checks auf sehr unschöne Dinge zurück zu führen ist.
Original geschrieben von HOT
Irgendwelche extreme super hyper duber maxi Versionen die 10000€ kosten und nen eigenes Kraftwerk benötigen, wovon es genau 30 oder so gibt jetzt mal nicht mit berücksichtig. Meinst Du damit die 6800uEE, die mit gerade mal 12,5% mehr GPU-Takt läuft ? Na die ist sicher weit ab von "extreme super hyper duber maxi" oder ähnlichen von Dir suggeriertem Zeugs. Meine FX5900 läuft da schon mit knappen 20% mehr (ähm... 18,75%, um genau zu sein ;-) und auch das ist ganz sicher kein weltbewegendes Ereignis.

Man sollte sich nur mal fragen, warum ATI den tugendhaften Pfad der hohen "pro-MHZ-Leistung" nicht nur aufgegeben, sondern glatt ins Gegenteil verkehrt hat. Etwa keine andere Wahl ? Oder einfach keine Lust ? Oder doch vielmehr reine Abzocke am Kunden ? Such Dir was aus...

Razor

ow
2004-05-06, 18:59:10
.

MadManniMan
2004-05-06, 19:03:54
Original geschrieben von r@h
2x/4xAA ist auch bei ATI nicht schneller

2* nicht, 4* schon. Sagt Thilo.

betasilie
2004-05-06, 19:04:47
Original geschrieben von ow
Na, da sehe ich zeitlich aber doch einen gewaltigen Unterschied. Die Algorithmen für SM3 sind doch wesentlich jünger als die Erkenntnisse zu AA uns AF.
Klar, aber man kann AA und Shaderversionen sowieso nicht gegeneinander aufwägen, imo. Nur weil etwas neuer ist, muss es ja nicht besser sein. Wir wissen ja auch wie ein 32*RGAA aussehen wird, aber wenn wir es dann in Hardware haben, ist es trotzdem neu.

Beim 8*SGAA bleibt ja die Frage, was für ein Samplemuster genutzt wird. Von daher ist da auch noch nicht das letzte Wort gesprochen und auch der AA-Algo wird bestimmt weiter verbessert in Sachen Effektivität, bei beiden Herstellern.

ow
2004-05-06, 19:12:16
.

ShadowXX
2004-05-06, 19:21:19
Original geschrieben von r@h
Man sollte sich nur mal fragen, warum ATI den tugendhaften Pfad der hohen "pro-MHZ-Leistung" nicht nur aufgegeben, sondern glatt ins Gegenteil verkehrt hat. Etwa keine andere Wahl ? Oder einfach keine Lust ? Oder doch vielmehr reine Abzocke am Kunden ? Such Dir was aus...

Razor

Du Formulierst zwar immer etwas provokant, aber in diesem Fall hast du schon in gewisser weise Recht...

IMHO ist es eine Mischung aus "keine andere Wahl" und teilweise "Abzocke beim Kunden"...

Denn etwas mehr neues als 3dc hätten sie schon bieten können....

ow
2004-05-06, 19:28:14
.

MadManniMan
2004-05-06, 19:29:52
Wuäh! Pfuipfui!

Errm, bevor ich jetzt das Kotzsmiley setzt noch eine Frage :D Was heißt der Kram mit dem Ändern der u/v-Werte? :|

ow
2004-05-06, 20:17:21
.

MadManniMan
2004-05-07, 01:13:39
Sieht der Kram wenigsten bei den Standardeinstellungen "normal" aus?

ow
2004-05-07, 09:25:01
.

aths
2004-05-07, 09:28:30
Original geschrieben von ow
Wenn du damit die Einstellungen meinst mit denen der AF-Tester per Default startet: ja, da sieht das wesentlich besser aus, nur eine leichte Unsymmetrie ist schon zu erkennen. Eine leichte Asymetrie :)

Quasar
2004-05-07, 09:33:57
Original geschrieben von aths
Eine leichte Asymetrie :)

Asymmetrie

aths
2004-05-07, 09:36:33
Original geschrieben von ow
Wenn mich mein Unwissen nicht täuscht:D, dann geben diese Werte an, wie oft sich eine Textur jeweils in u- bzw v-Richtung wiederholt.Das u/v-Verhältnis kann man auch einfach als Verzerrung sehen. Wenn ein Quadrat auf der einen Achse die Texturkoordinaten von 0 - 0,25 hat, und auf der anderen von 0 - 0,5, liegt ein Verhältnis von 1:2 vor. AF ist davon abhängig, wie dieses Verhältnis bei dem in den Texture Space transformierten Pixel aussieht. Da spielt also auch noch eine Rolle, aus welchem Winkel man das texturbeklebte Polygon sieht. Aber auch das "normale" u/v-Verhältnis kann je nach Situation den tatsächlich benötigten AF-Grad beeinflussen.

ow
2004-05-07, 10:28:41
.

aths
2004-05-07, 15:27:49
Original geschrieben von ow
Du gehst hier von einer quadratischen Textur aus (zB. 128*128), richtig? Bei einer Textur von 64*128 waere das Verhaeltnis doch immer noch 1:1.Genau.

Original geschrieben von ow
Soweit sind meine Kenntnisse noch nicht gediehen. Was ist der Texture space und wie transformiert man ein Pixel da hinein? Das ist auch ein Thema aus dem angedachten Artikel "Isotrope Texturfilterung im Detail".

Um ein Pixel richtig zu kolorieren, muss ermittelt werden, welche Bereiche der Textur vom Pixel abgedeckt werden. Würde man das Pixel korrekt auf die auf dem Polygon liegende Textur projizieren, erhielte man ein unregelmäßiges Viereck mit gebogenen Kanten. Afaik vereinfacht man auf ein Parallelogram. Dieses hat zwei unterschiedliche Seitenkanten, dessen längere für die LOD-Bestimmung herangezogen wird. Die Mitte des Parallelogramms ist der Samplepunkt auf der Textur, das LOD bestimmt, welche MIP-Stufe(n) zum Einsatz kommt (bzw. kommen, bei TF sind ja 2 MIPs zu filtern.)

AF geht nun etwas anders vor. Zunächst nimmt man die längeren (sich ja gegenüberliegenden) Kanten des Parallelogramms. Die Verbindung zwischen den beiden Seitenhalbierenden davon ist die Line of Anisotropy. Darauf liegen die AF-Samples. Je nach dem Verhältnis der Parallelogramm-Seitenkanten zueinander steigt der erforderliche AF-Grad. Von knapp über 1:1 bis 1:2 nimmt man 2x AF (also 2 Samples), von knapp über 1:2 bis 1:4 dann 4x AF usw. Entsprechend wird das LOD angepasst.

Was man als AF-Grad einstellt, limitiert die Anzahl der Samples. Bei 1:10 und 8x AF werden höchstens 8 Samples genommen. Das das LOD dann ebenfalls für 8 Samples gilt, führt das ggü. 16x AF zu etwas Unschärfe.

Anders gesagt wird beim AF ein nicht-quadratische Filterkernel aus mehreren kleineren, an einer Schnur aufgereihten quadratischen Kernel zusammengesetzt.

Nun ist es problematisch, die "Schnur" auf der Textur zu drehen. Daraus resultiert die Winkelabhängigkeit aller mir bekannten Verfahren > 2x. (Je mehr Samples, desto mehr Präzision ist erforderlich, vermutlich zeigt GF3/4/FX deshalb die Schwächen ab 4x bei 45°.)

r@h
2004-05-08, 10:46:54
Original geschrieben von MadManniMan
2* nicht, 4* schon. Sagt Thilo. Ich will Retail-Karten mit 'echten' treibern !
Soll ich's noch mal Buchstabieren ?
:D

Razor

Jenaq
2004-05-09, 23:37:17
http://www.3dcenter.org/artikel/2004/05-09.php

also ergibt sich folgendes :

1.) Winkelabhängige Filterung wurde eingebaut, weils beim Konkurrenten keinen gestört hat, warum also nicht auch übernehmen und Performance mitnehmen...

2.) "Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung."

Kann heisen, wir bekommen etwas mehr Einstellungen im Treiber zu sehen, von Bilinear bis volles Trilinear...
oder erst mit der nächsten Generation (im Refresh ausgeschlossen da der sicher bald sein Tapeout hat).

tokugawa
2004-05-09, 23:39:15
Original geschrieben von Jenaq
http://www.3dcenter.org/artikel/2004/05-09.php

also ergibt sich folgendes :

1.) Winkelabhängige Filterung wurde eingebaut, weils beim Konkurrenten keinen gestört hat, warum also nicht auch übernehmen und Performance mitnehmen...

2.) "Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung."

Kann heisen, wir bekommen etwas mehr Einstellungen im Treiber zu sehen, von Bilinear bis volles Trilinear...
oder erst mit der nächsten Generation (im Refresh ausgeschlossen da der sicher bald sein Tapeout hat).

Ich würde es definitiv begrüssen, wenn in einer nächsten Generation (Refresh halte ich ebenfalls für ausgeschlossen diesbezüglich) einige Transistoren dafür spendiert werden, den AF so zu skalieren, dass man Winkelabhängigkeit ein- und ausschalten kann (eventuell programmierbare LOD-Formel für AF?). Programmierbare Sample-Positionen (für AA) bei NVIDIA würd ich mir auch wünschen :)

MadManniMan
2004-05-10, 02:10:05
Original geschrieben von r@h
Ich will Retail-Karten mit 'echten' treibern !
Soll ich's noch mal Buchstabieren ?
:D

Razor

Soso, durch neue Treiber wirds beim 4*MSAA weniger Leistungseinbruch geben? :o






:crazy:

12ew
2004-05-10, 07:55:51
Original geschrieben von MadManniMan
Soso, durch neue Treiber wirds beim 4*MSAA weniger Leistungseinbruch geben? :o






:crazy:

Der Glaube versezte Berge, sagt man.

q@w
2004-05-10, 08:15:56
Original geschrieben von MadManniMan
Soso, durch neue Treiber wirds beim 4*MSAA weniger Leistungseinbruch geben?

Das sicher nicht, aber wo gibt's denn Test's ohne AF - also welche, wo man wirklich NUR MSAA vergleicht?

;Q

aths
2004-05-10, 08:58:13
Original geschrieben von tokugawa
Programmierbare Sample-Positionen (für AA) bei NVIDIA würd ich mir auch wünschen :) Prinzipiell sind sie änderbar (imo sollte man bei konfigurierbaren Sachen nicht gleich "programmierbar" sagen) aber bislang nur durch den Treiber. Imo reicht das völlig aus. Es gibt zwei optimale 4x-Muster, eines davon wird angewendet. Weitere Verbesserungen sind demnach gar nicht mehr möglich.

r@w
2004-05-10, 12:59:12
Original geschrieben von q@w
Das sicher nicht, aber wo gibt's denn Test's ohne AF - also welche, wo man wirklich NUR MSAA vergleicht?

;Q Danke Quasar...

Offensichtlich will hier jemand nicht verstehen.
Obwohl ich diesen 'jemand' dazu durchaus im Stande sehe.

Razor

HOT
2004-05-10, 15:04:50
Original geschrieben von r@w
Danke Quasar...

Offensichtlich will hier jemand nicht verstehen.
Obwohl ich diesen 'jemand' dazu durchaus im Stande sehe.

Razor

das is net quasar (oder?)

betasilie
2004-05-10, 15:08:57
Original geschrieben von HOT
das is net quasar (oder?)
Doch.

MadManniMan
2004-05-10, 15:31:21
Original geschrieben von q@w
Das sicher nicht, aber wo gibt's denn Test's ohne AF - also welche, wo man wirklich NUR MSAA vergleicht?

;Q

Original geschrieben von r@w
Danke Quasar...

Offensichtlich will hier jemand nicht verstehen.
Obwohl ich diesen 'jemand' dazu durchaus im Stande sehe.

Razor

;(

Leute! Ich schrieb doch, daß es eben gerade um MSAA in der PCGH geht. Dreht mir nen Strick draus, aber ich meine, das richtig interpretiert zu haben.

Was mir bei dieser Aussage wirklich den Kragen kosten kann: laut Leos FlyBy-Benches sieht es wirklich eher anders herum aus. Dort verliert der NV40U 12% bei 4 Samples, beim R420P sinds 24% - gut wäre wirklich, wenn uns Thilo irgend mitteilen könnte, auf welcher Basis jene Zahlen ermittelt wurden.

Ist der FlyBy bei 180fps bei Leo CPU-Begrenzt?


Man mag mir gerne vorwerfen, daß meine nV-Asympathie schlicht und einfach verhindert, objektiven Kram zu schreiben - aber eigentlich bemüh ich mich stets darum ... und gerade in diesem Fall. Zur Erinnerung: PCGH-"4*AA? 30%!" ... Razor-"30%? Neuer Treiber!" ... :|

/Edit: ...danke, ow!

DrumDub
2004-05-10, 15:42:00
Original geschrieben von q@w
Das sicher nicht, aber wo gibt's denn Test's ohne AF - also welche, wo man wirklich NUR MSAA vergleicht?

;Q

es gibt solche:

http://www.firingsquad.com/hardware/ati_radeon_x800/page21.asp
http://www.firingsquad.com/hardware/ati_radeon_x800/page24.asp

MadManniMan
2004-05-10, 16:10:05
Original geschrieben von DrumDub
es gibt solche:

http://www.firingsquad.com/hardware/ati_radeon_x800/page21.asp
http://www.firingsquad.com/hardware/ati_radeon_x800/page24.asp

Womit wiederum gezeigt worden wäre, daß die "Schwäche" des NV40 eher bei der Kombination aus hohen AA und AF Modi zu finden wäre - beim 4*AA nehmen sich beide Chips wohl nicht viel.

Thilo! Rechtfertige dich! :D

aths
2004-05-10, 16:47:57
Original geschrieben von MadManniMan
nV-Asympathie Antipathie :)

MadManniMan
2004-05-10, 17:50:09
Original geschrieben von aths
Antipathie :)

Ich dachte mir, "Asympathie" würde weniger harsch klingen ... :idea:

Hast natürlich Recht ;)

Wolfi
2004-05-11, 11:42:36
Nach dem neuen 3DCenter Artikel habe ich wenig hoffnung auf AF wie früher.
Interesant das der PR Manager erwähnt das den Reviewern die AF Qualität immer egal war,bestätigt eigentlich nur das NVidia den daus nun nachgegeben hatt.

Quasar
2004-05-11, 12:11:20
Original geschrieben von DrumDub
es gibt solche:

http://www.firingsquad.com/hardware/ati_radeon_x800/page21.asp
http://www.firingsquad.com/hardware/ati_radeon_x800/page24.asp

Danke, ich kannte bisher nur die von THG und die 3DMarks von B3D...
Aber auch hier wieder dasselbe Bild: AA allein kann's nicht sein. ;)

MadManniMan
2004-05-11, 12:34:56
Original geschrieben von Quasar
Danke, ich kannte bisher nur die von THG und die 3DMarks von B3D...
Aber auch hier wieder dasselbe Bild: AA allein kann's nicht sein. ;)

Wie meinen? Ich mein mit "AA allein kann's nicht syne"?

Daß nun doch der NV40 schneller ist, wenn man sich auf AA beschränkt, ist natürlich insofern doof, als daß ich mich auf die PCGH verlassen und natürlich schon gefreut hatte (*JUBEL!* "...Arschtritt für nV! Arschtritt für nV...").

Allerdings frag ich mich grad ernsthaft, wann ich mich das letzte mal auf nur AA beschränkt hab. Hm, war glaub ich bei Morrowind und Mafia - mit meiner GF3 :D

Ansonsten hab ich immer beides angehabt, bis nun eben Halo und FarCry bei mir eintrudelten. Ich sollte meine Maxime mal neu ordnen :|

Im Endeffekt gings mir aber - für mich selbst - überraschenderweise gar nicht mal so sehr darum, den NV40 bloß zu stellen, sondern eher um die Darlegung der - für mich in dieser Situation klaren, wenn auch falschen - Fakten. Junge junge!

Quasar
2004-05-11, 12:47:51
Original geschrieben von MadManniMan
Wie meinen? Ich mein mit "AA allein kann's nicht syne"?
Ich meinte die vielen Benchmarks, in denen in hohen Auflösungen und mit hohen AA/AF-Stufen (zu 95% in Kombination!) ATi z.T. weit vorn liegt.

Ich hätte auch schreib0rn können: An AA alleine kann's nycht l13g0rn!

Catch my drift?

MadManniMan
2004-05-11, 12:54:54
Original geschrieben von Quasar
Catch my drift?

$|_|r3!

Inzwischen ists ja nunmal klar: das AF bei ATi ist performanter.

Ich persönlich gehe davon aus, daß es einfach an der Summe der kleinsten Nachteile liegt:
- FP-Filterung bei nV
- feinere LoD-Bestimmung bei nV
- die AF-Blume hat keine Ausreißer "unter" 2*AF

...vielleicht spielt DANN auch noch rein, daß ATi den Algo anderweitig einfach schnell0r hingekrieg0rt hat.

Einfach nur ein Füllratenüberschuß ists IMHO eher nicht, denn die X8Pro kommt mit 0.7GP(T)/s weniger daher.

Quasar
2004-05-11, 13:14:30
Original geschrieben von MadManniMan
$|_|r3!

Inzwischen ists ja nunmal klar: das AF bei ATi ist performanter.

Wenn's so wäre, würde mich das freuen.
Leistung beinhaltet aber nicht nur Zeit, sondern auch Arbeit - ich hoffe, da wird momentan wirklich Leistung und nicht nur Zeit verglichen und daß Demirug mit seiner Vermutung richtig liegt bezgl. des R420-Speichercontrollers.

MadManniMan
2004-05-11, 13:56:09
Original geschrieben von Quasar
Wenn's so wäre, würde mich das freuen.
Leistung beinhaltet aber nicht nur Zeit, sondern auch Arbeit - ich hoffe, da wird momentan wirklich Leistung und nicht nur Zeit verglichen und daß Demirug mit seiner Vermutung richtig liegt bezgl. des R420-Speichercontrollers.

Diese Aussage verstehe ich jetzt leider wirklich nicht ?-)

Wie meinen mit Zeit und Leistung? Und was geht jetzt mit dem Speichercontoller?

Quasar
2004-05-11, 14:07:14
Original geschrieben von MadManniMan
Diese Aussage verstehe ich jetzt leider wirklich nicht ?-)

Wie meinen mit Zeit und Leistung? Und was geht jetzt mit dem Speichercontoller?

Ähm.... red' ich heut' kinesisch?

Leistung:
Die erreichten FPS-Werte, gemeinhin als Leistung bezeichnet, sprechen beim Einsatz von AF für die X800. Aber um die Leistung zu vergleichen, sollte man die Zeit (Timedemo-Durchlauf) und die Arbeit (wieviel AF wurde appliziert) kennen. Ansonsten kann man die "Leistung" nicht erahnen - höchstens die erreichten FPS.

Speichercontroller:
Es könnte auch sein, daß die X800 nicht nur von ihrer rechnerischen Bandbreite gebremst wird, sondern auch von der, die real für die GPU nutzbar ist, also inklusive der Vorzüge oder Unzulänglichkeiten des Speichercontrollers.

Denn eigentlich müsste die erreichte Effektivität der Füllratennutzung beim X800 Pro besser sein, als beim X800 XT, da pro Pixel rechnerischer Füllrate deutlich mehr rechnerische Bandbreite vorhanden ist. Was am Ende rauskommt, ist aber ähnlich "enttäuschend".

betasilie
2004-05-11, 14:10:53
Original geschrieben von Quasar
... wieviel AF wurde appliziert ...

Dir sollte bekannt sein, dass sich das AF von NV und ATI nur minmal unterscheidet. :eyes: Daher ist dieser Einwand wohl eher als Witz gemeint, oder willst Du wieder Erbsen zählen?

Original geschrieben von Quasar
Speichercontroller:
Es könnte auch sein, daß die X800 nicht nur von ihrer rechnerischen Bandbreite gebremst wird, sondern auch von der, die real für die GPU nutzbar ist, also inklusive der Vorzüge oder Unzulänglichkeiten des Speichercontrollers.

Denn eigentlich müsste die erreichte Effektivität der Füllratennutzung beim X800 Pro besser sein, als beim X800 XT, da pro Pixel rechnerischer Füllrate deutlich mehr rechnerische Bandbreite vorhanden ist. Was am Ende rauskommt, ist aber ähnlich "enttäuschend".
Dir ist klar, dass der Speichercontroller beim R420 programmierbar ist? Dann sollte dir auch kalr sein, dass sich bei kommenden Treiber wahrscheinlich noch was ändern wird. ;)

Quasar
2004-05-11, 14:16:04
Original geschrieben von betareverse
Dir sollte bekannt sein, dass sich das AF von NV und ATI nur minmal unterscheidet. :eyes: Daher ist dieser Einwand wohl eher als Witz gemeint, oder willst Du wieder Erbsen zählen?
Ja, ist mir bekannt. Du weisst aber auch, worüber wir hier spekulieren... filtern beide auf allen Stages mit demselben Filter oder gibt es Optimierungen?
edit:
Erbsen zählt doch nur :kicher:


Original geschrieben von betareverse
Dir ist klar, dass der Speichercontroller beim R420 programmierbar ist? Dann sollte dir auch kalr sein, dass sich bei kommenden Treiber wahrscheinlich noch was ändern wird. ;)
Ich weiß, das ATi das sagt, ja. Muss ich es deswegen für bare Münze nehmen? nVidia sagt ja auch, daß man die Reduzierung des trilinearen Filters in-Game nicht sieht.

Ich weiß nur nicht, inwiefern ATi es nützen könnte, erst "längere Zeit" nach dem Launch sogar mit der X800 Pro gegen die 6800 Ultra anstinken zu können.
IMO wäre das wesentlich medienwirksamer direkt am Launch platziert gewesen.

BTW, alle Aussagen sind natürlich auf die momentan sich darstellende Situation bezogen und da sieht's entweder mit dem Speichercontroller oder mit dem AF nicht soo rosig aus.

DrumDub
2004-05-11, 14:22:58
Original geschrieben von Quasar
BTW, alle Aussagen sind natürlich auf die momentan sich darstellende Situation bezogen und da sieht's entweder mit dem Speichercontroller oder mit dem AF nicht soo rosig aus.

ich gehe von ersterem aus, da das af zum r3x0 meines wissens nach identisch ist. die frage ist nur, ob dies durch eine bessere programmierung des controllers gelöst werden kann, oder ob es eine hw-limitierung ist.

Quasar
2004-05-11, 14:26:27
Ich hoffe, das heute noch irgendwie indizienmäßig nachweisen zu können.

BTW: Wie schaut's mit dem Speichercontroller der 9600XT aus? Ist der auch schlecht?

betasilie
2004-05-11, 14:30:34
Original geschrieben von Quasar
Ja, ist mir bekannt. Du weisst aber auch, worüber wir hier spekulieren... filtern beide auf allen Stages mit demselben Filter oder gibt es Optimierungen?
edit:
Erbsen zählt doch nur :kicher:

Mein Fehler. Ich dachte Du spielst auf die Winkelabhängigkeit ab. :bonk:

Original geschrieben von Quasar
Ich weiß, das ATi das sagt, ja. Muss ich es deswegen für bare Münze nehmen? nVidia sagt ja auch, daß man die Reduzierung des trilinearen Filters in-Game nicht sieht.

Ich weiß nur nicht, inwiefern ATi es nützen könnte, erst "längere Zeit" nach dem Launch sogar mit der X800 Pro gegen die 6800 Ultra anstinken zu können.
IMO wäre das wesentlich medienwirksamer direkt am Launch platziert gewesen.

Natürlich ist das nicht gewiss. Aber man sollte die Möglichkeit schon in Betracht ziehen, da der Speichercontroller beim R420 definitv nicht der selbe ist wie beim R3xx. In Kombination mit der Programmierbarkeit desselben, ist es doch sehr wahrscheinlich, dass kommende Catalysts noch ordentlich Raum für verbesseren bringen können.

HOT
2004-05-11, 14:37:29
Irgendwie will mir das nicht in den Kopf :D
Entwicklungshistorie:
1.) ATI entwickelt einen R300, dessen Speichercontroller auf 8 Pipes ausgelegt ist und (spekulativ) genau in Hardware darauf ausgelegt wurde.
2.) ATI entwickelt einen RV350, verbessert die Pipes, verbaut aber den gleichen Speichercontroller, lässt aber nur 128Bit verbinden ODER entwickelt eine sehr abgespeckte Version OHNE HirZ für den RV350. (dazu müsste man wissen was passiert wenn man HirZ zuschaltet, wenn nichts passiert dann ist es ein neues Speicherinterface, wenn Fehler, dann ist es das R300Teil oder ein physikalisch beschnittenes R300Teil).
3.) ATI Entwickelt den R420, übernimmt die komplette RV350 Logik x4 und bastelt ein völlig neues, programmierbares Interface, wobei dieses aber nur 6x% der Füllrate, AUCH bei der 12Pipe Version verwerten kann.

Und das soll jetzt zu schlecht für den R420 sein? Das hört sich für mich SEHR dubios an. Entweder hat ATI hier wirklich technisch gesehen Mist verzapft, der sich nur bei 16x voll Tri AF ausnutzen lässt, oder es war eine politische Entscheidung. Beim Taktpotenzial des NV40, und da man ja nicht genau wusste, wie der letztendlich performt könnte ich mir eine politische Entscheidung durchaus vorstellen.
Wenn man davon ausgeht, dass das Speicherinterface wirklich programmierbar ist, dann macht das sogar nur dann wirklich Sinn, NV (oder unliebsame Überraschungen) an der Nase herumzuführen.
Bin mal gespannt, inwieweit wir noch "wundersame" Leistungssteigerungen durch superhyperduper Catalyst Wundertreiber sehen werden. Auch hier gibt es wieder einen Hinweis auf politische Entscheidung. ATI möchte gerne als super Treiberbauer darstehen ;)

Na ja wie auch immer, dieses Posting ist reine Spekulation und soll nur zum Nachdenken anregen :D

tRpii
2004-05-11, 15:00:17
Vielleicht meint ATi damit ja den "revolutionären" Treiber mit dem sie in ungeahnte Performancebereiche vordringen wollen. :asshole:

Quasar
2004-05-11, 15:00:28
Noch eine zusätzliche Spekulation:

ATi hat erstmal nur auf die 16-Pipe Version optimiert. Gründe: Man hatte nicht genug Zeit, beide Zugriffsmuster optimal zu ermitteln und man wollte in den in niedrigen eh schon CPU-limitierten Benchmarksparcours der Reviewer Pro und XT nicht noch dichter zusammenrücken lassen.
Wäre doch doof, wenn alle 15"-TFT User mit Beschränkung auf 1024x768 vor Augen geführt bekämen, daß ihnen die teurere Karte gar nichts nutzt.

Wie gesagt, nur eine weitere Speku.

DrumDub
2004-05-11, 15:31:26
Original geschrieben von Quasar
Noch eine zusätzliche Spekulation:

ATi hat erstmal nur auf die 16-Pipe Version optimiert. Gründe: Man hatte nicht genug Zeit, beide Zugriffsmuster optimal zu ermitteln und man wollte in den in niedrigen eh schon CPU-limitierten Benchmarksparcours der Reviewer Pro und XT nicht noch dichter zusammenrücken lassen.
Wäre doch doof, wenn alle 15"-TFT User mit Beschränkung auf 1024x768 vor Augen geführt bekämen, daß ihnen die teurere Karte gar nichts nutzt.

Wie gesagt, nur eine weitere Speku.

hmm.. aber dann verstehe ich nicht, warum die x800xt prozentual gesehen auf die therotische maximale füllrate fast genauso limitiert ist, wie die x800pro. die x800xt müsste dann doch ein weitaus besseres verhältnis erreichen, wenn der controller auf die 16 pipes optmiert wäre.

siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1799520#post1799520

MadManniMan
2004-05-11, 15:41:02
Original geschrieben von Quasar
Ähm.... red' ich heut' kinesisch?

Nay, ich bin nur momentan nicht so omnipräsent in den ganzen Diskussionen wie sonst üblich und versteh mehr oder minder durch das Blümchen(hey! Kontextwitz!) getätigte Aussagen leider nicht mehr mit der für mich selbst gewohnten Zuverlässigkeit :naughty:

Was das AF anbelangt, denke ich schon, daß auch wirklich das passiert, was uns die AF-Tester aufzeigen.

Was den Speichercontroller anbelangt, war ich bisher leider ohne besondere Gedanken durchs Forum marschiert. Logisch, daß dieser an die neuen Designs angepaßt werden muß und von daher wohl auch kein Wunder, wenn denn R420 und NV40 durch zukünftige Treiber nochmal merklich Zuwächse erhielten.

DrumDub
2004-05-11, 15:44:42
Original geschrieben von Quasar
BTW: Wie schaut's mit dem Speichercontroller der 9600XT aus? Ist der auch schlecht?

anscheinend ist der eben nicht identisch mit dem des r420. zumindest was die programmierbarkeit angeht. oder wolltest du auf was anderes hinaus?

Quasar
2004-05-11, 15:45:51
Original geschrieben von DrumDub
hmm.. aber dann verstehe ich nicht, warum die x800xt prozentual gesehen auf die therotische maximale füllrate fast genauso limitiert ist, wie die x800pro. die x800xt müsste dann doch ein weitaus besseres verhältnis erreichen, wenn der controller auf die 16 pipes optmiert wäre.

siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1799520#post1799520
Könnte, muss aber nicht.
So hat die Pro ein weitaus besseres (~20%) Füllraten/Bandbreitenverhältnis, kommt aber trotzdem nur auf ähnlich niedrige Ausbeute an erreichten Füllratenprozenten.


Wenn die Bandbreite jedoch global zu niedrig ist, kann auch ein noch so gute Controller nicht mehr herausholen.

HOT
2004-05-11, 16:10:24
Um das rauszubekommen müsste man wissen, inwieweit der XT überhaupt in der Lage ist, seine Fillrate bei der Speichergeschwindigkeit zu verwerten.
Wenn der NV40 eine optimale Verwertung bei 550MHz schafft (90%+) und das schon bei 400MHz Chiptakt, dann ist sicher noch ein wenig Luft nach oben. Das würde sich ja auch mit dem 3DCenter NV40 OC Test decken.
60% Auslastung des XT ist sicher zu wenig für 550MHz RAM-Takt. Das müsste eher so in Richtung 75-80% tendieren, geschätzt.
Was passiert eigentlich wenn man das Verhältnis RAM/GPU Takt verbessert oder verschlechtert, tut sich da was von der Effizienz her? Das wäre auch noch eine interessante Frage (NICHT X800Pro. Ich rede jetzt nur von der XT, weil bei der Pro, siehe Quasar, ja auch noch andere Umstände entscheident sein könnten).

Quasar
2004-05-11, 16:17:15
Original geschrieben von HOT
Was passiert eigentlich wenn man das Verhältnis RAM/GPU Takt verbessert oder verschlechtert, tut sich da was von der Effizienz her? Das wäre auch noch eine interessante Frage.

Gut erkannt. :)
Auch mit einer Pro sollte man da auf näherungsweise verwertbare Messungen kommen.

DrumDub
2004-05-11, 16:56:55
ein paar zahlen haben wir ja, leider nur mit 4xfsaa/16xaf:

Suntemple-Flyby - Unreal Tournament 2003

x800pro
300/300 MHz: 71,1 fps
300/400 MHz: 83,1 fps
400/300 MHz: 76,6 fps
400/400 MHz: 95,1 fps
475/450 MHz: 107,4 fps
510/588 MHz: 127,5 fps

6800u
300/300 MHz: 63,7 fps
300/400 MHz: 72,6 fps
400/300 MHz: 72,3 fps
400/400 MHz: 86,8 fps
400/550 MHz: 98,3 fps
467/618 MHz: 113,0 fps
http://www.3dcenter.org/artikel/r420_benchmarks/index12.php

tatsache ist in jedem falle, dass sich eine speichertakt-erhöhung auf der x800pro wesentlich stärker auswirkt als auf der 6800u.
besonders gut sieht man das an den ergebnisse 300/400 vs. 400/300 hier tut sich bei der 6800u fast gar nix (72,6 vs. 72,3), während bei der x800pro die fps um 8,5% (83,1 vs. 76,6) ansteigen. auch beim sprung von 400/300 auf 400/400 zeigt sich dieses phänomen, hier verzeichnet die 6800u einen anstieg um 20,05%, während die x800pro um 24,15% zulegt.
insofern scheint sogar die x800pro bandbreitenlimitiert zu sein. :|

MikBach
2004-05-11, 16:59:22
Original geschrieben von Wolfi
Interesant das der PR Manager erwähnt das den Reviewern die AF Qualität immer egal war,bestätigt eigentlich nur das NVidia den daus nun nachgegeben hatt.

Das stimmt so nicht. ATI hatte auch das bessere AA(4X) gegenüber Nvidia. Darauf wurde auch nicht immer eingegangen.
Man könnte also sagen, dass Nvidia und ATI von den Daus benachteiligt wurden. ATI beim AA, Nvidia beim AF.

LovesuckZ
2004-05-11, 17:00:23
Original geschrieben von MikBach
Darauf wurde auch nicht immer eingegangen.


Kannst du das beweisen?

Quasar
2004-05-11, 17:08:01
Original geschrieben von LovesuckZ
Kannst du das beweisen?

Sinnlos danach zu fragen. Er schrieb "wurde nicht immer eingegangen" - ein einziges Review, daß also darauf nicht eingeht, reicht als Beweis.


Andererseits stimmt LAs Behauptung auch nicht, daß _kein_ Reviewer auf die schlechtere AF-Qualität bei ATi eingegangen ist. :naughty:

MikBach
2004-05-11, 17:08:25
Original geschrieben von LovesuckZ
Kannst du das beweisen?

Was soll ich dir denn da beweisen?
Meinst du ich hab bock die "alten" Reviews zu suchen?

Nur ein Beispiel das mir auf die schnelle einfällt. Hab mal eine Gamestar eines Freundes durchgeblättert. War auch ein Test ATI vs Nvidia, den habe ich mir dann natürlich genauer angesehen. Nix von der besseren AA-Qualität bei ATI.

Damit meine ich halt Daus, wie die Gamestar z.B.

HOT
2004-05-11, 17:19:41
Original geschrieben von DrumDub
ein paar zahlen haben wir ja, leider nur mit 4xfsaa/16xaf:

Suntemple-Flyby - Unreal Tournament 2003

x800pro
300/300 MHz: 71,1 fps
300/400 MHz: 83,1 fps
400/300 MHz: 76,6 fps
400/400 MHz: 95,1 fps
475/450 MHz: 107,4 fps
510/588 MHz: 127,5 fps

6800u
300/300 MHz: 63,7 fps
300/400 MHz: 72,6 fps
400/300 MHz: 72,3 fps
400/400 MHz: 86,8 fps
400/550 MHz: 98,3 fps
467/618 MHz: 113,0 fps
http://www.3dcenter.org/artikel/r420_benchmarks/index12.php

tatsache ist in jedem falle, dass sich eine speichertakt-erhöhung auf der x800pro wesentlich stärker auswirkt als auf der 6800u. besonders gut sieht man das an den ergebnisse 400/300 vs. 300/400. hier tut sich bei der 6800u fast gar nix (72,6 vs. 72,3), während bei der x800pro die fps um 8,5% ansteigen.
insofern scheint die x800pro bandbreitenlimitiert zu sein. :|

Beantwortet aber das Problem leider nicht hinreichend, macht aber einen Tendenz deutlich. Die G6 scheint mit 400/550 wirklich ein optimales Verhältnis zu besitzen.

DrumDub
2004-05-11, 17:38:07
Original geschrieben von HOT
Beantwortet aber das Problem leider nicht hinreichend, macht aber einen Tendenz deutlich. Die G6 scheint mit 400/550 wirklich ein optimales Verhältnis zu besitzen.

ich weiß. daher schrieb ich ja auch, dass die benches leider mit 4xfsaa/16triaf gemacht wurden.
für "unser" problem dürfte nur mit 16xtriaf gebencht werden und gleichzeitig müsste eine stärkere cpu her.

interessant auch dieser vergleich:


x800pro
300/300 MHz: 71,1 fps 100,00%
400/400 MHz: 95,1 fps 133,76%

6800u
300/300 MHz: 63,7 fps 100,00%
400/400 MHz: 86,8 fps 136,26%

die 6800u skaliert also bei gleichem taktverhältnis auch besser als die x800pro.

aths
2004-05-11, 17:44:32
Original geschrieben von MadManniMan
- die AF-Blume hat keine Ausreißer "unter" 2*AFDas ist Grund 1, der andere ist, dass das "Volle Band" um den 90°-Winkel beim R420 bei den 45°-Winkeln nicht gegeben wird, aber beim NV40.

Aufgrund meiner starken Erkältung muss ich derzeit das Bett hüten und kann leider nicht an einer gewissen Kolumne weiterarbeiten.

ShadowXX
2004-05-11, 19:44:50
Original geschrieben von aths
Das ist Grund 1, der andere ist, dass das "Volle Band" um den 90°-Winkel beim R420 bei den 45°-Winkeln nicht gegeben wird, aber beim NV40.

Aufgrund meiner starken Erkältung muss ich derzeit das Bett hüten und kann leider nicht an einer gewissen Kolumne weiterarbeiten.

Ist zwar OT aber trotzdem:

Gute Besserung, aths...

MikBach
2004-05-11, 20:26:21
Original geschrieben von ShadowXX
Ist zwar OT aber trotzdem:

Gute Besserung, aths...

Ja, gute Besserung. :)

Noch mehr OT:
Habe gerade die Demo von DTM Race Driver 2 getestet. Einstellungen -> anisotropischer Filter. ;D
Ich dachte immer, nur die Daus lieben es tropisch. :D

Gas8t
2004-05-11, 20:31:10
Original geschrieben von DrumDub
ich weiß. daher schrieb ich ja auch, dass die benches leider mit 4xfsaa/16triaf gemacht wurden.
für "unser" problem dürfte nur mit 16xtriaf gebencht werden und gleichzeitig müsste eine stärkere cpu her.

interessant auch dieser vergleich:


x800pro
300/300 MHz: 71,1 fps 100,00%
400/400 MHz: 95,1 fps 133,76%

6800u
300/300 MHz: 63,7 fps 100,00%
400/400 MHz: 86,8 fps 136,26%

die 6800u skaliert also bei gleichem taktverhältnis auch besser als die x800pro.

Lieber DrumBub,

so einen Driss habe ich selten gelesen, du kannst doch nicht AMD und Intel auch gleich takten und andere Werte bzw. Werte erwarten die dir einen Aufschluss über Performance geben!

Das sind 2 völlig verschiedende Chips-Designs!

Bitte vergesse diesen Driss !

BTW
2004-05-11, 20:33:31
ist kapuut, schade aber auch !!!!

Champagner !!!!!!!!

*g* Hat zwar nichts hier zu suchen ist aber nen LAcher wert!

Quasar
2004-05-11, 21:23:34
Original geschrieben von MikBach
Ja, gute Besserung. :)

Noch mehr OT:
Habe gerade die Demo von DTM Race Driver 2 getestet. Einstellungen -> anisotropischer Filter. ;D
Ich dachte immer, nur die Daus lieben es tropisch. :D

Guck mal in die ATi-Treiber.... ;D

MikBach
2004-05-11, 22:29:41
Original geschrieben von Quasar
Guck mal in die ATi-Treiber.... ;D

Jo, hast Recht. Habe ich bis jetzt gar nicht gemerkt. ;D Liegt wahrscheinlich daran, dass ich immer nur bis "aniso" gelesen habe. Die Einstellungen von DTM2 habe ich mir genauer angesehen, da ist es mir direkt aufgefallen. Ich glaube ich werde langsam zu genau. :bonk:
Aber wahrscheinlich sind dafür eh die Überseter schuld. Was solls, hauptsache ich kann AA und AF auseinanderhalten, auch bei der XGI hätte ich es wahrscheinlich hingekriegt.;D Sollte nur eine Anmerkung sein, weil ja Einige auf den Neuen rumhacken, dass sie nicht wissen, wo es lang geht.
Wie auch, wenn man solchen Schwachsinn sieht?:bonk:

DrumDub
2004-05-11, 23:02:59
Original geschrieben von Gas8t
Lieber DrumBub,

so einen Driss habe ich selten gelesen, du kannst doch nicht AMD und Intel auch gleich takten und andere Werte bzw. Werte erwarten die dir einen Aufschluss über Performance geben!

Das sind 2 völlig verschiedende Chips-Designs!

Bitte vergesse diesen Driss !

lieber gast, da nur persönnlich wirst, weiß ich, dass du mein posting gar nicht verstanden hast. aber egal, mir ist es eh völlig egal, was du von dir gibst.

abgesehen davon ist die x800pro in diesem benchmark absolut immer noch schneller als die 6800u, falls dich das beruhigt. :P

MadManniMan
2004-05-12, 02:44:36
Original geschrieben von aths
Das ist Grund 1, der andere ist, dass das "Volle Band" um den 90°-Winkel beim R420 bei den 45°-Winkeln nicht gegeben wird, aber beim NV40.

Aufgrund meiner starken Erkältung muss ich derzeit das Bett hüten und kann leider nicht an einer gewissen Kolumne weiterarbeiten.

Jung, mach n Ruhigen, Erkältungen sind grad am Anfang der warmen Zeit sehr gefährlich!

Zum Thema: Recht hast du, aber wiederum ist ein (kleiner) Punkt contra der "besseren" Optimierung von ATis AF zu sehen ... ATi (http://www.3dcenter.org/images/r420_benchmarks/af-test_xt_ogl_af04.png) / nV (http://www.3dcenter.org/images/r420_benchmarks/af-test_68_ogl_af04.png)
Namentlich spreche ich das minimal niedrige(vom ~X*22,5°-Kram abgesehen!) LoD-MipMap-BIAS an.

DrumDub
2004-05-12, 11:22:48
Original geschrieben von MadManniMan
Jung, mach n Ruhigen, Erkältungen sind grad am Anfang der warmen Zeit sehr gefährlich!

Zum Thema: Recht hast du, aber wiederum ist ein (kleiner) Punkt contra der "besseren" Optimierung von ATis AF zu sehen ... ATi (http://www.3dcenter.org/images/r420_benchmarks/af-test_xt_ogl_af04.png) / nV (http://www.3dcenter.org/images/r420_benchmarks/af-test_68_ogl_af04.png)
Namentlich spreche ich das minimal niedrige(vom ~X*22,5°-Kram abgesehen!) LoD-MipMap-BIAS an.

ah... war mir noch gar nicht aufgefallen. ist tatsächlich interessant. wobei der unterschied imho bei 45°, 135°, 225° und 315° weitaus stärker ist als bei 0°, 90°, 180° und 270°. andererseits filtert der nv40 ein breiters band um die winkel von 45°, 135°, 225° und 315°.

aths
2004-05-12, 13:57:23
Original geschrieben von DrumDub
ah... war mir noch gar nicht aufgefallen. Dafür bin ich ja da =)

MadManniMan
2004-05-12, 14:27:27
Original geschrieben von aths
Dafür bin ich ja da =)

Wenn ich einmal deine Fähigkeit des Kortinenkackes angewandt sehen will, dann bei diesem Thema :naughty:

DrumDub
2004-05-12, 15:25:15
Original geschrieben von aths
Dafür bin ich ja da =)

ich sag ja nix. :)

hier siehts man es auch sehr schön, wobei der effekt sich bei 16xtriaf imho weniger auffällt: http://www.xbitlabs.com/articles/video/display/r420_13.html

q@w
2004-05-12, 17:25:16
Original geschrieben von MadManniMan
Kortinenkackes

Korinthenkackens :kicher:

;Q

MadManniMan
2004-05-12, 17:30:58
Original geschrieben von q@w
Korinthenkackens :kicher:

;Q

Hehe, ich wollte sehen, wer zuerst drauf anspringt ;D

Gast
2004-06-08, 14:08:46
Ich wusste doch, gibt nen eingenen Thread.

Neuer NV-Treiber "ohne" Optimierungen lt. CB.

http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

Gruss Henzmoe

Quasar
2004-06-08, 14:18:21
Ohne "Bri" und stur reduziertes/limitiertes AF.

Blumentopf
2004-06-08, 14:54:09
interessant auch dieser vergleich:

code:
x800pro
300/300 MHz: 71,1 fps 100,00%
400/400 MHz: 95,1 fps 133,76%

6800u
300/300 MHz: 63,7 fps 100,00%
400/400 MHz: 86,8 fps 136,26%



die 6800u skaliert also bei gleichem taktverhältnis auch besser als die x800pro.

:up:

MadManniMan
2004-06-08, 15:20:54
Hm, mir sieht es eher so aus, als ob die Taktgeber nicht ganz genau arbeiteten - wie soll denn bitte mehr Leistung beim NV40 rauskommen, als durch den Mehrtakt möglich ;)

Gast
2004-06-08, 15:34:03
Original geschrieben von MadManniMan
Hm, mir sieht es eher so aus, als ob die Taktgeber nicht ganz genau arbeiteten - wie soll denn bitte mehr Leistung beim NV40 rauskommen, als durch den Mehrtakt möglich ;)


Nun, in gewissem Rahmen ist das moeglich. Naemlich dann, wenn das "System-Timing" (also das Zusammenspiel CPU, RAM, Chipinterface, etc...) eben bei 400/400 besser aufeinander passt als bei 300/300.
Aber mehr als einige wenige Prozent Abweichung vom Idealfall (System-Timing passt immer perfekt) sind damit nicht drin.

Quasar
2004-06-08, 15:46:55
Das Verhältnis Füllrate/Bandbreite ändert sich bei beiden unterschiedlich stark. Das kann durchaus was mit den Ergebnissen zu tun haben.
Möglicherweise stößt die X800 auch nur näher ans CPU-Limit vor und wird dadurch stärker gebremst - kenn den Test nicht.

DrumDub
2004-06-08, 16:05:01
Original geschrieben von Quasar
Das Verhältnis Füllrate/Bandbreite ändert sich bei beiden unterschiedlich stark. Das kann durchaus was mit den Ergebnissen zu tun haben.
Möglicherweise stößt die X800 auch nur näher ans CPU-Limit vor und wird dadurch stärker gebremst - kenn den Test nicht.

das ganze ist aus leos tests entnommen:

x800pro (http://www.3dcenter.de/artikel/r420_benchmarks/index12.php)

6800u (http://www.3dcenter.de/artikel/nv40_benchmarks/index11.php)

Quasar
2004-06-08, 16:17:14
Ah, ok, danke.
Dann wird's wohl nicht das CPU-Limit sein. ;)

Gast
2004-06-08, 16:51:22
Original geschrieben von MadManniMan
Hm, mir sieht es eher so aus, als ob die Taktgeber nicht ganz genau arbeiteten - wie soll denn bitte mehr Leistung beim NV40 rauskommen, als durch den Mehrtakt möglich ;)

Komisch finde ich nur das der so NEU ist, April 2004, paßt zum Launch, könnte das Gerücht stimmen das hier mind. 5 nv-Angestellte rumhängen????

Godmode
2004-06-08, 16:57:16
Ist die Winkelabhängigkeit auch weg??

MechWOLLIer
2004-06-08, 17:02:36
Original geschrieben von bans3i
Ist die Winkelabhängigkeit auch weg??

Nein, dies wird technisch wohl auch nicht möglich sein :(

Wolfi
2004-06-08, 19:33:06
Bei der Winkelabhängigkeit sollte sich mal was tun,die finde ich weitaus schlimmer als Briliniar.
Ich glaub zwar auch nich dran,aber das Interview mit dem NVidia Typen sagt ja das sie sich das noch weiter anschaun was machbar ist

aths
2004-06-08, 20:37:00
Original geschrieben von Wolfi
Bei der Winkelabhängigkeit sollte sich mal was tun,die finde ich weitaus schlimmer als Briliniar.
Ich glaub zwar auch nich dran,aber das Interview mit dem NVidia Typen sagt ja das sie sich das noch weiter anschaun was machbar ist Machbar wäre schon was.

sth
2004-06-08, 20:52:31
Original geschrieben von aths
Machbar wäre schon was.

Auf der 6800? Na dann raus mit der Sprache!

Wolfi
2004-06-08, 23:42:09
Yo Was ?,könnte mir z.b. vorstellen das man die Winkelabhängigkeit noch senken könnte,aber eben nicht mehr NV2X erreichen kann,aber zumindest besser als das jetzige.