PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??


Seiten : 1 2 [3] 4

reunion
2004-11-11, 14:18:08
Eigentlich schon, sie konkurrierte mit der 9800, war die denn im Nachhinein betrachtet auch kein Highend?

Die gesamte FX-Serie ist maximal eine gute DX8 Karte, mehr sicher nicht.
Spätestens wenn man DX9 Benchs (zB von farCry) sieht wo selbst eine 9600er mehr als doppelt so schnell ist wie die "High-End Karte" FX5950U kann man nurnoch zu dem Schluss kommen.

aths
2004-11-11, 14:25:46
Die gesamte FX-Serie ist maximal eine gute DX8 Karte, mehr sicher nicht.
Spätestens wenn man DX9 Benchs (zB von farCry) sieht wo selbst eine 9600er mehr als doppelt so schnell ist wie die "High-End Karte" FX5950U kann man nurnoch zu dem Schluss kommen.Eine 9600 ist schneller als doppelt so schnell wie eine 5950 Ultra, oder brauchts dazu die 9600 Pro oder XT? Gibt es neben FC noch andere Spiele die aktuell waren als die 5900 das Flagschiff bei NV waren, wo es so übel für die FX aussieht?

aths
2004-11-11, 14:29:24
Tschuldigung, aber das ist 'schönmalerei', das hat auch bei der 5900 nix gebracht, die ist auch mit 'schönreden' recht bescheiden...

Ich würd eher mal sagen, das wir alle mal etwas abwarten sollten, bevor wir uns so weit aus dem Fenster lehnen, denn am Ende kanns anders kommen als man meint...Der NV40 ist architekturbedingt für lange Shader besser geeignet als die R420. Der NV40 ist kein NV3x. Ich wäre froh, wenn einige Leute endlich mal einsehen, dass

- NV40 bei MAD-Operationen ebenfalls splitten kann, sogar flexibler als die Radeon

- und außerdem eine superskalare Pipe hat.

Ob sie damit gleich die deutlich höher getaktete R420 übertrifft werden wir sehen, aber nur weil die FX bei DX9-Pixelshadern grottig performt ist das nicht analog zum NV40 übertragbar.


Eigentlich nicht, denn im Nachhinein betrachtet liegt die 5900 weit unter der 9800...

Nur in alten Multi Texturing Games kann die 5900 mit der 9800 konkurieren, nicht aber bei neuen 'DX9 Games'.Richtig. "Zu ihrer Zeit" gabs aber kaum selbst nur DX8-Games.

robbitop
2004-11-11, 14:35:16
Eine 9600 ist schneller als doppelt so schnell wie eine 5950 Ultra, oder brauchts dazu die 9600 Pro oder XT? Gibt es neben FC noch andere Spiele die aktuell waren als die 5900 das Flagschiff bei NV waren, wo es so übel für die FX aussieht?

http://www.ttecx.de/hardwarereports/51_3dhigh_class_ocing/img/logo/bench_farcry_1024.PNG

http://www.ttecx.de/hardwarereports/51_3dhigh_class_ocing/img/logo/bench_farcry_1600.PNG

low: NoAA/NoAF
medium: NoAA/8xAF

hier ist die FX5900 nur maximal 40% langsamer in Far Cry als eine 9800PRO.
Eigentlich ist die 5900Ultra der 9800PRO Konkurent. Kann man auf die 5900 also nochmal 10% draufrechnen. Sind maximal 30% Unterschied.
Eine 9600 kommt da nicht ran.

http://www.ttecx.de/hardwarereports/51_3dhigh_class_ocing/main.php

loci2005
2004-11-11, 14:42:34
jo, ich denk das sollten wir uns alle mal zu herzen nehmen. derzeitiges faktum ist und bleibt wohl (vorerst ;)) das die x800 xt(pe) der ultra in den meisten titeln in der 1600er auflösung davonzieht.

...was wieder für das "spezielle" einhalten von DirectX-Regeln von ATi spricht. Abgesehen davon ist die Filterqualität der Geforce 6800 besser. Diverse Tests beweisen dies Klick (http://www.de.tomshardware.com/graphic/20040616/index.html) ... bekanntlich rechnet die Geforce etwa 16 Bit oder 32 Bit. Die ATi speziell nur 24 Bit. 24 Bit genau brauch DirectX, laut Spezifikation. Dies wird sich aber bald ändern, wenn M$ bei der nächsten DirectX-Generation voll auf 32 Bit setzt. Bin mal gespannt wie es dann aussieht. Unter OpenGL gibt es nur 16 oder 32 Bit, einer der Gründe warum dort NV ATi davonzieht, speziell mit AF und AA ...

MfG,
Loci

StefanV
2004-11-11, 14:46:38
Grafisch anspruchsvoll wird in Zukunft aber vor allem auch längere und komplexere Shader bedeuten. Und da hat die GF6800 die bessere Technik.
Man sieht ja schon in Far Cry 1.3, wie gut die GF6800 für ihren deutlich geringeren Takt im Vergleich zur X800 performed.
Far Cry ist ein schlechtes Beispiel, da recht stark auf die nV40 optimiert...

Aber selbst das nutzt nix, um schneller als die X800 zu sein, für die 6800er und das obwohl die 6800er weniger Arbeit erledigen...

StefanV
2004-11-11, 14:48:05
Eine 9600 ist schneller als doppelt so schnell wie eine 5950 Ultra, oder brauchts dazu die 9600 Pro oder XT? Gibt es neben FC noch andere Spiele die aktuell waren als die 5900 das Flagschiff bei NV waren, wo es so übel für die FX aussieht?
Sicher, z.B. Tomb Raider und noch ein paar andere Games, wo die Leistung der 5800/5900 schöngeredet wurde, von einigen (z.B. ist nur ein Spiel, sagt noch garnix, ist stark R300 optimiert usw).

robbitop
2004-11-11, 14:50:55
Far Cry ist ein schlechtes Beispiel, da recht stark auf die nV40 optimiert...

Aber selbst das nutzt nix, um schneller als die X800 zu sein, für die 6800er und das obwohl die 6800er weniger Arbeit erledigen...

woran machst du das fest?
Bei FC hat man bis zum 1.2 aus beiden Architekturen das Maximum herausgeholt.
NV35 blieb leider dabei auf der Strecke aber dank Demi's DX Tweaker kann sie auch den SM3 Pfad fahren.
Ich werde das mal mit der NV36 und dem RV360 mitbenchen.

Mr. Lolman
2004-11-11, 14:52:39
Abgesehen davon ist die Filterqualität der Geforce 6800 besser.

Warum häufen sch im Forum dann die Berichte, dass Leute ihre 6800 gegen eine x800 ausgetauscht haben, weil ihnen die 6800 Grafik zu flimmrig war (auch noch nachdem sie die Optimierungen deaktiviert hatten)!?

StefanV
2004-11-11, 14:53:22
Der NV40 ist architekturbedingt für lange Shader besser geeignet als die R420. (...)

Das glaub ich (und sicher andere auch), erst, wenn ich das in der Praxis bei entsprechenden Spielen sehe...

In der THeorie kann vieles noch so toll sein, dennoch kanns in der Praxis etwas (mehr) klemmen...

Das beste Beispiel dürfte wohl Radeon 8500 gegen 9000 PRO sein, wobei letztere zum Teil die 8500 deutlich schlägt, obwohl sie es in der Theorie eigentlich nicht könnte...

Das dürfte wohl das beste Beispiel für 'in Theorie besser, in Praxis klemmts' sein...


Ob sie damit gleich die deutlich höher getaktete R420 übertrifft werden wir sehen, aber nur weil die FX bei DX9-Pixelshadern grottig performt ist das nicht analog zum NV40 übertragbar.


Richtig. "Zu ihrer Zeit" gabs aber kaum selbst nur DX8-Games.
1. naja, nV hat versucht mit ihrem 1 Quad Dingens da ein Weiteres jahr zu leben...
Nach der GF1 hätten sie spätestens mal mit der FX5800 8 Pipes bringen müssen und nicht eine weitere Aufgebohrte Auflage der 'G-Force'...

2. Naja, du solltest aber auch nicht vergessen, das manche Karten noch ein paar Tage halten sollten...
Selbst damals, gabs genug Indizien, die beweisen, das die nV3x Serie sehr schwache shader hatte, akzeptiert wurde es hingegen nicht, nur 'schöngeredet'...

Mr. Lolman
2004-11-11, 14:53:36
woran machst du das fest?
Bei FC hat man bis zum 1.2 aus beiden Architekturen das Maximum herausgeholt.

Stimmt nicht. FC 1.0 rennt auf Atis am schnellsten. (zumindest auf den R3x0 Karten)

Holundermann
2004-11-11, 14:56:09
Far Cry ist ein schlechtes Beispiel, da recht stark auf die nV40 optimiert...

stark optimiert = sm3 pfad ;)? ati hat auch sm2.0b bekommen, trotzdem ist der speedgewinn von sm3 höher als der von sm2, obwohl die shaderlänge nichtmal ansatzweise an das rankommt was sm3 zu leisten im stande ist... grossartig optimiert würde ich nicht sagen, netterweise implementiert...

Aber selbst das nutzt nix, um schneller als die X800 zu sein, für die 6800er und das obwohl die 6800er weniger Arbeit erledigen...

die 6800er muss weniger arbeit erledigen? sie kann nur mehr pro takt abarbeiten, die arbeit bleibt die selbe ;) ausserdem ist die 6800er sehr wohl schneller als die x800 in farcry, nämlich die x800 pro vs 6800 gt...: klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/inno3d_geforce_6800_gt_ultra/9/#far_cry)

hört mal auf mit den pauschalausagen ale x800 ist schneller als 6800, die produktbezeichnung ist zu ungenau...

edit: Stimmt nicht. FC 1.0 rennt auf Atis am schnellsten. (zumindest auf den R3x0 Karten)

von den r3x0er karten ist ja hier nicht die rede, das ati klar vorne lag it der 9xxxer reihe ist wohl sonnenklar... wobei ich die 5900er keinesfalls als langsam beschreiben würde :)

robbitop
2004-11-11, 14:59:23
Stimmt nicht. FC 1.0 rennt auf Atis am schnellsten. (zumindest auf den R3x0 Karten)

hab ich das je angezweifelt? ;)


@Stefan
ob nun 8 Pipelines oder 4 ist völlig egal. Heutige Pixel sind nicht mehr nur Bilinear. Das Problem ist die ganze Pipeline.
NV hat NV3x an DirectX9 vorbeigeschrieben und man wollte zu früh zuviel das ist alles. (man musste dann blöde Kompromisse eingehen um das Transistorbudget nicht zu sprengen).

und bitte wo ist eine 9000pro schneller als eine 8500? Gib mir eine Quelle.
Du hast sowas schön öfter mal in den Raum geworfen und alle Benches die ich mir angesehen hab, sprachen eine andere Sprache (ist ja auch klar wenn man nur 1 TMU pro Pipeline hat statt 2)

SentinelBorg
2004-11-11, 15:03:40
Far Cry ist ein schlechtes Beispiel, da recht stark auf die nV40 optimiert...

Aber selbst das nutzt nix, um schneller als die X800 zu sein, für die 6800er und das obwohl die 6800er weniger Arbeit erledigen...
Far Cry wurde aber ähnlich stark auch für die X800 optimiert, so wie es sich für eine ordentliche Engine gehört. Auf jeden Fall aber ist Far Cry ein Spiel, bei dem die Shader-Leistung ausserordentlich zum tragen kommt. Nicht wie beim hier diskuttierten FlatOut, das technisch doch eher noch zu den DX7-Games zu zählen ist.

Sentinel

seahawk
2004-11-11, 15:04:15
Grafisch anspruchsvoll wird in Zukunft aber vor allem auch längere und komplexere Shader bedeuten. Und da hat die GF6800 die bessere Technik.
Man sieht ja schon in Far Cry 1.3, wie gut die GF6800 für ihren deutlich geringeren Takt im Vergleich zur X800 performed.
Mal ganz davon abgesehen, dass grafisch anspruchsvollere Spiele, wie z.B. Far Cry mit HdR, auf der X800 teils gar nicht mehr möglich sind, durch diverse technische Limitationen.
Sentinel

Und wie perfromt die 6800 mit diesen Features ?? Was hilft mir die tollste Technik, wenn es eine Diashow wird ??

Supernatural
2004-11-11, 15:04:19
@Gast Kommentar: Du hast mal wieder gar nichts verstanden oder?
Es ghet hier lediglich darum, ob die Ati-Karten so schneller bzw. schneller sind wie behauptet und das ist sehr wohl ein GRund, dies zu diskutieren, da es hier um bare Münze geht. Ich habe meine 6800GT auch nur gekauft, da die x800xt nicht erhältlich war und ich sowieso aufrüsten wollte.
Es ist pure Information zu wissen, ob eine Grafikkarte erheblich schneller ist, als die andere und danach den Kaufwunsch auszurichten. Wer 400-500 Euro ausgibt möchte einfach mal Gewissheit haben, dass sein Geld nicht zum Fenster rausgeschmissen wurde und als Besitzer eben jener 6800GT bin ich für die gebotene Leistung nun nicht wirklich zufrieden, gerade in HInblick auf höhere Auflösungen mit Quali optionen bricht die Leistung der 6800er zu sehr ein und das bei einer 450 Euro Karte.
Wer sich allein mit den Benchmarks beschäftigt, die so im Netzt kusieren und in diversen Magazinen wird wahrscheinlich denken, dass der Unterschied zwischen 6800 und x800xt nur marginal ist, er ist es aber NICHT, wie zahllose Userberichte beweisen.
Wer also mal die Rosa Brille absetzt und aufhört darüber nachzudenken, was die GRafikkarte vielleicht mal in nem Jahr kann ( ps3.0 ), wenn selbst Matrox PS3.0 in seine Chips implementiert, kann nur zum Schluss kommen, dass Ati insgesamt das bessere Preis-/Leistungsverhältnis hat in Hinblick auf Frames/Euro und so einfach ist die Rechnung letzten Endes.
Wenn eine x800xt in vielen Games schneller ist und genauso teuer wie eine 6800Ultra gibt es für einen Menschen mit klarem Verstand halt nur eine richtige Entscheidung.

Ich habe damals die falsche Entscheidung getroffen und hätte liber noch warten sollen, aber so werde ich die Zeit mit der 6800GT überbrücke, bis ATi den r520 releast und wieder auf Ati wechseln.
Achja und nebenbei mal kurz mein System, um Mäuler zu stopfen, die igendwas wegen Bottlenecks labern wollen:

3500+ AMD
1 Gig Speicher 333er @ 2-2-2-7-11 ( Corsair ) 1T Commandrate
Asus A8V
Leadtek 6800GT@ Stock (FW 66.81)
480 Watt Tagan
KEINE irq Probleme, System perfekt konfiguriert ( alle unnötigen Dienste abgeschaltet und sonstiger Ballast )

Nach nunmehr 3 Monaten, da ich die Karte besitze kann ich sagen , dass sie nicht das bringt, was ich mir erhofft habe, wobei sie mit Sicherheit keine schlecht Karte ist, nur muss man einsehen können, dass wenn man bereit ist 400-500 Euro für ne Grafikkarte auszugeben, lieber gleich zu ner x800xt greift.

Mr. Lolman
2004-11-11, 15:05:13
hab ich das je angezweifelt? ;)

Naja, wenn 1.1 und 1.2 plötzlich (geringfügig) langsamer als 1.0 rennen, schauts nicht unbdeingt so aus, als hätte man mit dem Patch (weiterhin) das Maximum aus der R3x0 Achitektur geholt...


und bitte wo ist eine 9000pro schneller als eine 8500? Gib mir eine Quelle.
Du hast sowas schön öfter mal in den Raum geworfen und alle Benches die ich mir angesehen hab, sprachen eine andere Sprache (ist ja auch klar wenn man nur 1 TMU pro Pipeline hat statt 2)

http://www.rage3d.com/content/reviews/video/radeon9000pro/index.php?page=9

edit:wo wir schon bei so alten Kamellen sind: Ich wusste garnicht, dass ATi schon damals 30% Vorsprünge hinbekommen hat. Und zwar mit einer eigentlich als performancemässig deutlich unterlegen betrachteten 128MB 8500 vs. 128MB Ti4200 in 1600x1200 ohne AA/AF: http://www.hardocp.com/image.html?image=MTAyNjc2MjI0MXRHR29GcmpGaE1fM180X2wuZ2lm

reunion
2004-11-11, 15:07:14
Eine 9600 ist schneller als doppelt so schnell wie eine 5950 Ultra, oder brauchts dazu die 9600 Pro oder XT?

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6600-serie/7/#far_cry

"Dass die GeForce FX 5950 Ultra und die PCX 5900 wirklich DirectX-9-kompatibel sind, zweifeln wir - einer Tradition folgend - einmal mehr an."

Okay, es ist ne X600XT :rolleyes:
(Nichtmal 5min gesucht)

Gibt es neben FC noch andere Spiele die aktuell waren als die 5900 das Flagschiff bei NV waren, wo es so übel für die FX aussieht?

Bei wohl allen zukünftigen DX9 Spielen ist ähnliches zu erwarten. Oder man zwingt die FX-Karten wie bei HL2 einfach in den DX8 Modus(Während selbst ein 9600SE User alle DX9 Effekte zu gesicht bekommt).

seahawk
2004-11-11, 15:09:21
...was wieder für das "spezielle" einhalten von DirectX-Regeln von ATi spricht. Abgesehen davon ist die Filterqualität der Geforce 6800 besser. Diverse Tests beweisen dies Klick (http://www.de.tomshardware.com/graphic/20040616/index.html) ...
MfG,
Loci

Soory, aber dieses Flimmern in diversen Games ist unerträglich, Dazu das schlechtere AA. Also von der BQ ist ATI praktisch (nicht in der Theorie) deutlich überlegen und das bei besserem Speed.

Tjell
2004-11-11, 15:13:07
Warum häufen sch im Forum dann die Berichte, dass Leute ihre 6800 gegen eine x800 ausgetauscht haben, weil ihnen die 6800 Grafik zu flimmrig war (auch noch nachdem sie die Optimierungen deaktiviert hatten)!?
Die Grafik flimmert
a) wenn die Optimierungen deaktiviert werden,
b) weil das LOD im Vergleich zu den Vorgänger-Chips treibermäßig verschoben worden ist.

robbitop
2004-11-11, 15:14:52
Naja, wenn 1.1 und 1.2 plötzlich (geringfügig) langsamer als 1.0 rennen, schauts nicht unbdeingt so aus, als hätte man mit dem Patch (weiterhin) das Maximum aus der R3x0 Achitektur geholt...



http://www.rage3d.com/content/reviews/video/radeon9000pro/index.php?page=9

http://www.digit-life.com/articles2/digest3d/0703/itogi-video-ut2003-w2k-p41280.html
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-q3std-w2k-p41280.html
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-cc-w2k-p41280.html
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-un2-w2k-p41280.html
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-ssam-w2k-p41280.html

Die Radeon Roundup bei Computerbase spricht dieselbe Sprache. Ich kenne noch ein paar andere Reviews wos ähnlich steht und Carsten Spille hat die Karten selbst auch mal getestet und ist derselben Meinung.
Vermutlich ist bei Rage3D ein Malör passiert.

Mr. Lolman
2004-11-11, 15:20:26
Die Grafik flimmert
a) wenn die Optimierungen deaktiviert werden,
b) weil das LOD im Vergleich zu den Vorgänger-Chips treibermäßig verschoben worden ist.

a) Pauschal gesagt falsch. AFAIK berichten manche Leute, dass die Grafik weniger flimmert, wenn der Schieberegler auf HQ steht, und alle OPtimierungen bis auf die "Trilineare" deaktiviert sind.
b) Eben!

SentinelBorg
2004-11-11, 15:20:27
Die Grafik flimmert
a) wenn die Optimierungen deaktiviert werden,
b) weil das LOD im Vergleich zu den Vorgänger-Chips treibermäßig verschoben worden ist.
Jo, einfach den LOD-Regler bissel verschieben und das Flimmern verschwindet weitgehend, bei zudem noch erhöhter Leistung. Dafür ist das Bild zwar bissel unschärfer, aber das ist es bei ATI ja auch.

Sentinel

Mr. Lolman
2004-11-11, 15:23:25
*doppelpost*

Mr. Lolman
2004-11-11, 15:23:49
Die Radeon Roundup bei Computerbase spricht dieselbe Sprache. Ich kenne noch ein paar andere Reviews wos ähnlich steht und Carsten Spille hat die Karten selbst auch mal getestet und ist derselben Meinung.
Vermutlich ist bei Rage3D ein Malör passiert.

Vielleicht haben sie auch einfach von HardOCP abgeschreiben: http://www.hardocp.com/image.html?image=MTAyNjc2MjI0MXRHR29GcmpGaE1fM18yX2wuZ2lm

SentinelBorg
2004-11-11, 15:24:33
Und wie perfromt die 6800 mit diesen Features ?? Was hilft mir die tollste Technik, wenn es eine Diashow wird ??
Diashow ist ja wohl übertrieben. HdR ist durchaus spielbar in FarCry.
Klar, man muss dann Kompromisse in der Auflösung eingehen, aber mit 1024x768 und HdR läuft FC immer noch deutlich besser, als früher in der Auflösung mit weniger Details auf meiner GF4ti4200. Und HdR wurde in FarCry ja nur per Patch nachgerüstet und befindet sich immer noch im Beta Status...

Sentinel

Tjell
2004-11-11, 15:24:46
Doppelpost, bitte löschen.

Tjell
2004-11-11, 15:25:30
a) Pauschal gesagt falsch. AFAIK berichten manche Leute, dass die Grafik weniger flimmert, wenn der Schieberegler auf HQ steht, und alle OPtimierungen bis auf die "Trilineare" deaktiviert sind.
b) Eben!
"Manche Leute" = zum Beispiel ich. Aber nicht auf HQ. ;)

Ich hätte es nach einzelnen Optimierungsschaltern aufgeschlüsselt angeben sollen/müssen, was aber ATI-User eh nicht interessiert hätte.

Fakt ist: Hohe Qualität, alle Optimierungen aus = Flimmern.
Fakt ist: das Flimmern kann man durch händisches Eingreifen wegbekommen.

robbitop
2004-11-11, 15:26:37
Vielleicht haben sie auch einfach von HardOCP abgeschreiben: http://www.hardocp.com/image.html?image=MTAyNjc2MjI0MXRHR29GcmpGaE1fM18yX2wuZ2lm

Dann ist eben HardOCP ein Malör passiert ;)

Mr. Lolman
2004-11-11, 15:33:36
Fakt ist: Hohe Qualität, alle Optimierungen aus = Flimmern.
Fakt ist: das Flimmern kann man durch händisches Eingreifen wegbekommen.

Fakt is: Hohe Qualität flimmert weniger als die Standardeinstellung.

Also kann man sich darauf einigen dass das Bild einmal grundsätzlich zum Flimmern neigt, was sich auch mit dem "Hohen Qualität" Setting nicht ganz beseitigen lässt. Erst mit händischem Eingreifen. Trotzdem gibts schon ein paar Leute im forum die .zT. sogar mehrere 6800 Karten gehabt haben, nur um dann doch zur x800 zu greifen, und zwar wegen der BQ, nicht wegen der Performance. (Denn Performance bieten die HighEnd Modelle momentan noch genug)


Damit keine Missverständnisse aufkommen. Ich will niemanden seine 6800 madig machen. Die Karten sind sehr gut, und ich überlege mir selbst noch eine zu holen (wegen 3D-Stereosupport) Nur glaub ich nicht ganz, dass die 6800er Reihe tatsächlich noch ne bessere BQ bietet als die x800er Reihe. (mal abgesehen von Overkill Settings wie 8xSAA mit 16xAF)

Mr. Lolman
2004-11-11, 15:36:31
Dann ist eben HardOCP ein Malör passiert ;)

und auch Techreport: http://tech-report.com/reviews/2002q3/radeon-9000pro/index.x?pg=10 Anscheinend weiss niemand eine Radeon 9000pro richtig zu benchen ;)

Gast
2004-11-11, 15:41:38
Die Ati Bildquali ist 100Pro besser als die von Nvidia,ich hab bei Cod mit 4aa8AF noch immer an der waffe schlieren,bei meiner Ati nicht,

robbitop
2004-11-11, 15:42:31
Quasar hat das Flimmern schon untersucht. Wär ganz nett, wenn er dazu mal was posten könnte.

Gast
2004-11-11, 15:42:33
Sry meinte es Flimmert viel mehr bei NV als bei Ati.

robbitop
2004-11-11, 15:44:33
und auch Techreport: http://tech-report.com/reviews/2002q3/radeon-9000pro/index.x?pg=10 Anscheinend weiss niemand eine Radeon 9000pro richtig zu benchen ;)

offensichtlich ist das so. Ich kenne eine 2 Stellige Anzahl an Reviews die das Gegenteil zeigt.
Und Carsten sowieso (bei ihm weiss ich, dass er weiss was er genau tut).

robbitop
2004-11-11, 15:46:46
(mal abgesehen von Overkill Settings wie 8xSAA mit 16xAF)

Für alte Spiele ist dieser "Overkill" ein wahrer Segen. Für Nostalgiker wie Raff und mich z.B. echt ein nettes Feature.

Ich nehme mal an, das Flimmern wird ein Treiber issue sein.

Mr. Lolman
2004-11-11, 15:50:34
offensichtlich ist das so. Ich kenne eine 2 Stellige Anzahl an Reviews die das Gegenteil zeigt.
Und Carsten sowieso (bei ihm weiss ich, dass er weiss was er genau tut).

und ich hab nur mal die erst besten angeklickt, die ich im Google gefunden hab. Nur bei absolut maximal möglicher Qualität (> Extreme Qualität) ist die 9000pro langsamer. Vielleicht liegts daran.

Andererseits hat Zeckensack mal ein paar Benchmarks gepostet wo die 9000pro wirklich überdeutlichst schneller war, als die 8500. AFAIK wusste er auch warum ads so ist.

Ausserdem, wurde nicht immer behauptet, dass die 8500 ohnehin nur mit angezogenener Handbremse lief? So ein Refresh kann ja Wunder bewirken (5800<>5900)

Wishnu
2004-11-11, 15:54:53
500€+ für eine Karte, die schon heute nicht mehr alle Effekte in Games darstellen kann? Hm...

Klar, Effekte die man dann sowieso schnell wieder abdreht, weil zu lahm. ;)

robbitop
2004-11-11, 15:57:15
und ich hab nur mal die erst besten angeklickt, die ich im Google gefunden hab. Nur bei absolut maximal möglicher Qualität (> Extreme Qualität) ist die 9000pro langsamer. Vielleicht liegts daran.

Andererseits hat Zeckensack mal ein paar Benchmarks gepostet wo die 9000pro wirklich überdeutlichst schneller war, als die 8500. AFAIK wusste er auch warum ads so ist.

Ausserdem, wurde nicht immer behauptet, dass die 8500 ohnehin nur mit angezogenener Handbremse lief? So ein Refresh kann ja Wunder bewirken (5800<>5900)
naja die 8500 hatte Pipelinestalls ....ist aber nur ein Gerücht, dass diese bei der 9000 behoben worden sind. Sowas erfordert zumeist tiefe Eingriffe in die Pipeline (allerdings nicht immer).

Also ich persönlich habe noch keine in der Hand gehabt ...sonst würd ich es mal testen.
Ich glaube jedoch kaum, dass man mal eben 100% Füllratenverlust kompensieren kann und dennoch den Vorreiter überflügeln kann.
Vieleicht kann Quasar ja mal etwas dazu sagen, er besitzt IIRC beide.

P.S. ich glaube meine Freundin hat eine 9100 oder 9200 in ihrem PC, vieleicht kann ich mir da mal was anschauen (ich glaube es war die 9100).

betasilie
2004-11-11, 15:57:29
Klar, Effekte die man dann sowieso schnell wieder abdreht, weil zu lahm. ;)
Bis jetzt gibt es ja nicht mal ein Spiel, was offiziell solche Effekte bietet. UNd die, die man mit Tweak freispielen kann, laufen nur grotten langsam und in sehr niedrigen Auflösungen.

Wenn schon SM3.0 und HDR Hardware, dann doch bitte performante. Dem NV50 traue ich da mehr zu. :)

Mr. Lolman
2004-11-11, 15:59:14
Für alte Spiele ist dieser "Overkill" ein wahrer Segen. Für Nostalgiker wie Raff und mich z.B. echt ein nettes Feature.

SSAA ist sicher toll. Aber ich mag nicht dran denken, dass die NV SSAA Technik die doppelte Füllrate frisst, wie die 3dfx Technik.
BTW: ist 8xSAA und 16xAA bei der aktuellen NV Generation das Selbe (beide haben ein 4xEER und einen 2x2SS Anteil, oder?)


Ich nehme mal an, das Flimmern wird ein Treiber issue sein.

Hoffentlich...

Holundermann
2004-11-11, 15:59:58
ich kann sogar auf meiner 6800nu in innenlvls hdr aktivieren mit high details + af (1024) ohne das es ruckeln anfängt...

Wenn schon SM3.0 und HDR Hardware, dann doch bitte performante. Dem NV50 traue ich da mehr zu.

herrgott: sm3 ist performanter als sm2, checkst du das?

robbitop
2004-11-11, 16:04:38
SSAA ist sicher toll. Aber ich mag nicht dran denken, dass die NV SSAA Technik die doppelte Füllrate frisst, wie die 3dfx Technik.
BTW: ist 8xSAA und 16xAA bei der aktuellen NV Generation das Selbe (beide haben ein 4xEER und einen 2x2SS Anteil, oder?)


8xS alt:
4xOGSSAA +2xRGMS
EER: 16

8xS neu:
2xOGSSAA +4xRGMS
EER: 32

16x:
4xOGSSAA +4xRGMS
EER: 64

Ja diese Technik frisst mehr Füllrate pro SSAA EER.
Allerdings kann man RGSSAA nicht in einen MS Hybriden einsetzen.
Somit sind die Hybriden im Endeffekt meist schneller und besser als reines SSAA :)

betasilie
2004-11-11, 16:05:40
herrgott: sm3 ist performanter als sm2, checkst du das?
Wer solche Pauschalaussagen trifft, zeigt seine Kompetenz. :rolleyes:

Im übrigen hat der NV40 einige Features, für die er zu langsam ist, um sie in der Praxis zu nutzen.

Und wieviel SM3.0 zum beschleunigen bringen kann, sehen wir ja bei Painkiller2. ;(

robbitop
2004-11-11, 16:08:08
Wer solche Pauschalaussagen trifft, zeigt seine Kompetenz. :rolleyes:

Im übrigen hat der NV40 einige Features, für die er zu langsam ist, um sie in der Praxis zu nutzen.

Und wieviel SM3.0 zum beschleunigen bringen kann, sehen wir ja bei Painkiller2. ;(
besser wäre diese Aussage: SM3 Hardware kann dafür genutzt werden, SM2 Shader schneller auszuführen. Ist aber nicht zwangsweise der Fall.

Offensichtlich muss man das intensiv und vernünftig implementieren in eine Engine (das hat man bisher nirgendwo richtig gut gemacht).

-> die Features die du meinst sind dynamisches Branchen und FP Rendertargets. Dazu ist der NV40 nicht wirklich designed ja.

Aber es gibt andere Arten über SM3 SM2 Shader schneller auszuführen. Nur hat das noch niemand gemacht.
Wieviel Speedup das bringt ist allerdings wieder eine andere Geschichte. Es muss erst mühevoll eingearbeitet werden. Ergo: nettes Gimmick ...nicht mehr


BTW: es gibt PK2 :eek:

Holundermann
2004-11-11, 16:10:18
Im übrigen hat der NV40 einige Features, für die er zu langsam ist, um sie in der Praxis zu nutzen.

die wären?

Und wieviel SM3.0 zum beschleunigen bringen kann, sehen wir ja bei Painkiller2.

sm3 kann wohl derzeit nur begrenzt beschleunigen, wir werden wohl erst im laufe des nächsten jahres sehen wozu sm3 im stande ist, wenn richtige lange shader zum einsatz kommen.

betasilie
2004-11-11, 16:10:22
Offensichtlich muss man das intensiv und vernünftig implementieren in eine Engine (das hat man bisher nirgendwo richtig gut gemacht).
In FarCry war der Performanceanstieg doch ganz ansehnlich, wie ich finde. Im Endeffekt scheint es ganz so, als ob eine gute SM3.0 Implementierung zur Beschleunigung von SM2.0-Spielen, den Taktnachteil wieder einholen kann.

robbitop
2004-11-11, 16:13:12
In FarCry war der Performanceanstieg doch ganz ansehnlich, wie ich finde.
finde ich auch. Hatte aber leider wenig mit SM3 zu tun. Lediglich eine geschickte Nutzung der Interpolatorregister in der ALU.
IIRC hatte schon NV3x genügend Interpolatoren, um den SM3 Pfad von FC auszuführen.

Beispielsweise könnte man den VS3 einige PS Vorberechnungen ausführen lassen oder die CPU entlasten.
So richtig hats noch niemand gemacht. Alles nur angeklatscht.

Holundermann
2004-11-11, 16:13:21
In FarCry war der Performanceanstieg doch ganz ansehnlich, wie ich finde.

jo, und jetzt stell dir eine engine vor wo das nicht im nachhinein reingefrickelt wird und die meisten shader kurz genug sind das sie noch in sm2b platz haben.

betasilie
2004-11-11, 16:15:10
finde ich auch. Hatte aber leider wenig mit SM3 zu tun. Lediglich eine geschickte Nutzung der Interpolatorregister in der ALU.
IIRC hatte schon NV3x genügend Interpolatoren, um den SM3 Pfad von FC auszuführen.

Beispielsweise könnte man den VS3 einige PS Vorberechnungen ausführen lassen oder die CPU entlasten.
So richtig hats noch niemand gemacht. Alles nur angeklatscht.
Stimmt.

Ich bin mal auf STALKER gespannt. Ich vermute ja, dass der NV40 da richtig punkten kann. :)

robbitop
2004-11-11, 16:16:16
jo, und jetzt stell dir eine engine vor wo das nicht im nachhinein reingefrickelt wird und die meisten shader kurz genug sind das sie noch in sm2b platz haben.
Ersteinmal muss man 30% mehr Chiptakt ausgleichen. Das ist schwer genug.
Ohne Optimierungen hat NV40 da keine Chance. Mit Optimierungen hinsichtlich Sm3 IMO schon.

Wenn irgendwann mal lange Shader zum Einsatz kommen (und die meisten von euch NV50/60/R520/R600 haben), könnte das auch nochmal etwas ausmachen.

betasilie
2004-11-11, 16:22:18
die wären?
Frag die Profis. Die haben das schon oft genug aufgeführt.

Und was 64bit HDR mit der Bandbreite macht, ist dir sicher auch bekannt.

sm3 kann wohl derzeit nur begrenzt beschleunigen, wir werden wohl erst im laufe des nächsten jahres sehen wozu sm3 im stande ist, wenn richtige lange shader zum einsatz kommen.
Tja, dann warte mal auf die richtig langen Shader. Auch die Spiele in 2005 werden primär voll auf SM2.0 ausgerichtet sein. Da wirst Du imo keine Killershader sehen, die einen R420 in die Knie zwingen.

STALKER ware ein Spiel, wo ich mir vorstellen kann, dass der NV40 ordentlich Dampf macht, aber mehr fällt mir da nicht ein. Und STALKER wird auf den R420 Karten sicherlich trotzdem nicht schlecht laufen.

jo, und jetzt stell dir eine engine vor wo das nicht im nachhinein reingefrickelt wird und die meisten shader kurz genug sind das sie noch in sm2b platz haben.
Ja, solche Eingines werden kommen, aber sicher erst 2006. Als ob ich mich gegen Fortschritt wehren würde, nur scheint es mir so, dass einige NV40 Besitzer da mehr vom Wunsch nach SM3.0 geleitet werden, statt von einer objektiven Einschätzung des Marktes.

Gast
2004-11-11, 16:32:53
stark optimiert = sm3 pfad ;)? ati hat auch sm2.0b bekommen, trotzdem ist der speedgewinn von sm3 höher als der von sm2, obwohl die shaderlänge nichtmal ansatzweise an das rankommt was sm3 zu leisten im stande ist... grossartig optimiert würde ich nicht sagen, netterweise implementiert...)

sorry, aber das ist schlichtweg falsch. Es ist genau andersherum, r420 profitiert mehr vom SM2.0b als der NV40 vom SM 3.0. (und das obwohl beim SM3 4 Lichtquellen zusammengefasst wreden, bei SM2.0b nur 3).

Ob dem R420 lange Shader nicht schmecken werden, bzw. schlechter als dem NV40 ist reine Spekulation. (ATI hat auch vorgesorgt in Sachen lange Shader - F Buffer).

LovesuckZ
2004-11-11, 16:42:32
sorry, aber das ist schlichtweg falsch. Es ist genau andersherum, r420 profitiert mehr vom SM2.0b als der NV40 vom SM 3.0. (und das obwohl beim SM3 4 Lichtquellen zusammengefasst wreden, bei SM2.0b nur 3).

Die Karten profitieren alle gleichviel.

Ob dem R420 lange Shader nicht schmecken werden, bzw. schlechter als dem NV40 ist reine Spekulation. (ATI hat auch vorgesorgt in Sachen lange Shader - F Buffer).

Shadermark 2.1.
Ansonsten ist der F-Buffer nicht vorhanden und sollte nur die Moeglichkeit darstellen, Pixelshader, die über das Maximum vom PS2.0 hinaus, automatisch zu splitten, so dass ein r3xx sie ausführen koennte.


Im übrigen hat der NV40 einige Features, für die er zu langsam ist, um sie in der Praxis zu nutzen.

Welche?

Und wieviel SM3.0 zum beschleunigen bringen kann, sehen wir ja bei Painkiller2.

Limitieren in Painkiller die Pixelshader?


-> die Features die du meinst sind dynamisches Branchen und FP Rendertargets. Dazu ist der NV40 nicht wirklich designed ja.

Dynamisches Branching und der Framebuffer funktioneren einwandfrei. Inwieweit waere der NV40 nicht dafür designed?

robbitop
2004-11-11, 16:49:18
Dynamisches Branching und der Framebuffer funktioneren einwandfrei. Inwieweit waere der NV40 nicht dafür designed?

Dynamisches Branchen kostet zZ mindestens 8 Takte. Die Decoder Pipeline scheint dafür nicht wirklich ausgelegt zu sein. Ist halt eine Restriktion die man aufgrund des Transistorbudgets eingehen musste.
Der Framebuffer hat mit SM3 nichts zu tun und sollte jede Karte ausbremsen -> Bandbreite.



zum F-Buffer
er ist nur eine Notlösung, das Instruction limit zu umgehen. Wäre für Echtzeitberechnungen aber eher unbrauchbar.

Gast
2004-11-11, 16:51:29
Welche?

Dynamisches Branching und der Framebuffer funktioneren einwandfrei. Inwieweit waere der NV40 nicht dafür designed?
Sag mal, ließt du auch manchmal was hier im Forum geschrieben wird?
Gerade das dynamische Branching ist beim NV40 eine Nullnummer.
Dadurch, daß der NV40 mehrere Takte beim dynamischen Branching braucht, bringt dieses Feature gar nichts.

IVN
2004-11-11, 16:54:22
Dynamisches Branchen kostet zZ mindestens 8 Takte. Die Decoder Pipeline scheint dafür nicht wirklich ausgelegt zu sein. Ist halt eine Restriktion die man aufgrund des Transistorbudgets eingehen musste.
Der Framebuffer hat mit SM3 nichts zu tun und sollte jede Karte ausbremsen -> Bandbreite.



zum F-Buffer
er ist nur eine Notlösung, das Instruction limit zu umgehen. Wäre für Echtzeitberechnungen aber eher unbrauchbar.

2 clocks for every instruction (if,else,end if =6).
Ask Demirug if you don't belive me.

LovesuckZ
2004-11-11, 16:58:40
Gerade das dynamische Branching ist beim NV40 eine Nullnummer.

Die bei langen Shadern deutlich Leistung bringt (siehe Shadermark 2.1)?

Dynamisches Branchen kostet zZ mindestens 8 Takte. Die Decoder Pipeline scheint dafür nicht wirklich ausgelegt zu sein. Ist halt eine Restriktion die man aufgrund des Transistorbudgets eingehen musste.

Es bringt jedoch gegenüber das Ausführen von allen Anweisungen bei langen Shadern einen deutlichen Geschwindigkeitsgewinn (nochmal Shadermark 2.1).

Der Framebuffer hat mit SM3 nichts zu tun und sollte jede Karte ausbremsen -> Bandbreite.

Inwieweit spielen dann FP-Targets beim SM3.0 eine Rolle und wieso bremsen diese den NV40 aus?

IVN
2004-11-11, 17:04:40
Sag mal, ließt du auch manchmal was hier im Forum geschrieben wird?
Gerade das dynamische Branching ist beim NV40 eine Nullnummer.
Dadurch, daß der NV40 mehrere Takte beim dynamischen Branching braucht, bringt dieses Feature gar nichts.

This feature is useful,but really hard for implementing in a proper way.
You can gain a lot of speed,but only if all pixels of one branch don't have to be displaied.Otherwise you must calculate both branches.And you need a high number of pixels in that branch which you are going to skip to gain performance. An nv40 is capable of doing all that. :D

robbitop
2004-11-11, 17:14:52
Die bei langen Shadern deutlich Leistung bringt (siehe Shadermark 2.1)?



Es bringt jedoch gegenüber das Ausführen von allen Anweisungen bei langen Shadern einen deutlichen Geschwindigkeitsgewinn (nochmal Shadermark 2.1).



Inwieweit spielen dann FP-Targets beim SM3.0 eine Rolle und wieso bremsen diese den NV40 aus?

Dazu müssten es aber sehr lange Shader sein.

FP Rendertargets nutzen FP16 Texturfilterung. Dazu braucht es 2 Takte statt 1 für ein Bilineares Sample.

achja und ich vergass das dynamische Springen (das Verzweigen hatten wir ja schon).
Das dynamische Springen ist auch noch nicht sonderlich performant umgesetzt.

Gast
2004-11-11, 17:21:24
Ich hätte mal eine Frage an die Experten.
Ist das 4xSSAA der Nvidia Karten besser als das 4x oder 6x der Atis? Und wenn ja warum?

Gast
2004-11-11, 17:22:55
@ LS und IVN

aths (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1783487&postcount=23)

robbitop
2004-11-11, 17:24:44
Ich hätte mal eine Frage an die Experten.
Ist das 4xSSAA der Nvidia Karten besser als das 4x oder 6x der Atis? Und wenn ja warum?

ATi supportet kein SSAA.
SSAA und MSAA eigentlich nicht wirklich vergleichbar.
Wenn kein Alphatesting oder Mòre auftritt braucht man kein SSAA. MSAA ist dann viel schneller.
NV supportet nur OGSSAA, sehr ineffizient aber anders sind keine Hybriden möglich.
4xS / 8xS / 16xS / 2xSS / 4xSS sind Modi die für ältere Spiele brauchbar sind. Für neuere eher nicht mehr.

betasilie
2004-11-11, 17:26:52
Ich hätte mal eine Frage an die Experten.
Ist das 4xSSAA der Nvidia Karten besser als das 4x oder 6x der Atis? Und wenn ja warum?
Das 4xSSAA glättet Kanten nicht besser, als das 4*MSAA von ATI, da es nur ein OG Sampelmuster hat. Allerdings ist es halt SS, so dass z.B. auch Alphatexturen an den Kanten geglättet werden.

Insgesamt ist SSAA ein tolles Gimmick, aber schluckt halt auch Performance, so dass es eher für ältere Spiel geeignet ist.

Gast
2004-11-11, 17:27:47
Die Karten profitieren alle gleichviel.

rest bullshit...

Also ich definiere "profitieren" damit dass FPS gewonnen werden, und da bekommen die ATI Karten durch SM2.0b mehr als der NV40 durch sein SM3 bekommt, kann man überall nachlesen (und jetzt bitte nicht mit CPU limitierten Benchmarks kommen )

*snip*
reichlich unnötig, verzichte auf solche Bemerkungen in Zukunft.

LovesuckZ
2004-11-11, 17:33:24
Dazu müssten es aber sehr lange Shader sein.

Das zukünftige Karten eine hohere effizienz haben, ist nichts neues.
Oder ist eine r300 Karte nicht für DX9 designed worden, weil es nur das 2.0 profil unterstuetze?

FP Rendertargets nutzen FP16 Texturfilterung. Dazu braucht es 2 Takte statt 1 für ein Bilineares Sample.

FP16 Texturfilterung müssen beim r420 durch die Shader realisiert werden. Ausserdem benoetigt Nvidia für FP16 Texturen, ebenso wie der r420, 2 Takte.
So wie es ich es im Beyond3d.com Forum verstanden habe, bedeutet das, dass der NV40 zwei takte für FP16 Texturen udn Filterung benoetigt.

achja und ich vergass das dynamische Springen (das Verzweigen hatten wir ja schon).
Das dynamische Springen ist auch noch nicht sonderlich performant umgesetzt.

Aber auch nur in den PS, die Vertexshadern sind jedoch leistungsfaehig genug.

LovesuckZ
2004-11-11, 17:35:11
Also ich definiere "profitieren" damit dass FPS gewonnen werden, und da bekommen die ATI Karten durch SM2.0b mehr als der NV40 durch sein SM3 bekommt, kann man überall nachlesen (und jetzt bitte nicht mit CPU limitierten Benchmarks kommen )


In jedem review gibt es etwas anderes zu sehen.
Bei Elitebastard.com gewinnt eine GT gegenüber einer Pro mit dem Patch 1.2 mehr Leistung bei 4AA/8AF.
Bei anderen ist es andersrum.
Im Durchschnitt kommt man auf einen gleichstand.

Gast
2004-11-11, 17:39:57
Danke an euch beide für die Erläuterungen zum SSAA!

xL|Sonic
2004-11-11, 17:45:37
In jedem review gibt es etwas anderes zu sehen.
Bei Elitebastard.com gewinnt eine GT gegenüber einer Pro mit dem Patch 1.2 mehr Leistung bei 4AA/8AF.
Bei anderen ist es andersrum.
Im Durchschnitt kommt man auf einen gleichstand.

Tjo aber auch nur wenn du die GT mit der pro vergleichst, was meiner Meinung nach nicht mehr angemessen ist und spätestens wenn man auf PCI-E guckt schlichtweg falsch ist. Vergleich die GT mit ner XT und dann sehen wir weiter.

loci2005
2004-11-11, 18:05:07
Soory, aber dieses Flimmern in diversen Games ist unerträglich, Dazu das schlechtere AA. Also von der BQ ist ATI praktisch (nicht in der Theorie) deutlich überlegen und das bei besserem Speed.

Was für ein Flimmern? Kann man das mal irgendwie bildtechnisch belegen? Ich will mir ne neue Graka noch vor Weihnachten kaufen und bin noch unentschlossen...

MfG,
Loci

xL|Sonic
2004-11-11, 18:12:55
Textur -und kantenflimmern, was in den letzten Treibern auf nv Karten des öfteren aufgetreten ist, weil nvidia da am LOD rumgespielt hat, teilweise ist es sogar krasser als auf ATI Karten. Such mal hier im forum, da gibts schon einige Threads drüber.
Der nv40 ist derzeit für den reinen Gamer nicht wirklich empfehlenswert, es sei denn du zockst nur 1-2 Jahre alte Spiele und willst diese mit SSAA genießen oder du magst nur max. 300€ ausgeben.

Gast
2004-11-11, 18:27:01
Was für ein Flimmern? Kann man das mal irgendwie bildtechnisch belegen? Ich will mir ne neue Graka noch vor Weihnachten kaufen und bin noch unentschlossen...

MfG,
Loci
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172917

hmx
2004-11-11, 19:05:22
Tjo aber auch nur wenn du die GT mit der pro vergleichst, was meiner Meinung nach nicht mehr angemessen ist und spätestens wenn man auf PCI-E guckt schlichtweg falsch ist. Vergleich die GT mit ner XT und dann sehen wir weiter.

Dann erklär uns doch mal warum. 420 zu 380 Euro sind immerhin 40 Euro Unterschied. Wie verbreitet ist PCI-E eigendlich bis jetzt?

Gast
2004-11-11, 19:08:24
Dann erklär uns doch mal warum. 420 zu 380 Euro sind immerhin 40 Euro Unterschied. Wie verbreitet ist PCI-E eigendlich bis jetzt?
Ja und meine X800XT habe ich vorgestern für 453€ geliefert bekommen. Das sind nur 33€ Unterschied.

XT vs. GT ist voll optimal, weil beide Kartten 16 Pipes haben und vom Preis her am nächsten sind.

hmx
2004-11-11, 19:09:51
Ja und meine X800XT habe ich vorgestern für 453€ geliefert bekommen. Das sind nur 33€ Unterschied.

XT vs. GT ist voll optimal, weil beide Kartten 16 Pipes haben und vom Preis her am nächsten sind.

Eine 6800gt gibts für 380 Euro...

aths
2004-11-11, 19:12:18
Das glaub ich (und sicher andere auch), erst, wenn ich das in der Praxis bei entsprechenden Spielen sehe...Problem: Wenn es nicht genehm ist, wird da gleich wieder rumdiskutiert. So verlangt Farcrys FP16-HDR-Lighting dem NV40 zwar alles ab, die R420 kanns jedoch gleich gar nicht mehr in Echtzeit rendern.

Das beste Beispiel dürfte wohl Radeon 8500 gegen 9000 PRO sein, wobei letztere zum Teil die 8500 deutlich schlägt, obwohl sie es in der Theorie eigentlich nicht könnte...

Das dürfte wohl das beste Beispiel für 'in Theorie besser, in Praxis klemmts' sein...Vielleicht war bei der 8500 mehr verbuggt als ATI zugegeben hat.

1. naja, nV hat versucht mit ihrem 1 Quad Dingens da ein Weiteres jahr zu leben...
Nach der GF1 hätten sie spätestens mal mit der FX5800 8 Pipes bringen müssen und nicht eine weitere Aufgebohrte Auflage der 'G-Force'...Nee. Gehen wir davon aus, dass ohnehin mindestens trilinear gefiltert wird (oder 2x AF zum Einsatz kommt) ist es texturmäßig egal ob 4x2 oder 8x1. Allerdings ist der arithmetische Teil im Pixelshader der FX nur zum Preis von einigen Zusatztakten so flexibel, wie er nun mal ist.

2. Naja, du solltest aber auch nicht vergessen, das manche Karten noch ein paar Tage halten sollten...
Selbst damals, gabs genug Indizien, die beweisen, das die nV3x Serie sehr schwache shader hatte, akzeptiert wurde es hingegen nicht, nur 'schöngeredet'..."Damals" war praktisch alles für R300 optimiert, und R300-Optimierungen wirken sich auf der FX deaströs aus. Später verbesserte sich das Bild zugunsten der FX etwas. Dass sie die Radeon geschwindigkeitsmäßig nicht gleich überholt haben, gleichen sie meiner Meinung nach durch das superbe AF locker aus.

aths
2004-11-11, 19:14:52
Okay, es ist ne X600XT :rolleyes: Ja dann schreib das doch, die XT ist beim Pixelshader bis zu 66% schneller als die 9600.

Bei wohl allen zukünftigen DX9 Spielen ist ähnliches zu erwarten. Oder man zwingt die FX-Karten wie bei HL2 einfach in den DX8 Modus(Während selbst ein 9600SE User alle DX9 Effekte zu gesicht bekommt).Kann man mit einer 9600 SE die HDR-Effekte von Far Cry sehen?

aths
2004-11-11, 19:18:59
Im übrigen hat der NV40 einige Features, für die er zu langsam ist, um sie in der Praxis zu nutzen.Das ist eine falsche, da zu pauschale Behauptung.

reunion
2004-11-11, 19:19:00
Ja dann schreib das doch, die XT ist beim Pixelshader bis zu 66% schneller als die 9600.


Ja, sorry, war etwas voreilig, konnte mich an einen Test erinnern wo dies der fall war, konnte ihn aber leider nichtmehr finden.

Kann man mit einer 9600 SE die HDR-Effekte von Far Cry sehen?

Kann man denn mit einer GFFX die HDR Effekte von FarCry sehn?

aths
2004-11-11, 19:20:29
Dynamisches Branchen kostet zZ mindestens 8 Takte.4 Takte, bei einem elseif-Zweig noch 2 Takte mehr.

aths
2004-11-11, 19:22:27
Gerade das dynamische Branching ist beim NV40 eine Nullnummer.
Dadurch, daß der NV40 mehrere Takte beim dynamischen Branching braucht, bringt dieses Feature gar nichts.Wenn du bei 50% aller Pixel jeweils 30 Instruktionen überspringen kannst, lohnt das sogar sehr.

aths
2004-11-11, 19:23:05
Kann man denn mit einer GFFX die HDR Effekte von FarCry sehn?Geht es hier nicht eigentlich um NV40 vs R420?

Quasar
2004-11-11, 19:38:43
Vielleicht haben sie auch einfach von HardOCP abgeschreiben: http://www.hardocp.com/image.html?image=MTAyNjc2MjI0MXRHR29GcmpGaE1fM18yX2wuZ2lm

"Extreme Quality" erzwingt bei SeSam IIRC maximales AF.

Quasar
2004-11-11, 19:38:51
Klar, Effekte die man dann sowieso schnell wieder abdreht, weil zu lahm. ;)
Unter den Blinden ist der Einäugige König.

Quasar
2004-11-11, 19:39:36
Vieleicht kann Quasar ja mal etwas dazu sagen, er besitzt IIRC beide.

Was soll ich denn dazu sagen? :)
Vielleicht, daß ATi auf der R9000 auch gern mit den Texturfiltern rumspielte? Bereits zitierter Sack, der Zeckige, hat dafür sogar mal einen kleinen Test erdacht, weil er an einen Treiberbug glaubte....

Damals, zu Zeiten der vielen Reviews war das allerdings noch nicht bekannt - alle Welt schrieb nur allzu gern das (gestreute?) Gerücht voneinander ab, man hätte Verbesserungen an den Texturcaches gemacht (was ja, in gewissem Sinne, dann auch stimmte).

Ich weiß allerdings nicht, ob nun die 8500 auch böse Dinge mit ihren TMUs und Texturcaches anstellen konnte.

LovesuckZ
2004-11-11, 19:39:37
Tjo aber auch nur wenn du die GT mit der pro vergleichst, was meiner Meinung nach nicht mehr angemessen ist und spätestens wenn man auf PCI-E guckt schlichtweg falsch ist.

Wenn ich auf PCI-E gucke, dann muss ich einen NV43 mit einem r423 vergleichen, da es keinen NV45 zur Zeit zum Kaufen gibt.

Vergleich die GT mit ner XT und dann sehen wir weiter.

Zeige mir eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€).

Quasar
2004-11-11, 19:43:38
Aber ich mag nicht dran denken, dass die NV SSAA Technik die doppelte Füllrate frisst, wie die 3dfx Technik.
Ich auch nicht, weil ich denke, daß das ein bißchen ungenau/falsch ist - je nachdem, womit du dich rausreden willst.

StefanV
2004-11-11, 19:45:42
Problem: Wenn es nicht genehm ist, wird da gleich wieder rumdiskutiert. So verlangt Farcrys FP16-HDR-Lighting dem NV40 zwar alles ab, die R420 kanns jedoch gleich gar nicht mehr in Echtzeit rendern.

Tjo, vielleicht liegts auch daran, das Crytek das nicht auf X800 Karten wollte, wer weiß :rolleyes]

Vielleicht war bei der 8500 mehr verbuggt als ATI zugegeben hat.

Auf jeden Fall hätte es eine NV25 sehr sehr schwer gegen eine funktionierende R200...


Viel mehr kann bei der R200 nicht mehr kaputt sein, da ist schon so ziemlich alles, was wichtig ist, nicht ganz sauber...
Das wichtiste dürften wohl die nicht funktionierenden MSAA Einheiten sein...

Nee. Gehen wir davon aus, dass ohnehin mindestens trilinear gefiltert wird (oder 2x AF zum Einsatz kommt) ist es texturmäßig egal ob 4x2 oder 8x1. Allerdings ist der arithmetische Teil im Pixelshader der FX nur zum Preis von einigen Zusatztakten so flexibel, wie er nun mal ist.
Du sprichst von Multitexturing bei DX7 Games, bei 'DX8 Games' sind 8x1 wesentlich sinniger als 4x2, unter anderem weil man bei 'nem 2 Quad 'Dingens' mehr Shaderpower hat...


"Damals" war praktisch alles für R300 optimiert, und R300-Optimierungen wirken sich auf der FX deaströs aus. Später verbesserte sich das Bild zugunsten der FX etwas.

Tschuldigung, aber dieses rumgeheule von wegen 'das ist aber auf XYZ optimiert' geht mir solangsam aufn Sack, zumal das eigentlich auch keine Relevanz hat.
Die Hardware XYZ wird nunmal bevorzugt, sei es, weil sie verfügbar ist oder weil sie häufiger genutzt wird, und, so läufts nunmal.
Das ganze schönzureden von wegen 'das ist aber XYZ optimiert' bringt rein garnichts, hilft auch niemanden...

Früher waren alle Spiele 'NV Optimiert', damals hats selten einen gestört, man hats einfach akzeptiert, das war einfach so...

Wie dem auch sei, das die nV3x Serie nichtmal ansatzweise das zeug hatte, bei den Shadern mit der R300 mitzuziehen, war zu erwarten...
Und wie schon soo oft gesagt:
Es ist nunmal nVs Problem, wenn sie nicht in die Pötte kommen und entsprechende HW nicht verfügbar ist...
Dass sie die Radeon geschwindigkeitsmäßig nicht gleich überholt haben, gleichen sie meiner Meinung nach durch das superbe AF locker aus.

Tja, nur solltest du nicht vergessen zu erwähnen, das die R300 kein 'Brilinear' konnte und das bei der nV3x Serie eingeführt wurde (wozu das geführt hat, wissen wir ja mittlererweile), ebenso wie das deutlich bessere FSAA der R300 und das du recht allein mit dieser Ansicht bist, beweist diese (http://steampowered.com/status/survey.html) Umfrage...
Die 9800 allein hat da schon ~10% 'Anteil', die 5900 kommt auf etwa 1,5%...

xL|Sonic
2004-11-11, 19:51:43
Wenn ich auf PCI-E gucke, dann muss ich einen NV43 mit einem r423 vergleichen, da es keinen NV45 zur Zeit zum Kaufen gibt.



Zeige mir eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€).

Tjo und was ist nun wenn du bei ebay plötzlich ne XT zu dem gleichen Preis bekommst? Was machen wir denn dann? Oder was ist wenn es plötzlich nen Laden gibt der ne XT billig anbietet um Kunden zu ködern oder plötzlich mehr XT's verfügbar sind und die Preise sich normalisieren?
Komm doch mal von diesem sinnlosen Preisargument weg und beweise doch endlich mal mit anderen echten Argumenten wie toll deine heissgeliebten nv Karten sind und warum sie besser sein sollen für nen Spieler als die ATI Karten.

Wishnu
2004-11-11, 19:54:49
Unter den Blinden ist der Einäugige König.

Aber nicht, wenn er in einen Sandsturm kommt. ;)

Ich kann natürlich nur von mir sprechen, aber ich habe seinerzeit beim TNT2 immer wieder auf 16-Bit Rendering zurückgegriffen, da 32Bit zwar schöner aussah, mir ein flüssigeres Spiel jedoch wichtiger war. Ist natürlich Ansichtssache.

Demirug
2004-11-11, 19:55:32
Tjo, vielleicht liegts auch daran, das Crytek das nicht auf X800 Karten wollte, wer weiß :rolleyes]

Nein, es geht einfach nicht ohne FP-Blending mit brauchbarer Performances. Wenn man mit FP-Rendertargets Ping Pong spielen muss geht jede Karte in die Knie.

Du sprichst von Multitexturing bei DX7 Games, bei 'DX8 Games' sind 8x1 wesentlich sinniger als 4x2, unter anderem weil man bei 'nem 2 Quad 'Dingens' mehr Shaderpower hat...

Die Anzahl der Pipelines sagt nichts über die Shaderpower aus...

Wie dem auch sei, das die nV3x Serie nichtmal ansatzweise das zeug hatte, bei den Shadern mit der R300 mitzuziehen, war zu erwarten...
Und wie schon soo oft gesagt:
Es ist nunmal nVs Problem, wenn sie nicht in die Pötte kommen und entsprechende HW nicht verfügbar ist...

Gib mir eine alternative Realität mit einem anderen DX9 und ein NV30 macht einen R300 nass...

LovesuckZ
2004-11-11, 19:57:30
Tjo und was ist nun wenn du bei ebay plötzlich ne XT zu dem gleichen Preis bekommst? Was machen wir denn dann? Oder was ist wenn es plötzlich nen Laden gibt der ne XT billig anbietet um Kunden zu ködern oder plötzlich mehr XT's verfügbar sind und die Preise sich normalisieren?

Zeige mir zum jetzigen Zeitpunkt (Datum des Posting) eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€).

Komm doch mal von diesem sinnlosen Preisargument weg und beweise doch endlich mal mit anderen echten Argumenten wie toll deine heissgeliebten nv Karten sind und warum sie besser sein sollen für nen Spieler als die ATI Karten.

Aehm, warum sollte ich Karten vergleichen, die sich zum jetzigen zeitpunkt keine Konkurenz machen?
Achso, wenn Geld keine Rolle spielt, warum sollte ich dann eine GT immer einer XTPE vorschlagen?!
Kann ich aber davon ausgehen, dass du von Preisbildung und Märkten keine Ahnung hast und mit den "Fanboyvorwürfen" deine Unwissenheit vertuschen willst?
Wenn nicht, dann Belege deine Statements (zum Beispiel, der Preis würde keine Rolle spielen) mit Argumenten.

Quasar
2004-11-11, 19:57:30
Aber nicht, wenn er in einen Sandsturm kommt. ;)
dann hast du offensichtlich die Botschaft nicht verstanden. ich arbeite daran, deutlicher und in kürzeren Sätzen zu formulieren.

edit:
Ja, du sagst es in deinem Edit ganz treffend: Man hat die Möglichkeit, zurück zu gehen.

Wishnu
2004-11-11, 19:58:42
das geht ja schnell hier...

da füge ich lieber mein edit hier unten nochmal ein:

Ich kann natürlich nur von mir sprechen, aber ich habe seinerzeit beim TNT2 immer wieder auf 16-Bit Rendering zurückgegriffen, da 32Bit zwar schöner aussah, mir ein flüssigeres Spiel jedoch wichtiger war. Ist natürlich Ansichtssache (noch ist ja auch nicht bewiesen, dass das genauso sein wird).

Mr. Lolman
2004-11-11, 19:58:49
Ich auch nicht, weil ich denke, daß das ein bißchen ungenau/falsch ist - je nachdem, womit du dich rausreden willst.

Natürlich war das aufs EER bezogen. :D

Quasar
2004-11-11, 20:00:19
Gib mir eine alternative Realität mit einem anderen DX9 und ein NV30 macht einen R300 nass...
Gib' mir eine, mit einem DX9, wie man es bei nV offenbar erwartete, und ATi hätte bis heute keinen Full-Precision Chip.

Quasar
2004-11-11, 20:01:23
Nein, es geht einfach nicht ohne FP-Blending mit brauchbarer Performances. Wenn man mit FP-Rendertargets Ping Pong spielen muss geht jede Karte in die Knie.
Kannst du da nicht einen kleinen Patch schreiben? Dann sehen wir, wo der Unterschied zwischen Ping-Pong und Tischtennis ist. ;)

reunion
2004-11-11, 20:06:00
Gib mir eine alternative Realität mit einem anderen DX9 und ein NV30 macht einen R300 nass...

Und wie soll das gehen?
Ich hoffe du spielst damit nicht auf die ach so tolle Integer Performace der FX-Serie an.

reunion
2004-11-11, 20:08:53
Die Anzahl der Pipelines sagt nichts über die Shaderpower aus...


Nicht direkt, trozdem wäre ein N30/35 mit einer 8x1 Architektur wohl wesentlich performanter und vielleicht sogar konkurrenzfähig gewesen.

xL|Sonic
2004-11-11, 20:09:57
Zeige mir zum jetzigen Zeitpunkt (Datum des Posting) eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€).



Aehm, warum sollte ich Karten vergleichen, die sich zum jetzigen zeitpunkt keine Konkurenz machen?
Achso, wenn Geld keine Rolle spielt, warum sollte ich dann eine GT immer einer XTPE vorschlagen?!
Kann ich aber davon ausgehen, dass du von Preisbildung und Märkten keine Ahnung hast und mit den "Fanboyvorwürfen" deine Unwissenheit vertuschen willst?
Wenn nicht, dann Belege deine Statements (zum Beispiel, der Preis würde keine Rolle spielen) mit Argumenten.

Die Karten machen sich derzeit nicht wirklich viel Konkurrenz, weil sie kaum Verfügbar sind. Bis es eine ausreichende Verfügbarkeit gibt sinken die Preise, oder ist eine GT mit nem Startpreis von 380€ auf den Markt gekommen? Ich glaube nicht.
Das Angebot und Nachfrage und damit auch der Preis voneinander abhängig sind ist dir aber schon geläufig, oder?
Btw. sollst du ne GT mit ner XT und nicht XT PE vergleichen, aber egal. Das zeigt ja nur, dass es einfach keinen anderen trifftigen Grund gibt auf eine nv Karte zu setzen ;)

Gast
2004-11-11, 20:10:02
Nein, es geht einfach nicht ohne FP-Blending mit brauchbarer Performances. Wenn man mit FP-Rendertargets Ping Pong spielen muss geht jede Karte in die Knie.
Wenn der NV60/R6x0 draußen ist, dürfte das nicht mehr der Fall sein.


Die Anzahl der Pipelines sagt nichts über die Shaderpower aus...
Das würde ich nicht so sehen.
In Zukunft vielleicht nicht. Heute aber ist die Shaderpower von den Pipes abhängig.

Gib mir eine alternative Realität mit einem anderen DX9 und ein NV30 macht einen R300 nass...
Du meinst FX12 und FP16. Na gut. Mit diesen Technologien kann man aber anspruchsvolle PS-Effekte nicht ohne Qualitätsverlust darstellen. Einige Full Screen Efekte z.B.

Demirug
2004-11-11, 20:11:16
Kannst du da nicht einen kleinen Patch schreiben? Dann sehen wir, wo der Unterschied zwischen Ping-Pong und Tischtennis ist. ;)

Ist auf der Ebene auf der ich eingreifen kann leider nicht so ganz einfach. Und so wie die Cryengine den Alphablend liebt eigentlich auch vergebene liebesmüh.

reunion
2004-11-11, 20:11:56
Nein, es geht einfach nicht ohne FP-Blending mit brauchbarer Performances.

Ich halte die HDR Performance des NV4x als alles andere als brauchbar.

Demirug
2004-11-11, 20:20:53
Wenn der NV60/R6x0 draußen ist, dürfte das nicht mehr der Fall sein.

Selbst diese werden nicht genügend Leistung für Farcry HDR Pingpong haben. ATI wird aber zukünftig auch FP Alphablending liefern.


Das würde ich nicht so sehen.
In Zukunft vielleicht nicht. Heute aber ist die Shaderpower von den Pipes abhängig.

Man kann in eine Pipeline sehr viel Rechenpower pressen aber damit wir uns nicht falsch verstehen ich bin grundsätzlich auch immer für flach und breit und nicht für schmal und tief. Es ging mir nur darum das die Anzahl der Pipelines aleine zur bewertung der Shaderpower nicht ausreicht. Vorallem wenn sich anschaut wie 3dlabs zählt.

Du meinst FX12 und FP16. Na gut. Mit diesen Technologien kann man aber anspruchsvolle PS-Effekte nicht ohne Qualitätsverlust darstellen. Einige Full Screen Efekte z.B.

Für das meiste was man heute als "anspruchsvollen" Effekt verkauft bekommt reicht zum grossen Teil FX12 aus. Die Effekte sind immer noch sehr Texturelastig und die haben ja nur 8Bit Genauigkeit.

Tjell
2004-11-11, 20:21:43
Ich halte die HDR Performance des NV4x als alles andere als brauchbar.
Ich halte die Far Cry-HDR- Performance des NV40 für brauchbar.
Andere Engines und Umsetzungen warte ich lieber ab und lasse die Kristallkugel im Schrank. ;)

Hard[OCP] zum 1.3 Patch von Far Cry und HDR (http://hardocp.com/article.html?art=Njc4)

Geschmackssache, und mir gefällts.

Demirug
2004-11-11, 20:22:06
Ich halte die HDR Performance des NV4x als alles andere als brauchbar.

Bei Farcry oder allgemein?

Mills
2004-11-11, 20:25:58
Gibts denn noch andere SW die derzeit HDR darstellt? :confused:

aths
2004-11-11, 20:32:19
Tjo, vielleicht liegts auch daran, das Crytek das nicht auf X800 Karten wollte, wer weiß :rolleyes]Ich sag doch, das ist das Problem: Da wird diskutiert und geredet, bis das gewünschte Ergebnis rauskommt.

Viel mehr kann bei der R200 nicht mehr kaputt sein, da ist schon so ziemlich alles, was wichtig ist, nicht ganz sauber...
Das wichtiste dürften wohl die nicht funktionierenden MSAA Einheiten sein...R200 war nicht für MSAA vorgesehen.

Du sprichst von Multitexturing bei DX7 Games, bei 'DX8 Games' sind 8x1 wesentlich sinniger als 4x2, unter anderem weil man bei 'nem 2 Quad 'Dingens' mehr Shaderpower hat...Auch DX8-Games sind primär Texturfüllraten-limitiert. Wie viel Shaderpower man hat hängt nicht nur von der Anzahl der Pipes ab, sondern auch davon, was die einzelne Pipe pro Takt leisten kann.

Das ganze schönzureden von wegen 'das ist aber XYZ optimiert' bringt rein garnichts, hilft auch niemanden...Doch, es hilft, gewisse Zusammenhänge zu verstehen.

Früher waren alle Spiele 'NV Optimiert', damals hats selten einen gestört, man hats einfach akzeptiert, das war einfach so...Dass erste DX9-Apps voll auf R300 optimiert waren, habe ich wertungsfrei festgestellt, ohne dies gut- oder schlechtzuhei0en.

Wie dem auch sei, das die nV3x Serie nichtmal ansatzweise das zeug hatte, bei den Shadern mit der R300 mitzuziehen, war zu erwarten...
Und wie schon soo oft gesagt:
Es ist nunmal nVs Problem, wenn sie nicht in die Pötte kommen und entsprechende HW nicht verfügbar ist...Ich habs nicht erwartet. Und es ist ATIs Problem, wenn sie nicht zu Potte kommen und noch immer keine SM3-HW hat.

Tja, nur solltest du nicht vergessen zu erwähnen, das die R300 kein 'Brilinear' konnte und das bei der nV3x Serie eingeführt wurde (wozu das geführt hat, wissen wir ja mittlererweile), ebenso wie das deutlich bessere FSAA der R300 und das du recht allein mit dieser Ansicht bist, beweist diese (http://steampowered.com/status/survey.html) Umfrage...
Die 9800 allein hat da schon ~10% 'Anteil', die 5900 kommt auf etwa 1,5%... Tja, nur solltest du nicht vergessen, dass R300 sehr stark winkelabhängig den AF-Grad runterschraubt, und die Filter auch ansonsten nicht gerade durch Präzision glänzen. Ob hinter meiner Meinung viele oder wenig Leute stehen, ist mir ehrlich gesagt schnuppe. Sonst würde ich Bild lesen, um mir meine Meinung erklären zu lassen.

Gast
2004-11-11, 20:33:20
Selbst diese werden nicht genügend Leistung für Farcry HDR Pingpong haben.
Das kann man zur Zeit noch nicht wissen.

Man kann in eine Pipeline sehr viel Rechenpower pressen aber damit wir uns nicht falsch verstehen ich bin grundsätzlich auch immer für flach und breit und nicht für schmal und tief. Es ging mir nur darum das die Anzahl der Pipelines aleine zur bewertung der Shaderpower nicht ausreicht.
Die Bewertung der Pipelines allein wird nicht ausreichen, das ist klar. Wenn man aber Produkte, wie 8500 und 9000PRO, vergleicht, muß das hier ganz andere Ursachen haben.

Für das meiste was man heute als "anspruchsvollen" Effekt verkauft bekommt reicht zum grossen Teil FX12 aus. Die Effekte sind immer noch sehr Texturelastig und die haben ja nur 8Bit Genauigkeit.
Ich würde nicht sagen, daß die Effekte texturlastig sind. Effekte wie Bloom oder Glow sind meistens nicht texturlastig.

LovesuckZ
2004-11-11, 20:33:30
Die Karten machen sich derzeit nicht wirklich viel Konkurrenz, weil sie kaum Verfügbar sind. Bis es eine ausreichende Verfügbarkeit gibt sinken die Preise, oder ist eine GT mit nem Startpreis von 380€ auf den Markt gekommen? Ich glaube nicht.

Und? Soll ich also mit meiner Kaufentscheidung ein, zwei, drei Monate warten, bis dein Konkurenzprodukt zu diesem werde?
Ich vergleiche das, was jetzt für einen gewissen Preis kaeuflich zu erwerben ist (wenn der Preis die Grenze darstellt).
Ansonsten waere es auch "legitim" statt einer geforderten 200€ eine 400€ zu empfehlen, die ist auch schneller, meisten sogar doppelt so schnell...

Das Angebot und Nachfrage und damit auch der Preis voneinander abhängig sind ist dir aber schon geläufig, oder?

Und aufgrund des zum jetzigen Zeitpunkt bestehenden Verkäufermarkt soll man den Preis einfach so vergessen?
Nicht wirklich. Solange wie eine karte für eine gewissen Preisklasse verlangt wird, ist es kontraproduktiv, diese einfach zu ignorieren.

Btw. sollst du ne GT mit ner XT und nicht XT PE vergleichen, aber egal. Das zeigt ja nur, dass es einfach keinen anderen trifftigen Grund gibt auf eine nv Karte zu setzen ;)

*hust* Zeige mir zum jetzigen Zeitpunkt (Datum des Posting) eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€). *hust*

aths
2004-11-11, 20:34:08
Nicht direkt, trozdem wäre ein N30/35 mit einer 8x1 Architektur wohl wesentlich performanter und vielleicht sogar konkurrenzfähig gewesen.Mit welcher Begründung ... ?

xL|Sonic
2004-11-11, 20:50:13
*hust* Zeige mir zum jetzigen Zeitpunkt (Datum des Posting) eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werden (max. 20€). *hust*

Tja, das ist halt abhängig davon, ob du Wert auf service legst oder nicht.
Ich für meinen Teil gebe lieber nen bisschen mehr Geld aus und hol mir was bei nem Laden der nen guten Service bietet und seriös erscheint ala mindfactory und eher weniger bei Läden die gänzlich keinen Service haben, dafür aber die Preise extrem gering sind. Eine x800 XT PCI-E für 430€ wurde auf einer der vorherigen Seiten schonmal gepostet, jedoch kam dann gleich wieder das Argument auf, es gebe ja eh keine PCI-E Systeme und von daher kann man das nicht vergleichen.
Genauso könnte man aber auch sagen, dass SM3.0 derzeit so gut wie nicht genutzt wird und deswegen als Argument nicht zählt.

Demirug
2004-11-11, 20:51:21
Das kann man zur Zeit noch nicht wissen.

Aber gut Interpolieren und das wird auf keinen Fall reichen. Für jede Alphablend Schicht die man benötigt muss im Prinzip einmal der komplette aktuelle Bildinhalt kopiert werden.

Ich würde nicht sagen, daß die Effekte texturlastig sind. Effekte wie Bloom oder Glow sind meistens nicht texturlastig.

Gerade für solche Weichzeichner effekte braucht man sehr viel Texturefillrate.

Quasar
2004-11-11, 21:05:07
Mit welcher Begründung ... ?
Vermutlich in der Annahme, daß dann zwei Shadercores verbaut worden wären.

LovesuckZ
2004-11-11, 21:10:33
Tja, das ist halt abhängig davon, ob du Wert auf service legst oder nicht.

Und du meinst, dass der Preis einer XT in einem Laden ohne und einen mit dem selben haette?
Nehmen wir dochmal Fragware.de. Scheint ein guter Laden zu sein, laut Geizhals. GT kostet dort 380€ (sofort lieferbar), eine XT 480€ (1-2 Wochen lieferbar).

Ich für meinen Teil gebe lieber nen bisschen mehr Geld aus und hol mir was bei nem Laden der nen guten Service bietet und seriös erscheint ala mindfactory und eher weniger bei Läden die gänzlich keinen Service haben, dafür aber die Preise extrem gering sind.

Siehe oben: Denkst du, dieser Bonus würde nicht auf den Preis der XT raufgeschlagen werden?

Eine x800 XT PCI-E für 430€ wurde auf einer der vorherigen Seiten schonmal gepostet, jedoch kam dann gleich wieder das Argument auf, es gebe ja eh keine PCI-E Systeme und von daher kann man das nicht vergleichen.

hust* Zeige mir zum jetzigen Zeitpunkt (Datum des Posting) eine GT auf PCI-E oder eine XT auf AGP-Basis die zu einem aehnlichen Preis verkauft werde (max. 20€). *hust*

Koenntest du bitte diesen simplen Wunsch erfuellen.
Preise vom gleichen Markt mit der selben Kaeuferschicht.

Genauso könnte man aber auch sagen, dass SM3.0 derzeit so gut wie nicht genutzt wird und deswegen als Argument nicht zählt.

Kannst du eine PCI-E Karte in einem PCI oder AGP Slot einsetzen, wenn der Treiber diese Steckplaetze unterstuetzt oder das Betriebssystem?
Nein? Dann ist das, was du über's SM3.0 gerade geschrieben hast, hinfaellig.

xL|Sonic
2004-11-11, 21:23:25
http://www.evendi.de/jsp/eVendi2004/product.jsp?p=62415

418€ Club3d Radeon 800XT PCI-E

P.S.: Und jetzt komm nicht wieder damit, dass es PCI-E ist. Ne GT mit PCI-E wird sich genauso zur AGP Variante verhalten wie ne XT im Vergleich zur AGP Variante.

LovesuckZ
2004-11-11, 21:32:18
http://www.evendi.de/jsp/eVendi2004/product.jsp?p=62415
418€ Club3d Radeon 800XT PCI-E

Und nun noch bitte die GT.
Wie du feststellen wirst, gibt es keinen NV45 zu kaufen.
Aber das hat niemand bestritten.
Da der PCI-E und AGP Grafikkartenmarkt unterschiedliche Maerkte sind, ist es daher nicht möglich, den Preis der PCI-E Karte in einen vergleich zur AGP Version zu stellen.
Und daher: Wie kann die XT der Konkurent zur GT sein, wenn die GT auf dem PCI-E Markt nicht vorhanden und auf dem AGP Markt ca. 100€ billiger ist?

reunion
2004-11-11, 21:33:21
Bei Farcry oder allgemein?

Bei FarCry sonst konnte man es ja noch nicht in aktion sehen.

reunion
2004-11-11, 21:36:19
Mit welcher Begründung ... ?

Doppelte PS Leistung.

Vermutlich in der Annahme, daß dann zwei Shadercores verbaut worden wären.

Jap

xL|Sonic
2004-11-11, 21:36:52
Und nun noch bitte die GT.
Wie du feststellen wirst, gibt es keinen NV45 zu kaufen.
Aber das hat niemand bestritten.
Da der PCI-E und AGP Grafikkartenmarkt unterschiedliche Maerkte sind, ist es daher nicht möglich, den Preis der PCI-E Karte in einen vergleich zur AGP Version zu stellen.
Und daher: Wie kann die XT der Konkurent zur GT sein, wenn die GT auf dem PCI-E Markt nicht vorhanden und auf dem AGP Markt ca. 100€ billiger ist?

Das wird mir jetzt ehrlich gesagt zu blöd. Ich komme auf dich zurück sobald es den nv45 gibt, bis dahin sollteste dir dann aber ne bessere Ausrede einfallen lassen, viel Spass beim suchen.

StefanV
2004-11-11, 21:38:48
Und nun noch bitte die GT.
Wie du feststellen wirst, gibt es keinen NV45 zu kaufen.
Tjo, ein weiteres Mal, wo nV einfach pennt und den Markt 'einfach so' der Konkurenz überlässt :rolleyes:

Demirug
2004-11-11, 21:51:03
Bei FarCry sonst konnte man es ja noch nicht in aktion sehen.

Darauf wollte ich hinaus. Bis wir eine vergleichsimplementierung haben ist es schwer zu sagen wie viel von dem Leistungsabfall von nVidia und wie viel von Crytek zu verantworten ist.

LovesuckZ
2004-11-11, 22:03:30
Das wird mir jetzt ehrlich gesagt zu blöd.


Danke, ich waere je ausgestiegen, da du nicht in der Lage oder gewilligst bist, den PCI-E und AGP Markt als nicht konkurenzabhaengige Märkte zu betrachten.
Nur ein beispiel für dich, über das du mal nachdenken solltest:
Wenn jemand nach einer Sockel A CPU fragt, zum Beispiel einen Athlon 3000+, würdest du ihm dann einen Athlon 64 3000+ empfehlen, nur weil beide CPUs in etwas das selbe kosten?
Nach deiner Logik: Ja.
Viel Spass mit dem wütenden, der seinen PC nicht mehr starten kann...

robbitop
2004-11-11, 22:19:27
Das zukünftige Karten eine hohere effizienz haben, ist nichts neues.
Oder ist eine r300 Karte nicht für DX9 designed worden, weil es nur das 2.0 profil unterstuetze?

Ich verstehe die Frage nicht.



FP16 Texturfilterung müssen beim r420 durch die Shader realisiert werden. Ausserdem benoetigt Nvidia für FP16 Texturen, ebenso wie der r420, 2 Takte.
So wie es ich es im Beyond3d.com Forum verstanden habe, bedeutet das, dass der NV40 zwei takte für FP16 Texturen udn Filterung benoetigt.

Ich sagte ja 2 Takte für ein bilineares FP16 Sample (bilinear interpolierte Texturfilterung mit MIPMAPing)
Beim R420 wäre das ganze wohl so langsam, dass es für Echtzeit unbrauchbar wäre.


Aber auch nur in den PS, die Vertexshadern sind jedoch leistungsfaehig genug.

nur leider limitiert der Pixelteil aktuelle Grafikkarten. (ein Vertex besitzt 3 Eckpunkte aber vieeeele Pixel ;))

robbitop
2004-11-11, 22:24:47
Doppelte PS Leistung.



Jap

Ein NV30 mit 2 kompletten Shadercores?
Das hätte man niemals hinbekommen im Transistorbudget.

1. NV hat nie mit einem derart starken R300 gerechnet
2. NV hat mit einem anderen DX9 gerechnet
3. NV30 hätte in ihrem spekulierten DX9 zu Lebzeiten 12 aritmetische Vec4 Ops pro Takt ausrechnen können oder 8 TOps.
R300 kann nur 8 aritmetische Vec4 Ops +8 TOps berechnen.
DX9 wurde komplett anders als man sich das vorstellte und somit auch der Shadercode. Es gab massig Verschnitt in den SUs und man durfte FX12 nicht nutzen.

Einfach falsch antizipiert und zuviel auf einmal gewollt.

Was eine Möglichkeit gewesen wäre, wäre die Pipeline kürzer und breiter zu bauen. Siehe NV43. Ich weiss allerdings nicht wie viel schwieriger dass geworden wäre.
CineFX war einfach eine logische Weiterentwicklung von NV25.

xL|Sonic
2004-11-11, 22:33:13
Danke, ich waere je ausgestiegen, da du nicht in der Lage oder gewilligst bist, den PCI-E und AGP Markt als nicht konkurenzabhaengige Märkte zu betrachten.
Nur ein beispiel für dich, über das du mal nachdenken solltest:
Wenn jemand nach einer Sockel A CPU fragt, zum Beispiel einen Athlon 3000+, würdest du ihm dann einen Athlon 64 3000+ empfehlen, nur weil beide CPUs in etwas das selbe kosten?
Nach deiner Logik: Ja.
Viel Spass mit dem wütenden, der seinen PC nicht mehr starten kann...

Öhm hallo wer geht denn hier nur nach dem Preis? Nach meiner Logik würde ich ihm den sicher nicht empfehlen, es ist nur komisch das man im CPU Sektor die CPU's auch anhand der Taktraten vergleicht, obwohl es teilweise Preisunterschiede von mehr als 20€ ausmachen und wenn man da nach dem Preis gehen würde sich ganz andere Konkurrenten bilden würden. Denk da mal drüber nach...viel Spass mit den wütenden die sich ne 400Mhz langsamere CPU holen weil sie von dir empfohlen wird...ich meine hey, sie haben ja den gleichen Preis. So und jetzt ist Ende.

betasilie
2004-11-11, 22:34:07
Ein NV30 mit 2 kompletten Shadercores?
Das hätte man niemals hinbekommen im Transistorbudget.

1. NV hat nie mit einem derart starken R300 gerechnet
2. NV hat mit einem anderen DX9 gerechnet
3. NV30 hätte in ihrem spekulierten DX9 zu Lebzeiten 12 aritmetische Vec4 Ops pro Takt ausrechnen können oder 8 TOps.
R300 kann nur 8 aritmetische Vec4 Ops +8 TOps berechnen.
DX9 wurde komplett anders als man sich das vorstellte und somit auch der Shadercode. Es gab massig Verschnitt in den SUs und man durfte FX12 nicht nutzen.

Einfach falsch antizipiert und zuviel auf einmal gewollt.

Was eine Möglichkeit gewesen wäre, wäre die Pipeline kürzer und breiter zu bauen. Siehe NV43. Ich weiss allerdings nicht wie viel schwieriger dass geworden wäre.
CineFX war einfach eine logische Weiterentwicklung von NV25.

Ack. NV hat da einfach in doppelter Hinsicht Pech gehabt und mussten einfach diesen Weg gehen. Ich denke mit dem NV50 wird sich das Blatt ggf. zum Vorteil von NV wenden, wenn der R520 nicht wieder eine ganz große Überraschung wird, denn 2006 wird sicherlich SM3.0 langsam relevant werden und da könnte NV aus den Erfahrungen mit NV30 und NV40 Vorteile ziehen.

Aber das ist nun auch alles ziemlich OT, wie ich finde. Dass diese Grundsatzdiskussionen auch immer wieder geführt werden müssen. :rolleyes: (Ist jetzt nicht auf dich gemünzt.)

hmx
2004-11-11, 22:51:18
http://www.evendi.de/jsp/eVendi2004/product.jsp?p=62415

418€ Club3d Radeon 800XT PCI-E

P.S.: Und jetzt komm nicht wieder damit, dass es PCI-E ist. Ne GT mit PCI-E wird sich genauso zur AGP Variante verhalten wie ne XT im Vergleich zur AGP Variante.


Achso? Dann müsste ja die 6800gt PCI-E ja auch billiger sein als die 6800gt AGP.
So ists zumindest bei der x800xt.
Auch und die x800xt:NorskIT. Mehr brauch ich dazu net zu sagen...

Quasar
2004-11-11, 22:55:05
(ein Vertex besitzt 3 Eckpunkte aber vieeeele Pixel ;))
Das kommt ganz auf's Vertex an. Die Tendenz geht jedenfalls in Richtung weniger Pixel pro Vertex.

hmx
2004-11-11, 22:58:46
Öhm hallo wer geht denn hier nur nach dem Preis? Nach meiner Logik würde ich ihm den sicher nicht empfehlen, es ist nur komisch das man im CPU Sektor die CPU's auch anhand der Taktraten vergleicht, obwohl es teilweise Preisunterschiede von mehr als 20€ ausmachen und wenn man da nach dem Preis gehen würde sich ganz andere Konkurrenten bilden würden. Denk da mal drüber nach...viel Spass mit den wütenden die sich ne 400Mhz langsamere CPU holen weil sie von dir empfohlen wird...ich meine hey, sie haben ja den gleichen Preis. So und jetzt ist Ende.

Angenommen du kannst max 380 Euro ausgeben, was bringts dir ne Graka die 420 Euro kostet. Wie willst du die kaufen wenn du kein Geld dafür hast? :ugly:
Jaja Preis ist egal oder was?!

Fadl
2004-11-11, 23:07:40
Angenommen du kannst max 380 Euro ausgeben, was bringts dir ne Graka die 420 Euro kostet. Wie willst du die kaufen wenn du kein Geld dafür hast? :ugly:
Jaja Preis ist egal oder was?!


Wer €380 ausgeben kann der kann auch €420 locker machen.

aths
2004-11-11, 23:09:11
Vermutlich in der Annahme, daß dann zwei Shadercores verbaut worden wären.Natürlich gehe ich davon aus, dass der NV30 (bzw. NV35) nahe am technisch beherrschbarem Limit waren. Einfach eine Quad-TMU wegzulassen und dafür einen kompletten zweiten Shadercore (bzw. noch eine zweite FPU) einzubauen hätte vermutlich gewaltige Ausschussraten und niedrige Taktfrequenzen mitsich gebracht.

Doppelte PS Leistung.... bei gleicher Transistor-Zahl?

Quasar
2004-11-11, 23:09:52
Wer €380 ausgeben kann der kann auch €420 locker machen.
Und wie oft willst du dann nochmal 40€ obendrauf schlagen?
Denn wer 420€ locker machen kann, bekommt auch 460€ zusammen... usw. usf. und wenn sie nicht gestorben sind, haben sie jetzt alle SLi.

aths
2004-11-11, 23:11:49
nur leider limitiert der Pixelteil aktuelle Grafikkarten. (ein Vertex besitzt 3 Eckpunkte aber vieeeele Pixel ;))Ein Vertex hat 3 Raum-Koordinaten, meist noch eine Farbe (oder zwei) und eine Normale (oder zwei) und oft eine Texturkoordinate.

Ein Dreieck benötigt schon lange weniger als 3 Vertices – im Durchschnitt.

Quasar
2004-11-11, 23:12:03
Natürlich gehe ich davon aus, dass der NV30 (bzw. NV35) nahe am technisch beherrschbarem Limit waren. Einfach eine Quad-TMU wegzulassen und dafür einen kompletten zweiten Shadercore (bzw. noch eine zweite FPU) einzubauen hätte vermutlich gewaltige Ausschussraten und niedrige Taktfrequenzen mitsich gebracht.

Neben dem Ausschuss, der schwer vorhersagbar wäre - hätten zwei Shadercores mit nur einem TMU-Array (wie fein, das wäre dann ja sogar komplett entkoppelt) zumindest der DX9-Leistung gut getan, selbst wenn am Ende nur 350MHz inkl. Fön machbar gewesen wären.

So ist sind Reserven geblieben, die nur mit DX8(.1) nutzbar waren.

aths
2004-11-11, 23:15:53
Neben dem Ausschuss, der schwer vorhersagbar wäre - hätten zwei Shadercores mit nur einem TMU-Array (wie fein, das wäre dann ja sogar komplett entkoppelt) zumindest der DX9-Leistung gut getan, selbst wenn am Ende nur 350MHz inkl. Fön machbar gewesen wären.

So ist sind Reserven geblieben, die nur mit DX8(.1) nutzbar waren.Mit 350 Mhz wäre kaum die Ti 4600 übertrumpft worden. Ich weiß nicht, ob es an der FX-Architektur oder an dem 256-Bit-Interface liegt, jedenfalls merke ich beim NV35 von den 400 MHz mehr als beim NV25 von den 300 MHz. Was PS-Leistung angeht hat NV mit dem NV35 ja deutlich nachgebessert, natürlich auf Grundlage des NV30-Designs. Dieses ist nun mal ein Kompromiss zulasten der DX9 PS-Leistung. Dafür wurden etliche Kompromisse zulasten des Featuresets vermieden. Man kann gerne am FX-Design mäkeln, es ermöglichte eine noch fortschrittlichere Architektur wie den NV40 bereits im Jahre 2004.

aths
2004-11-11, 23:19:47
Ich sagte ja 2 Takte für ein bilineares FP16 Sample (bilinear interpolierte Texturfilterung mit MIPMAPing)Wie willst du bei bilinearer Texturfilterung mipmappen? Mehrere MIPs werden erst bei trilinearer Filterung relevant, dass die GPU überhaupt MIPs erzeugen / verwalten kann ist seit Jahren kein extra erwähnenswertes Feature mehr.

robbitop
2004-11-11, 23:22:34
Ack. NV hat da einfach in doppelter Hinsicht Pech gehabt und mussten einfach diesen Weg gehen. Ich denke mit dem NV50 wird sich das Blatt ggf. zum Vorteil von NV wenden, wenn der R520 nicht wieder eine ganz große Überraschung wird, denn 2006 wird sicherlich SM3.0 langsam relevant werden und da könnte NV aus den Erfahrungen mit NV30 und NV40 Vorteile ziehen.

Aber das ist nun auch alles ziemlich OT, wie ich finde. Dass diese Grundsatzdiskussionen auch immer wieder geführt werden müssen. :rolleyes: (Ist jetzt nicht auf dich gemünzt.)

Vom R520 erwarte ich eine modernere Architektur als vom NV50 (was nichts heissen muss). Wobei moderner scheinbar immer mehr Transistoren bei gleicher Performance kostet.
BTW: Auf die Aussagen von Goldman dem Analysten gebe ich nichts. Analysten haben meist gar keine Ahnung.

hmx
2004-11-11, 23:25:26
Wer €380 ausgeben kann der kann auch €420 locker machen.

Und wer 420 Euro ausgeben kann... n=>n+1 :ugly:

robbitop
2004-11-11, 23:32:02
Wie willst du bei bilinearer Texturfilterung mipmappen? Mehrere MIPs werden erst bei trilinearer Filterung relevant, dass die GPU überhaupt MIPs erzeugen / verwalten kann ist seit Jahren kein extra erwähnenswertes Feature mehr.

ist mir bekannt.
Ich meinte Letzteres. Gehört IMO auch zur Texturfilterung, dass Mipmapping überhaupt durch geführt wird.

Quasar
2004-11-11, 23:36:47
Wie willst du bei bilinearer Texturfilterung mipmappen?
Genauso, wie bei trilinearer Texturfilterung auch, nur eben ohne (ideal) lineare Interpolation zwischen den Mip-Levels.

Sonst tauscht man Bugwelle gegen Ameisenkrieg.

reunion
2004-11-11, 23:56:27
... bei gleicher Transistor-Zahl?

Natürlich hätte das vermutlich mehr Transitoren verbraucht, doch diese wären mehr als gut angelegt gewesen. Man hätte IMO einfach diesen PS2.a Blödsinn weggelassen sollen und sich auf das wesentlich konzentrieren müssen. ATi hat es ja auch geschafft und das sogar in 150nm bei nur 107mio Transistoren.

robbitop
2004-11-12, 00:52:18
Natürlich hätte das vermutlich mehr Transitoren verbraucht, doch diese wären mehr als gut angelegt gewesen. Man hätte IMO einfach diesen PS2.a Blödsinn weggelassen sollen und sich auf das wesentlich konzentrieren müssen. ATi hat es ja auch geschafft und das sogar in 150nm bei nur 107mio Transistoren.
CineFX war eine logische Weiterentwicklung von NV25.
NV hat sich DX9 eben anders vorgestellt.
Und IIRC war die Ausbeute bei 130nm schon so schlimm genug. Mehr als 125Mio Transistoren hätten es nicht werden können. Mal vom Designaufwand abgesehen.

ATi hat damals alles richtig gemacht und NV war zu ambitioniert und zu selbstherllich. Beide IHVs haben die letzten Jahre sehr dazugelernt.
Auch ATi wird nun mit dem R520 eine ganze Menge an Transistoren für Features ausgeben. Ist allerdings abzuwarten, ob man nur das Nötigste für SM3 einpackt oder auch ein paar Goodies. ATis Grundstrategie war seit R300 -> Beschränken auf das Notwendigste dafür ordentlich Dampf. Mal schaun ob das so bleibt.

IVN
2004-11-12, 01:00:29
CineFX war eine logische Weiterentwicklung von NV25.
NV hat sich DX9 eben anders vorgestellt.
Und IIRC war die Ausbeute bei 130nm schon so schlimm genug. Mehr als 125Mio Transistoren hätten es nicht werden können. Mal vom Designaufwand abgesehen.

ATi hat damals alles richtig gemacht und NV war zu ambitioniert und zu selbstherllich. Beide IHVs haben die letzten Jahre sehr dazugelernt.
Auch ATi wird nun mit dem R520 eine ganze Menge an Transistoren für Features ausgeben. Ist allerdings abzuwarten, ob man nur das Nötigste für SM3 einpackt oder auch ein paar Goodies. ATis Grundstrategie war seit R300 -> Beschränken auf das Notwendigste dafür ordentlich Dampf. Mal schaun ob das so bleibt.

Even an nv30 would be very powerful if you would calculate all textures with fp32 unites and shaders with fx12.I heard something about 32 simple instructions with fx12.VSs are already powerful enough.

robbitop
2004-11-12, 01:12:11
Even an nv30 would be very powerful if you would calculate all textures with fp32 unites and shaders with fx12.I heard something about 32 simple instructions with fx12.VSs are already powerful enough.

hrn I heard sth about 48 Ops/Clock but I am not able to reconstruct this.
So NV30 is able to do 2 FX12 OPs per Pipeline per Clock (2 Register Combiner per Pipeline).
The Shadercore is able to change 2 TOPs in 1 Vec4 Op.
So you got 12 FX12 OPs or 8 TexOPs or 4 FP32 OPs per clock.
When FP32 Vec4 is used in the shadercore, the regcombiner are blocked IIRC.
Maybe there are some specialfunctions, the shadercore can do additionally to 12 FX A-Ops. But I dunno.

IVN
2004-11-12, 01:22:20
hrn I heard sth about 48 Ops/Clock but I am not able to reconstruct this.
So NV30 is able to do 2 FX12 OPs per Pipeline per Clock (2 Register Combiner per Pipeline).
The Shadercore is able to change 2 TOPs in 1 Vec4 Op.
So you got 12 FX12 OPs or 8 TexOPs or 4 FP32 OPs per clock.
When FP32 Vec4 is used in the shadercore, the regcombiner are blocked IIRC.
Maybe there are some specialfunctions, the shadercore can do additionally to 12 FX A-Ops. But I dunno.

What,Register Combiners are blocked when you are using fp32 unites?
I knew that an nv3x isn't capable of co-(all radeons from r300 until now and nv40) and dual-isue(nv40),but i didn' know that an nv30 is so unflexible.

P.S.Your English is getting better and better, ;D

robbitop
2004-11-12, 08:12:29
What,Register Combiners are blocked when you are using fp32 unites?
I knew that an nv3x isn't capable of co-(all radeons from r300 until now and nv40) and dual-isue(nv40),but i didn' know that an nv30 is so unflexible.

P.S.Your English is getting better and better, ;D

NV3x FPUs cannot do any kind of splitting IIRC. (horizontal/vertical - Co/Dual Issue).
I'm not sure about FX12 code, but I believe this kind of code does not need this kind of flexibility. There are just Vec4 Ops neccesarry and there is no SFU.
AFAIK there are blocked only , when a Tex-Op is beeing proccessed in the Shadercore. But I'm not so sure about that issue.
NV30 is a FX12 bullet with a FP32 Backend.
And I guess they wanted DX9 to be kind of that. FX12 for PP and FP32 for FP.

P.S. I'm tryin' my best, but never that was a strong point of me.

Demirug
2004-11-12, 08:14:43
Ein Regcombiner kann bis zu 3 Ergebnisse liefern und das für RGB und Alpha getrennt. Das sind dann also 6 Ergebnisse. Bei 8 Regcombiner im NV30/NV35 ergibt das 48 Ergebnisse pro Takt. Wenn man nun Operationen zählen möchte würden es aufgrund des Pre und Post Processing Teils der Regcombiner noch mehr werden.

robbitop, der Shadercore und die Regcombiner blockieren sich nicht. Allerdings kann man bei NV35 (CineFX II) die zusätzlichen FP32/FP16 Einheiten nicht zusammen mit den Regcombinern im gleichen Takt nutzen.

seahawk
2004-11-12, 08:17:10
Wird das nicht langsam ziemlich OT und längt nur vom eigentlich wichtigen Faktum, der deutlichen Überlegenheit des R420 gegenüber dem NV40, ab ??

Was zählt ist der Speed in heutigen Spielen und nicht irgendwelche technischen Entschuldigungen für das erneute und klägliche Versagen von NV anständig performante Chips zu liefern.

Die technsichen Gründe und theoretischen Vorteile des NV40 halte ich zwar für sehr spannend, aber absolut irrelevant beim Kauf einer Grafikkarte.

Demirug
2004-11-12, 08:23:02
NV3x FPUs cannot do any kind of splitting IIRC. (horizontal/vertical - Co/Dual Issue).

Ab CineFX II gibt es in diesem Sinn schon splitting. Man hat ja nun 3 FPUs in der Pipe.

I'm not sure about FX12 code, but I believe this kind of code does not need this kind of flexibility. There are just Vec4 Ops neccesarry and there is no SFU.

Die FX12 Hardware ist wie es sich gehört Co-issued. Fixpoint ALUs waren das schon immer und DX schreibt das auch schon immer so vor.

AFAIK there are blocked only , when a Tex-Op is beeing proccessed in the Shadercore. But I'm not so sure about that issue.

s.o.

NV30 is a FX12 bullet with a FP32 Backend.

Das müsste man dann aber eigentlich auch schon vom NV20/NV25 behaupten.

And I guess they wanted DX9 to be kind of that. FX12 for PP and FP32 for FP.

Sie wollten wohl eher 3 Genauigkeiten wie man es auch in der OpenGL Extension sieht.

robbitop
2004-11-12, 08:29:06
Ab CineFX II gibt es in diesem Sinn schon splitting. Man hat ja nun 3 FPUs in der Pipe.
ich meine Splitting innerhalb der ALU. Und das kann NV3x AFAIK nicht. (NV behauptet sowas jedoch gern mal.
Und wieso 3 ALUs? Bei CineFX2 gibt es den Shadercore und die FP32 MAD ALU.



Die FX12 Hardware ist wie es sich gehört Co-issued. Fixpoint ALUs waren das schon immer und DX schreibt das auch schon immer so vor.

Danke, wieder dazugelernt.





Das müsste man dann aber eigentlich auch schon vom NV20/NV25 behaupten.

Kann man das nicht auch? ;-)


Sie wollten wohl eher 3 Genauigkeiten wie man es auch in der OpenGL Extension sieht.
FP16 bei OGL noch?

Demirug
2004-11-12, 08:45:38
ich meine Splitting innerhalb der ALU. Und das kann NV3x AFAIK nicht. (NV behauptet sowas jedoch gern mal.
Und wieso 3 ALUs? Bei CineFX2 gibt es den Shadercore und die FP32 MAD ALU.

Shadercore + FP32 MAD + Mixed MAD (MUL = FP32 ; ADD = FP16)

Kann man das nicht auch? ;-)

Ja, nur fehlt dann natürlich das Unterschiedungsmerkmal zum NV30.

FP16 bei OGL noch?

Ja, natürlich.

Die entsprechenden Extension kennt:

R-Register = FP32
H-Register = FP16

Bei den Anweisungen kann man dann noch durch ein Postfix angeben mit welcher Genauigkeit gerechnet werden soll:

R: FP32
H: FP16
X: FX12

Nicht bei allen Anweisungen sind alle Postfixes möglich.

HOT
2004-11-12, 08:50:24
Darauf wollte ich hinaus. Bis wir eine vergleichsimplementierung haben ist es schwer zu sagen wie viel von dem Leistungsabfall von nVidia und wie viel von Crytek zu verantworten ist.

Den HDR Mode in Farcry kann man allerhöchstens als Demomodus ansehen.... das sieht man allein schon daran, dass dieser bei Nacht schlicht unbrauchbar ist (weil der Mond ähnlich wie die Sonne funktioniert, ist ein bisschen unrealistisch ;)). Dementsprechend Lahm und unopitimiert wird der Modus also sein. Die Leistung würde ich keinesfalls als räprensentativ ansehen jedenfalls. Dummerweise liefert dieser Demomode die ersten brauchbaren Bilder für HDR und wird wohl bis in alle Ewigkeit damit gemessen werden. Der NV40 wird jetzt völlig zuunrecht wegen dieser Lapalie das Manko der langsamen Shader mit sich rumschleppen, obwohl das eigentlich ja garnicht so ist. Immerhin schafft der NV40 ja pro Takt deutlich mehr Leistung mit seinen Shadern. Hoffentlich arbeitet Crytek da bis zum nächten Patch weiter am HDR Mode.
Ist der FP Framebuffer überhaupt zwingend nötig? Rein technisch lässt sich HDR doch auch auf ner R4xx realisieren, oder nicht?

robbitop
2004-11-12, 09:08:07
kannst du mixed MAD bitte ausführen? Darüber habe ich noch nirgends etwas gelesen.

robbitop
2004-11-12, 09:10:24
Den HDR Mode in Farcry kann man allerhöchstens als Demomodus ansehen.... das sieht man allein schon daran, dass dieser bei Nacht schlicht unbrauchbar ist (weil der Mond ähnlich wie die Sonne funktioniert, ist ein bisschen unrealistisch ;)). Dementsprechend Lahm und unopitimiert wird der Modus also sein. Die Leistung würde ich keinesfalls als räprensentativ ansehen jedenfalls. Dummerweise liefert dieser Demomode die ersten brauchbaren Bilder für HDR und wird wohl bis in alle Ewigkeit damit gemessen werden. Der NV40 wird jetzt völlig zuunrecht wegen dieser Lapalie das Manko der langsamen Shader mit sich rumschleppen, obwohl das eigentlich ja garnicht so ist. Immerhin schafft der NV40 ja pro Takt deutlich mehr Leistung mit seinen Shadern. Hoffentlich arbeitet Crytek da bis zum nächten Patch weiter am HDR Mode.
Ist der FP Framebuffer überhaupt zwingend nötig? Rein technisch lässt sich HDR doch auch auf ner R4xx realisieren, oder nicht?

1.ack
2.Far Cry ist bereits vollendet. Soll angeblich kein Patch mehr kommen.
3.MDR ohne FP Rendertargets und HDR mit FP Rendertargets über den Umweg der Pixelshader. Letzteres ist für Echtzeit schon unbrauchbar.

HOT
2004-11-12, 09:21:44
1.ack
2.Far Cry ist bereits vollendet. Soll angeblich kein Patch mehr kommen.
3.MDR ohne FP Rendertargets und HDR mit FP Rendertargets über den Umweg der Pixelshader. Letzteres ist für Echtzeit schon unbrauchbar.

1 :)
2 :(
3 :(

Dann hat der R420 ja ein echtes Manko ggü. dem NV40... ;)
Na ja, noch wird diese Technik nicht wirklich gebraucht.
Aber siehe z.B. das hier:
http://www.elderscrolls.com/art/obliv_screenshots_01.htm

Solche Bilder werden wohl auf dem R420 dann nicht möglich sein... allerdings sollte ich nicht verschweigen, dass 90% der Leute in diesem Forum schon ne neue Karte haben wird wenn das Game erscheint :D

Quasar
2004-11-12, 09:21:58
kannst du mixed MAD bitte ausführen? Darüber habe ich noch nirgends etwas gelesen.
Steht da doch:
MUL FP32 und ADD FP16

Wenn du FP32 brauchst, kriegst du also nur das MUL, bei FP16 auch ein ADD dazu.

Tjell
2004-11-12, 09:29:30
...
2.Far Cry ist bereits vollendet. Soll angeblich kein Patch mehr kommen.
...Dann münze es eben auf die CryEngine um, sofern Crytek diese an den Mann bringen kann.

reunion
2004-11-12, 09:36:25
Darauf wollte ich hinaus. Bis wir eine vergleichsimplementierung haben ist es schwer zu sagen wie viel von dem Leistungsabfall von nVidia und wie viel von Crytek zu verantworten ist.

Rechtviel scheinst du ja Crytek nicht zuzutrauen :D
Wie ist das gemeint "wie viel Leistungsabfall von Crytek zu verantworten ist"?

robbitop
2004-11-12, 09:45:37
Dann münze es eben auf die CryEngine um, sofern Crytek diese an den Mann bringen kann.
klingt schon eher realistisch

@Quasar
Ja soweit bin ich geistig auch noch mitgekommen...

...also gibt es bei FP16 1 MUL4 +1ADD4 aus dem Shadercore und 1MUL4/ADD4 aus der zusätzlichen ALU? (CineFX2)
Oder ist hier Splitting im Sinne von Co Issue gemeint?
Bei FP16 1MUL3+1ADD1 (Vec3 + Skalar).
Die crossbarlogik sah im Schaltbild nicht so aus als könnte sie das.
Aber ok, man lernt immer dazu.

Demirug
2004-11-12, 09:49:01
Rechtviel scheinst du ja Crytek nicht zuzutrauen :D
Wie ist das gemeint wie viel Leistungsabfall von Crytek zu verantworten ist?

Ich weiss nicht in wie weit dir bekannt ist das ich einen recht brutallen DX-Debugger habe. Denn habe ich inzwischen an so einigen Stellen von Farcry mitlaufen lassen. Und das Ergebniss hatte dabei doch öffter mal einen bitteren Nachgeschmack weil mehr als eine Regel im Bezug auf den Umgang mit GPUs verletzt wurde.

Die HDR Implementierung habe ich mir bisher noch nicht so genau angeschaut aber dabei werden massenhaft Daten von einer Texture zur nächsten geschoben. Ob das alles so notwendig ist bezweifle ich etwas. Lustig dabei ist aber das alle diese Transferoperationen mit einem DrawPrimitiveUP angestossen werden. Diese Funktion sollte man nun aber aus Performancegründen meiden wie der Teufel das Weihwasser. DrawPrimitiveUP ist aber sehr praktisch für Quickhacks.

Demirug
2004-11-12, 09:57:26
Ist der FP Framebuffer überhaupt zwingend nötig? Rein technisch lässt sich HDR doch auch auf ner R4xx realisieren, oder nicht?

Das Problem ist nicht HDR als solches sondern die Tatsache das Alpha-Blends in den FP-Buffer gebraucht werden. Man kann diese zwar emulieren aber das ist sehr aufwendig. Wenn Bedarf besteht kann ich die beiden Verfahren (mit und ohne Alpha-Blend Hardware) mal gegenüberstellen.

Eine Engine zu schreiben die völlig ohne Alphablends auskommt grenzt dagegen noch mehr an Wahnsinn und ist teilweise gar nicht möglich weil die Resourcen der Shader (vorallem Interpolatoren) manchmal immer noch nicht reichen für Singelpass Pixel.

Quasar
2004-11-12, 10:05:39
Wenn Bedarf besteht kann ich die beiden Verfahren (mit und ohne Alpha-Blend Hardware) mal gegenüberstellen.

Bitte tu das - vielleicht mindert das etwas diese ständigen Kritteleien an Dingen, von denen die meisten (mich eingeschlossen) wohl zu wenig verstehen, um sie vernünftig beurteilen zu können.

Vielleicht gibt es ihnen aber auch das nötige Fundament - win-win-Situation.

HOT
2004-11-12, 11:14:03
Bitte tu das - vielleicht mindert das etwas diese ständigen Kritteleien an Dingen, von denen die meisten (mich eingeschlossen) wohl zu wenig verstehen, um sie vernünftig beurteilen zu können.

Vielleicht gibt es ihnen aber auch das nötige Fundament - win-win-Situation.

*zustimm* :)

IVN
2004-11-12, 13:03:49
Die HDR Implementierung habe ich mir bisher noch nicht so genau angeschaut aber dabei werden massenhaft Daten von einer Texture zur nächsten geschoben. Ob das alles so notwendig ist bezweifle ich etwas. Lustig dabei ist aber das alle diese Transferoperationen mit einem DrawPrimitiveUP angestossen werden. Diese Funktion sollte man nun aber aus Performancegründen meiden wie der Teufel das Weihwasser. DrawPrimitiveUP ist aber sehr praktisch für Quickhacks.

So with DrawPrimitiveUp comands the game can very easily get CPU limited.And the GPU is waiting for the CPU =so the GPU is idle for a short period of time

Demirug
2004-11-12, 13:53:00
Bitte tu das - vielleicht mindert das etwas diese ständigen Kritteleien an Dingen, von denen die meisten (mich eingeschlossen) wohl zu wenig verstehen, um sie vernünftig beurteilen zu können.

Vielleicht gibt es ihnen aber auch das nötige Fundament - win-win-Situation.

Bitteschön: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=182960

Quasar
2004-11-12, 14:33:51
Dankeschön. =)
*Demirugtätschel*

tombman
2004-11-12, 15:36:35
fällt das nur mir auf oder is der ganze thread offtopic seit ein paar Seiten :D

Des Lieblingsthema vieler, r420 vs nv40, scheint ned tot zu kriegen zu sein- und des ganz ohne mich :)

Tjell
2004-11-12, 15:43:24
fällt das nur mir auf oder is der ganze thread offtopic seit ein paar Seiten :D

Des Lieblingsthema vieler, r420 vs nv40, scheint ned tot zu kriegen zu sein- und des ganz ohne mich :)
Hast schon recht.
Warten wir einfach bis Ende des Jahres, vielleicht hat's dann ein neues Thema: NV48 vs. R480. :D

loci2005
2004-11-12, 16:00:28
http://www.evendi.de/jsp/eVendi2004/product.jsp?p=62415

418€ Club3d Radeon 800XT PCI-E

P.S.: Und jetzt komm nicht wieder damit, dass es PCI-E ist. Ne GT mit PCI-E wird sich genauso zur AGP Variante verhalten wie ne XT im Vergleich zur AGP Variante.

413 € Club3D Radeon X800 XT PCI-E (http://shop.norskit.de/cgi-norsk/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=16647)

MfG,
Loci

LovesuckZ
2004-11-12, 16:37:08
So und jetzt ist Ende.

schade, du hast mein beispiel nicht verstanden.
Damit zeigst du mir, dass du keine Ahnung hast, warum der PCI-E und AGP markt getrennt zu betrachten sind und warum die XT auf der PCI-E billiger als die AGP variante ist.
Du betrachtest nur die karten, siehst aber nicht im geringsten ein, dass für den Kauf bestimmte Faktoren von Bedeutung sind.
Daher lasse ich es, da ich keinem Sinn darin sehe, mir dir zu diskutieren, da du keine Argumente anbringst.

hmx
2004-11-12, 17:37:17
413 € Club3D Radeon X800 XT PCI-E (http://shop.norskit.de/cgi-norsk/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=16647)

MfG,
Loci

1. NorskIT

2. Verfügbarkeit: wird bestellt...

aths
2004-11-12, 22:12:58
Natürlich hätte das vermutlich mehr Transitoren verbraucht, doch diese wären mehr als gut angelegt gewesen. Man hätte IMO einfach diesen PS2.a Blödsinn weggelassen sollen und sich auf das wesentlich konzentrieren müssen. ATi hat es ja auch geschafft und das sogar in 150nm bei nur 107mio Transistoren.Das 2_A-Profil ist kein Blödsinn, sondern im Gegenteil sehr sinnvoll. "ATI hat es ja auch geschafft" ist gut. MS hat die Minimal-Specs anhand ATIs HW ausgerichetet, weil ATI eben die kleinere Lösung hatte.

Hätte NV mehr Transistoren auf dem Chip unterbringen können, hätten sie bestimmte Flaschenhälse in CineFX deutlich breiter machen können.

aths
2004-11-12, 22:14:05
Genauso, wie bei trilinearer Texturfilterung auch, nur eben ohne (ideal) lineare Interpolation zwischen den Mip-Levels.

Sonst tauscht man Bugwelle gegen Ameisenkrieg.Dass man MIP-Mapping unterstützt ist dermaßen Standard, dass ich die extra Erwähnung seltsam fand. Sogar die VS3_0-TMUs unterstützen das.

VoodooJack
2004-11-12, 22:30:23
Der heute herausgekommene offizielle Cat 4.11 hat gegenüber dem Beta 4.11 nochmals zugelegt.

Einstellungen wie in meinen gestrigen Screenshots, also alles maximiert.

X800 XTPE @default, 1280x1024, 16xAF, 4xAA: 92 fps
und
X800 XTPE @580/590, 1280x1024, 16xAF, 4xAA: 102 fps

http://img112.exs.cx/img112/8735/Painkiller12x10_102.jpg

dildo4u
2004-11-12, 22:34:39
Install doch mal den neuen 4.12 Beta mal sehn ob noch mher drinn is*G*

http://www2.ati.com/drivers/wxp-8-08-041110a-019199.exe

VoodooJack
2004-11-12, 22:44:01
Install doch mal den neuen 4.12 Beta mal sehn ob noch mher drinn is*G*

http://www2.ati.com/drivers/wxp-8-08-041110a-019199.exe

Mach ich. Schon heruntergeladen. Aber noch mehr interessiert mich der VST.

MadMan2k
2004-11-12, 22:57:50
Das 2_A-Profil ist kein Blödsinn, sondern im Gegenteil sehr sinnvoll. "ATI hat es ja auch geschafft" ist gut. MS hat die Minimal-Specs anhand ATIs HW ausgerichetet, weil ATI eben die kleinere Lösung hatte.

Hätte NV mehr Transistoren auf dem Chip unterbringen können, hätten sie bestimmte Flaschenhälse in CineFX deutlich breiter machen können.
ich verstehe deinen Einwand nicht. Ati hat es geschafft einen kleinen feinen Chips zu basteln, während NVidia ungemengen an Transistoren in etwas verballert hat, was erst mit dem NV40 langsam nutzbar wird.

Vondaher war es beim NV3X ganz klar eine Fehlentscheidung. Auch wenn M$ nicht den kleinsten gemeinsamen nenner genommen hätte, wäre die Hardware chice.

Gast
2004-11-12, 23:06:35
Mach ich. Schon heruntergeladen. Aber noch mehr interessiert mich der VST.

Ist schon erstaunlich das Ati immer mehrere Treiber braucht um ein Spiel vernünftig zum laufen zu bringen.

Dunkeltier
2004-11-12, 23:08:45
Ist schon erstaunlich das Ati immer mehrere Treiber braucht um ein Spiel vernünftig zum laufen zu bringen.

Das würde ich derzeit eher von nVidia behaupten.

Gast
2004-11-12, 23:09:14
Das würde ich derzeit eher von nVidia behaupten.

? Dann leg mal los

Dunkeltier
2004-11-12, 23:18:59
? Dann leg mal los


Zum Beispiel Bf1942 mit dem ForceWare 70.41 Treiber. Oder die fehlende WMV9-Beschleunigung. Und so weiter... ATI ist diesbezüglich deutlich problemloser, bisher mußte ich noch nie wegen Fehldarstellungen den Treiber wechseln. Bei nVidia desöfteren schon.

Naja, trotzdem werde ich morgen meine Point of View Geforce 6800 GT endlich bei der Post abholen. Denn die scheiß High-End Karten sind ja nirgends zu christlichen Preisen verfügbar...

Gast
2004-11-12, 23:22:23
Zum Beispiel Bf1942 mit dem ForceWare 70.41 Treiber. Oder die fehlende WMV9-Beschleunigung. Und so weiter... ATI ist diesbezüglich deutlich problemloser, bisher mußte ich noch nie wegen Fehldarstellungen den Treiber wehcseln. Bei nVidia desöfteren schon.

Naja, trotzdem werde ich morgen meine Point of View Geforce 6800 GT endlich bei der Post abholen. Denn die scheiß High-End Karten sind ja nirgends zu christlichen Preisen verfügbar...

70.41 ist nicht offiziell von Nvidia , sondern ist für Quadro Karten gedacht.
Aber da ich selber eine Ati Karte besitze weiss ich was für Probleme dieses ganze Ati Treibergewechsele mit sich bringt.

reunion
2004-11-12, 23:25:27
Das 2_A-Profil ist kein Blödsinn, sondern im Gegenteil sehr sinnvoll.


Inwiefern?
CineFX ist eine Fehlkonstruktion, egal wie du es drehst und wendest.
Die länderen Shader des 2.A-Profiles sind nutzlos da die grundgeschwindigkeit der Chips einfach zu gering ist. Und ja ich weiss das 2.A auch noch weitere Vorteile hat, nur hat man bis jetzt in keinem einzigen Spiel etwas davon gesehn und ich wage zu bezweifeln das sich das in Zukunft ändern wird. Ich verstehe nicht wie du nach all dem vorgefallenem noch immer daran festhalten willst.

Spätestens wenn man Spiele wie FarCry sieht und eine FX5950U nichtmal die Hälfte der fps einer X600XT (und damit vermutlich weniger als eine 9600SE) erreicht kann man zu gar keine anderen Schluss kommen.


"ATI hat es ja auch geschafft" ist gut. MS hat die Minimal-Specs anhand ATIs HW ausgerichetet, weil ATI eben die kleinere Lösung hatte.


Und ändert das etwas an der mießen Performace?


Hätte NV mehr Transistoren auf dem Chip unterbringen können, hätten sie bestimmte Flaschenhälse in CineFX deutlich breiter machen können.

ATi schaffte bei weniger Transitoren den 2-3 fachen Shaderspeed im Vergleich zu den jeweilig konkurrierenden FX-Karten. So what?

reunion
2004-11-12, 23:26:15
ich verstehe deinen Einwand nicht. Ati hat es geschafft einen kleinen feinen Chips zu basteln, während NVidia ungemengen an Transistoren in etwas verballert hat, was erst mit dem NV40 langsam nutzbar wird.

Vondaher war es beim NV3X ganz klar eine Fehlentscheidung. Auch wenn M$ nicht den kleinsten gemeinsamen nenner genommen hätte, wäre die Hardware chice.

ACK

reunion
2004-11-12, 23:29:04
Ich weiss nicht in wie weit dir bekannt ist das ich einen recht brutallen DX-Debugger habe. Denn habe ich inzwischen an so einigen Stellen von Farcry mitlaufen lassen. Und das Ergebniss hatte dabei doch öffter mal einen bitteren Nachgeschmack weil mehr als eine Regel im Bezug auf den Umgang mit GPUs verletzt wurde.

Die HDR Implementierung habe ich mir bisher noch nicht so genau angeschaut aber dabei werden massenhaft Daten von einer Texture zur nächsten geschoben. Ob das alles so notwendig ist bezweifle ich etwas. Lustig dabei ist aber das alle diese Transferoperationen mit einem DrawPrimitiveUP angestossen werden. Diese Funktion sollte man nun aber aus Performancegründen meiden wie der Teufel das Weihwasser. DrawPrimitiveUP ist aber sehr praktisch für Quickhacks.

Achso, nein war mir nicht bekannt, dann warten wir eben noch ein paar andere Spiele ab. Es kann ja nur besser werden :D

VoodooJack
2004-11-13, 01:20:27
Also die Bildqualität im Valve Stress Test ist durch 4.12 Beta zum Zungenschnalzen geworden. Die Texturen wirken noch schärfer, die Farben noch satter. Das Wasser reflektiert inzwischen perfekt (mit Reflect all). Und die Geschwindigkeit? Die ist zwar im Vergleich zu 4.10 nur ein bisschen gestiegen, aber mit einer X800 XTPE erreicht man im VST inzwischen Framerates, die durch die Decke schießen.

- im Spiel CS:S alles auf High/Reflect all
- im CCC: High Quality

1280x1024/16xAF/6xAA: 124 fps
1600x1200/16xAF/6xAA: 100 fps

Looking forward to Half-Life 2.

robbitop
2004-11-13, 04:07:24
Spätestens wenn man Spiele wie FarCry sieht und eine FX5950U nichtmal die Hälfte der fps einer X600XT (und damit vermutlich weniger als eine 9600SE) erreicht kann man zu gar keine anderen Schluss kommen.



Und ändert das etwas an der mießen Performace?



Wuz?
Schau mal ein paar Seiten Vorraus. Da habe ich Far Cry Benches von einer 9800pro und einer 5900NU gebracht, die im worst caste MAXIMAL 40'% differierten. Rechne 10% drauf, da die 5900U ja gegen die 9800pro antreten muss. An das Ergebnis kommt keine 9600XT.
Die NV35 habe ich dabei im R300 Pfad laufen lassen.
NV35 hat bei gleichem Takt nicht wirklich weniger Shaderleistung als eine RV360 (zumindist @FP16 sollte NV35 gewinnen).

Gast
2004-11-13, 07:16:33
Wuz?
Schau mal ein paar Seiten Vorraus. Da habe ich Far Cry Benches von einer 9800pro und einer 5900NU gebracht, die im worst caste MAXIMAL 40'% differierten. Rechne 10% drauf, da die 5900U ja gegen die 9800pro antreten muss. An das Ergebnis kommt keine 9600XT.

Kommt drauf an, welche Stellen man bencht. In den Außenlevels ist der Unterschied nicht so extrem zwischen einer 9800PRO und einer FX5900.
In den Innenlevels sieht es nicht mehr so gut für die FX-Karten aus.
http://www.xbitlabs.com/articles/video/display/farcry13_12.html

Eine 9800PRO ist hier mehr als doppelt so schnell wie eine FX5900Ultra.

robbitop
2004-11-13, 09:42:42
Kommt drauf an, welche Stellen man bencht. In den Außenlevels ist der Unterschied nicht so extrem zwischen einer 9800PRO und einer FX5900.
In den Innenlevels sieht es nicht mehr so gut für die FX-Karten aus.
http://www.xbitlabs.com/articles/video/display/farcry13_12.html

Eine 9800PRO ist hier mehr als doppelt so schnell wie eine FX5900Ultra.
Sehe ich auf den ersten Blick, dass die Benches unbrauchbar sind.
1024 pure Speed hat die 5900 nur 16-24fps. Laut diesen Benches.
Wie kommts, dass ich mit dieser Karte 1024, 4xAF, maximale details flüssig das ganze Spiel durchgespielt habe? Die Frames lagen zw 24 und 40.
Ziemlich großer Unterschied. Und ohne 4xAF gings noch deutlich flotter. (delta ~ 5-8fps)
(und das mit Patch 1.3). Da macht Research keine Ausnahme.
Kannst ja mal ein paar andere FX5900 Besitzer fragen. In den Far Cry Threads waren die anderen auch ungefähr bei dieser Performance.

Mantikor
2004-11-13, 10:54:49
Sehe ich auf den ersten Blick, dass die Benches unbrauchbar sind.
1024 pure Speed hat die 5900 nur 16-24fps. Laut diesen Benches.
Wie kommts, dass ich mit dieser Karte 1024, 4xAF, maximale details flüssig das ganze Spiel durchgespielt habe? Die Frames lagen zw 24 und 40.
Ziemlich großer Unterschied. Und ohne 4xAF gings noch deutlich flotter. (delta ~ 5-8fps)
(und das mit Patch 1.3). Da macht Research keine Ausnahme.
Kannst ja mal ein paar andere FX5900 Besitzer fragen. In den Far Cry Threads waren die anderen auch ungefähr bei dieser Performance.

Ja, das stimmt. Ich spiele mit ähnlichen Einstellungen (Schatten = Medium, Umgebung nur Hoch +2xAA) mit Patch 1.3 und es gab nur zwei Stellen, an denen es wirklich geruckelt hat (fps<25).
Und das ohne R300 Pfad.

@Robbitop: Wie zwingt man den die FXen in den R300 Pfad?

Jesus
2004-11-13, 14:18:32
was ist nun eigentlich dieses PK "HDR" genau ?

Jesus
2004-11-13, 15:10:16
hier mal meins ;) nicht gerade berauschende performance :(

(1280x1024 2xAA 8xAF, Cat. 4.11 )

EDIT: Cat AI war auf Vollgas, auf Standard ists etwas schneller (38 fps), deaktiviert sinds 32 fps.
(ist das neue CCC schneller / kleiner geworden ? kommt mir so vor ...

http://nemesis.rushers.net/Painkiller.jpg

MechWOLLIer
2004-11-13, 15:12:53
was ist nun eigentlich dieses PK "HDR" genau ?
Soweit ich weiß, ist das Bloom und Glow. Auf jeden Fall kein richtiges HDR.

robbitop
2004-11-13, 15:27:30
@Robbitop: Wie zwingt man den die FXen in den R300 Pfad?

Bei tommti-systems gab es für den Patch 1.1 den R300_PP und den R300 Pfad zum Downloaden.
Für den neuesten Patch empfehle ich DXTweaker von Demirug. Da kann man alle Pfade wählen.

Tjell
2004-11-13, 15:32:28
Soweit ich weiß, ist das Bloom und Glow. Auf jeden Fall kein richtiges HDR.
Muß für HDR bei z. B. hellen Lichtquellen die Umgebung um die Lichtquelle herum dunkler gerendert werden (je nach "Blickwinkel auf die Lichtquelle)?

Bloom, Glow, Lens und Flare sind mbMn dagegen doch eher einfache Nachahmungseffekte, oder?

aths
2004-11-13, 17:25:09
Inwiefern?
CineFX ist eine Fehlkonstruktion, egal wie du es drehst und wendest.Bevor man beurteilt, ob etwas eine Fehlkonstruktion ist, muss man nach dem Einsatzzweck fragen. Ich hab hier einen kleinen Artikel fast fertig rumliegen, der zeigt, inwiefern CineFX durch die für NV ungünstige finale DX9-Spec ausgebremst wird.

Um lange Shader mit FP-Genauigkeit zu berechnen, ist CineFX im Vergleich zum Smartshader2 eine sehr ineffiziente Lösung. Doch dafür wurde CineFX auch gar nicht gebaut – so gesehen ist es keine Fehlkonstruktion. Aber es ist ein Kompromiss-Design. Bestimmte Flaschenhälse waren von NV in der ursprünglichen Planung bestimmt nicht gewollt.

Die länderen Shader des 2.A-Profiles sind nutzlos da die grundgeschwindigkeit der Chips einfach zu gering ist.Gerade deshalb ist es sinnvoll, lange Singleplass-Shader zu ermöglichen, um auf eine aufwändigere Multipass-Lösung verzichten zu können.

Und ja ich weiss das 2.A auch noch weitere Vorteile hat, nur hat man bis jetzt in keinem einzigen Spiel etwas davon gesehn und ich wage zu bezweifeln das sich das in Zukunft ändern wird.Hast du eine FX, dass du in der Lage wärst, davon etwas zu sehen? Natürlich werden viele "CineFX-Features" (zum größten Teil Standard ab SM 3, insofern kann man nicht von einem Sonderweg sprechen wie es einige tun, die meinen CineFX sei an DX9 vorbeientwickelt) zur Beschleunigung genutzt. Nur reicht das noch nicht aus, um Radeon-Geschwindigkeit zu erreichen. Demirugs exzellenter CineFX-Artikel erklärt, warum der NV30 beim PS2.X so langsam ist, aber er nennt auch die Vorteile von der FX-Lösung.

Ich verstehe nicht wie du nach all dem vorgefallenem noch immer daran festhalten willst. Ich ziehe mehr in Betracht als die Performance in Far Cry und den 3DMarks, wenn ich eine Architektur beurteilen möchte. Außerdem gibt es für mich mehr als nur Spiele. Mit dem NV30 kann man vieles in Hardware beschleunigen, wozu der R420 nicht geeignet ist. Das "Field of Application" ist bei der FX deutlich größer. Keine Frage, braucht man eine Karte speziell für Spiele fährt man mit der Radeon (ab R300) besser als mit einer GF FX gleicher Klasse.

Spätestens wenn man Spiele wie FarCry sieht und eine FX5950U nichtmal die Hälfte der fps einer X600XT (und damit vermutlich weniger als eine 9600SE) erreicht kann man zu gar keine anderen Schluss kommen.Wenn ich sehe, was ich mit der FX 5900 für eine Grafikqualität in Max Payne 1 und 2 habe, und wie gut Warcraft 3 aussieht (alles mit 4xS Antialiasing), komme ich zum Schluss, dass sich die 169 € für die 5900 XT gelohnt haben, um die Ti 4600 abzulösen. In Far Cry ist meine 9600 zwar schneller, aber FC spiele ich nicht. In Doom3 bietet die 5900 XT für meinen Geschmack sehr gute Leistung (das würde eine 9800 auch bieten.)

Und ändert das etwas an der mießen Performace?Da die DX9-Minimalspec einerseits ATI entgegen kam, andererseits für NV30 deaströs war, ändert das bei dem DX9 was wir nun haben, natürlich nichts. Klar ist aber, dass der NV30 nicht als DX9-Schleichchip designt wurde. Aus Sicht der GeForce FX ist DirectX9 eine Fehlkonstruktion.

ATi schaffte bei weniger Transitoren den 2-3 fachen Shaderspeed im Vergleich zu den jeweilig konkurrierenden FX-Karten. So what? Ja, aber nur unter folgenden Voraussetzungen:

- NV3x darf seine FX12-Units nicht benutzen auch wenn die Qualität damit nicht beeinträchtigt würde

- R300 kann nur vergleichsweise simple Pixelshader beschleunigen.

- R300 bietet kein static branching im PS und kein dynamic branching im VS.

- R300 bietet das "Render to Vertexbuffer"-Feature nicht.

- R300 bietet nur vier "Phasen" und begrenzt damit die Anzahl der Ebenen für einen Dependent Read.

- Mathematische Funktionen werden (bis auf eine Ausnahme) langsamer berechnet, und sind dabei noch ungenauer.


Der "2-3 fache Shaderspeed" bezieht sich auf die Limits, die ATI setzt. Nimmt man andere Bedingungen als Maßstab, sieht es für die Radeon meist nicht mehr so rosig aus. Neben ATIs Leistung, den R300 so performant designt zu haben muss auch berücksichtigt werden, dass ihnen das Schicksal mit der DX9-Spec in die Hände spielte.

aths
2004-11-13, 17:27:20
ich verstehe deinen Einwand nicht. Ati hat es geschafft einen kleinen feinen Chips zu basteln, während NVidia ungemengen an Transistoren in etwas verballert hat, was erst mit dem NV40 langsam nutzbar wird.Nicht alles, was nicht in Spielen in Echtzeit nutzbar ist, ist damit gleich 'nicht nutzbar'.

Vondaher war es beim NV3X ganz klar eine Fehlentscheidung. Auch wenn M$ nicht den kleinsten gemeinsamen nenner genommen hätte, wäre die Hardware chice.In "ihren" Bereichen ist die FX sehr gut. Spiele, die für die Grafik "DX9-Features" nutzen, laufen natürlich auf einer Radeon besser.

Jesus
2004-11-13, 17:52:37
Ja, aber nur unter folgenden Voraussetzungen:

- NV3x darf seine FX12-Units nicht benutzen auch wenn die Qualität damit nicht beeinträchtigt würde

- R300 kann nur vergleichsweise simple Pixelshader beschleunigen.

- R300 bietet kein static branching im PS und kein dynamic branching im VS.

- R300 bietet das "Render to Vertexbuffer"-Feature nicht.

- R300 bietet nur vier "Phasen" und begrenzt damit die Anzahl der Ebenen für einen Dependent Read.

- Mathematische Funktionen werden (bis auf eine Ausnahme) langsamer berechnet, und sind dabei noch ungenauer.



- R300 ist trotzdem schneller (bei niedrigerem Takt). Punkt aus. Da gibt es einfach nichts zu diskutieren. Auch wenn die NV3x noch so viele Gimmicks (mehr ist es nicht) hat brachten diese ihm absolut nichts in den vergangenen 2 Jahren.


Der "2-3 fache Shaderspeed" bezieht sich auf die Limits, die ATI setzt. Nimmt man andere Bedingungen als Maßstab, sieht es für die Radeon meist nicht mehr so rosig aus. Neben ATIs Leistung, den R300 so performant designt zu haben muss auch berücksichtigt werden, dass ihnen das Schicksal mit der DX9-Spec in die Hände spielte.

Schicksal würde ich das nicht nennen. NV war auch nicht ganz unschuldig an der ganzen Sache.

aths
2004-11-13, 18:08:25
- R300 ist trotzdem schneller. Punkt aus. Da gibt es einfach nichts zu diskutieren.Doch :) R300 ist auf dem Feld schneller, wofür er die notwendigen Features in HW bereit hält. Ansonsten ist der R300 meist langsamer oder kann gleich gar nicht mehr eingesetzt werden.

ATI hat vorgelegt, welche Geschwindigkeit man in DX9 haben sollte. NV hat vorgelegt, welche Features man haben sollte. Mit dem NV40 hat NV jetzt die Features und die Geschwindigkeit, ATI mit dem R420 lediglich die Geschwindigkeit.

Ohne ATI wäre der NV40 nicht so schnell. Ohne NV müssten wir auf den R5xx noch länger warten.

In CPU-limitierten OpenGL-Spielen wie Quake kann eine Ti 4600 hin und wieder eine Radeon 9700 schlagen. "R300 ist schneller" ist eine verkürzte Darstellung.

Auch wenn die NV3x noch so viele Gimmicks (mehr ist es nicht) hat brachten diese ihm absolut nichts in den vergangenen 2 Jahren."Gimmicks" wie FP32, Arbitrary Swizzling, static und dynamic Branching (dynamisch beim NV3x nur im VS) sind Standards, an denen sich auch zukünftige ATI-Hardware orientiert. Nur weil auf dem (kleineren) Feld des R300 trotzdem noch lange keine R300-Leistung erreicht wird, ist das nicht "absolut nichts". In Doom3 z. B. liegt zwischen FX und Radeon keine große Spanne – die Performance in Far Cry zeigt also nicht das ganze Bild.

Schicksal würde ich das nicht nennen. NV war auch nicht ganz unschuldig an der ganzen Sache.Worin liegt denn NVs Schuld?

MadMan2k
2004-11-13, 18:27:40
Um lange Shader mit FP-Genauigkeit zu berechnen, ist CineFX im Vergleich zum Smartshader2 eine sehr ineffiziente Lösung. Doch dafür wurde CineFX auch gar nicht gebaut – so gesehen ist es keine Fehlkonstruktion. Aber es ist ein Kompromiss-Design. Bestimmte Flaschenhälse waren von NV in der ursprünglichen Planung bestimmt nicht gewollt.

PP ist doch in den DX9 Specs - oder verstehe ich da was falsch?
Und daran, dass die meisten Shader in Spielen nicht auf CineFX abgestimmt sind, ist doch einzig NV durch die verzögerte Auslieferung schuld, was einen Teufelskreis losgetreten hat.

Nicht alles, was nicht in Spielen in Echtzeit nutzbar ist, ist damit gleich 'nicht nutzbar'.
der Haupteinsatzbereich ist aber Echtzeiberechnung in Spielen - entsprechend kann man den Rest bei der BEtrachtung weglassen oder mit 1/10 Gewichten.
Das ist IMO auch dein Problem; du übergewichtest die Vorteile der CineFX Architektur.
Es ist so, als ob man den R300 mit nem Toaster aus Sicht des Toasters betrachtet, sprich wer besser Brot warm machen kann...

Jesus
2004-11-13, 18:28:36
Doch :) R300 ist auf dem Feld schneller, wofür er die notwendigen Features in HW bereit hält. Ansonsten ist der R300 meist langsamer oder kann gleich gar nicht mehr eingesetzt werden.


Ok. Leider fehlt dafür der praktische Bezug völlig, damit ist das Argument für mich (als Käufer) irrelevant.

robbitop
2004-11-13, 18:35:02
Worin liegt denn NVs Schuld?
Selbstüberschätzung. Unterschätzung der Konkurrenz. Fehlende pragmatische Sicht beim NV3x Design (was vorher eine Domäne von NV war).

betasilie
2004-11-13, 18:37:54
der Haupteinsatzbereich ist aber Echtzeiberechnung in Spielen - entsprechend kann man den Rest bei der BEtrachtung weglassen oder mit 1/10 Gewichten.
Und diese Gweichtung ist noch weit untertrieben.

StefanV
2004-11-13, 18:41:47
Worin liegt denn NVs Schuld?
Sie haben gepennt, sind somit zu langsam gewesen.

Sie sind von einem Falschen Ausgangspunkt ausgegangen und davon ausgegangen, das sie damit durchkommen würden (was sie ev. auch wären, wenn da nicht die XBOX wäre)...

Kurz:
nV hat die CineFX Architektur einfach verbockt und M$ hatte andere Ansichten von DX9 als nV...

betasilie
2004-11-13, 18:44:08
ATI hat vorgelegt, welche Geschwindigkeit man in DX9 haben sollte. NV hat vorgelegt, welche Features man haben sollte.
Das sehe ich nicht so. Features, die man in absehbarer Zeit haben sollte, sind in Sm2.0 festgelgt. Wenn NV einen NV40 baut, heißt das noch lange nicht, dass man diese Features haben sollte, auch wenn Du das immer wieder den Leuten einreden willst.

Mit dem NV40 hat NV jetzt die Features und die Geschwindigkeit, ATI mit dem R420 lediglich die Geschwindigkeit.
Nun, der NV40 ist nicht so langsam wie der NV30, was wohl auch für NVs Überleben notwendig war. ATI hat aber erstens genug Features für alle derzeitige und in absehbarer Zeit kommende Games und ist bisweilen ganz erheblich schneller, als der NV40. ... Für die meisten intelligenten Spieler ist somit klar, dass der R420 die bessere Wahl ist.

robbitop
2004-11-13, 18:48:07
nicht zu vergessen ist das seit Jahren überlegene MSAA Verfahren.

mapel110
2004-11-13, 18:49:22
nicht zu vergessen ist das seit Jahren überlegene MSAA Verfahren.

und das seit viel mehr Jahren unterlegene AF-Verfahren.

p.s. gibts hier eigentlich auch mal was neues, oder kann ich zu machen?

aths sagt "mehr features und speed"
beta sagt "ausreichend features und (teils wesentlich) mehr speed)

und das seit ... ehm ... Beginn des Threads?!

betasilie
2004-11-13, 18:50:31
nicht zu vergessen ist das seit Jahren überlegene MSAA Verfahren.
Ack. Ich finde dan Vorteil auch jetzt noch durch die gammakorrektur durchaus erheblich.

Und NV hat ja leider das gute alte AF aufgegeben, was für mich ein wirklich Kaufargument dargestellt hätte.

Gast
2004-11-13, 18:50:48
und das seit viel mehr Jahren unterlegene AF-Verfahren.
Jetzt nicht mehr. :)

betasilie
2004-11-13, 18:51:01
und das seit viel mehr Jahren unterlegene AF-Verfahren.
Nun, das hat sich mit dem NV40 ja erledigt. ;(

Black-Scorpion
2004-11-13, 18:51:44
Die Diskussion ist doch sinnlos.
aths findet immer etwas um nVidia zu pushen und die anderen klein zu reden..
Und wenn es nur darum geht theoretische Vorteile rauszustellen die beim spielen vollkommen unwichtig sind.

Einen besseren PR Manager kann man sich garnicht wünschen.

mapel110
2004-11-13, 18:51:54
Nun, das hat sich mit dem NV40 ja erledigt. ;(

nö, ist immernoch besser (egal wie geringfügig).

robbitop
2004-11-13, 18:52:22
Nun, das hat sich mit dem NV40 ja erledigt. ;(

Wenn ich mir das Deltachrome AA/AF so anschaue, werde ich echt wehmütig, wenn ich das von NV/ATi hingegen sehe muss ich sagen.

Quasar
2004-11-13, 18:54:07
Nun, der NV40 ist nicht so langsam wie der NV30[...]
Der nV30u ist heute noch schneller, als eine X800 XTPE - der Speedgewinn durch den nV40 war eigentlich gar nicht nötig.

Sinnlos pauschalisieren kann ich nämlich auch ganz gut....

betasilie
2004-11-13, 18:57:25
Wenn ich mir das Deltachrome AA/AF so anschaue, werde ich echt wehmütig, wenn ich das von NV/ATi hingegen sehe muss ich sagen.
Ja, es ist zwar erträglich und viele Spiele würde ich auch mit dem aktuellen AF von ATI und NV zocken, aber bei einigen Games fallen die schlecht gefilterten Bereiche schon stark auf, wo ich gerne auf vernünftiges AF zurückgreifen würde.

betasilie
2004-11-13, 18:58:50
Der nV30u ist heute noch schneller, als eine X800 XTPE - der Speedgewinn durch den nV40 war eigentlich gar nicht nötig.

Sinnlos pauschalisieren kann ich nämlich auch ganz gut....
Sind solche Kommentare notwendig? :rolleyes:

Quasar
2004-11-13, 19:04:12
Sind solche Kommentare notwendig? :rolleyes:
Das frage ich mich auch jedesmal, wenn hier wieder jemand seine Sichtweise allen anderen als die einzig richtige aufdrücken/verkaufen will.

Ausserdem schrieb ich keine Unwahrheit - im Gegensatz zu manch anderem - und gegen eine mir bekannte Forumsregel habe ich auch nicht verstossen.

betasilie
2004-11-13, 19:05:50
Ausserdem schrieb ich keine Unwahrheit - im Gegensatz zu manch anderem - und gegen eine mir bekannte Forumsregel habe ich auch nicht verstossen.
Ganz toll, dass Du solche Kommentare mit der Einhaltung der Forumsregeln rechtfertigst. :uclap: Meinst Du nicht, es gibt auch noch andere Regeln, an die man sich halten sollte, die vielleicht nicht in den Forumsregeln verankert sind?

Wishnu
2004-11-13, 19:06:13
Ohne ATI wäre der NV40 nicht so schnell. Ohne NV müssten wir auf den R5xx noch länger warten.


Ich denke damit ist doch alles wichtige gesagt, oder? ;)

Wollen wir hoffen, dass beide Seiten weiterhin ihre Käufer finden und uns damit günstigere und bessere Produkte bescheren.

Quasar
2004-11-13, 19:09:54
Ganz toll, dass Du solche Kommentare mit der Einhaltung der Forumsregeln rechtfertigst. :uclap: Meinst Du nicht, es gibt auch noch andere Regeln, an die man sich halten sollte, die vielleicht nicht in den Forumsregeln verankert sind?
Melde das Posting, wenn es dir nicht gefällt, oder argumentiere dagegen.

betasilie
2004-11-13, 19:14:49
Melde das Posting, wenn es dir nicht gefällt, oder argumentiere dagegen.
Ich habe dir doch meine Meinung zu dem Posting gesagt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2442709&postcount=717

Und melden werde ich das Posting sicher nicht. Das ist eher eine Frage, ob Du vernünftig diskutieren willst.

Quasar
2004-11-13, 19:17:21
Das ist kein Argument - da steht nur die Frage, ob solche Postings nötig sind. Entkräfte meine Aussage, frage nach einen Beweis oder akzeptiere, daß andere Leute vielleicht andere Dinge für wichtig halten, als FPS um jeden Preis.

Ansonsten wäre diese Meta-Diskussion für mich jetzt beendet, da sie nicht zum Thema passt.

Jesus
2004-11-13, 19:18:38
Das ist kein Argument - da steht nur die Frage, ob solche Postings nötig sind. Entkräfte meine Aussage, frage nach einen Beweis oder akzeptiere, daß andere Leute vielleicht andere Dinge für wichtig halten, als FPS um jeden Preis..

Was war die Aussage ?nv30 schneller als x800xt ?
Stimmt nicht. Aussage endkräftigt.

End of OT.

Mantikor
2004-11-13, 19:20:11
Für den neuesten Patch empfehle ich DXTweaker von Demirug. Da kann man alle Pfade wählen.

Ich weiß nicht, ob ich zu blöd bin, aber irgendwie find ich den auf der Hauptseite nicht... :usad:

Mfg Der Mantikor

r@h
2004-11-13, 19:20:21
Ja, es ist zwar erträglich und viele Spiele würde ich auch mit dem aktuellen AF von ATI und NV zocken, aber bei einigen Games fallen die schlecht gefilterten Bereiche schon stark auf, wo ich gerne auf vernünftiges AF zurückgreifen würde.Na ja... als ATI Nutzer bist Du ja nicht viel anderes gewöhnt, oder?
:D

Ist nicht ganz ernst gemeint... aber wenn Du 'echte' Filterqualität wünscht, bleibt nur der Griff zu einer nVidia-Karte der FX-Reihe. Oder siehst Du das etwa anders?
:confused:

Razor

r@h
2004-11-13, 19:21:26
Was war die Aussage ?nv30 schneller als x800xt ?
Stimmt nicht. Aussage endkräftigt. Weil Du sagst, dass dem nicht so ist?
Offenbar hast Du hier rein gar nichts verstanden...

Razor

Jesus
2004-11-13, 19:23:08
Na ja... als ATI Nutzer bist Du ja nicht viel anderes gewöhnt, oder?
:D

Ist nicht ganz ernst gemeint... aber wenn Du 'echte' Filterqualität wünscht, bleibt nur der Griff zu einer nVidia-Karte der FX-Reihe. Oder siehst Du das etwa anders?
:confused:

Razor

Die FX Reihe? Das waren die, die als erste den tollen "bri" AF Filter angewendet hatten...

Jesus
2004-11-13, 19:23:43
Weil Du sagst, dass dem nicht so ist?
Offenbar hast Du hier rein gar nichts verstanden...

Razor

Klar ist die Aussage an sich falsch. Zeig mir einen Benchmark der sie unterstützt. Ob es dabei um irgendwelchen Architekturspezifischen Eigenheiten (womöglich noch taktnormalisiert ) geht ist eine völlig andere Frage.

Mantikor
2004-11-13, 19:24:55
Bei der Fx Reihe kann man es mit "relativ" neuen Forcewares aber deaktivieren, außerdem haben sie nicht die verdammte Winkelabhänigkeit.

betasilie
2004-11-13, 19:27:10
Na ja... als ATI Nutzer bist Du ja nicht viel anderes gewöhnt, oder?
:D

Ist nicht ganz ernst gemeint... aber wenn Du 'echte' Filterqualität wünscht, bleibt nur der Griff zu einer nVidia-Karte der FX-Reihe. Oder siehst Du das etwa anders?
:confused:

Razor
Nun, bei der FX stimmt dann wieder die Performance nicht. Ich hätte mir einen NV40 gewünscht, bei dem man, und wenn auch nur durch Tweak, die starke Winkelabängigkeit abschalten kann.

Quasar
2004-11-13, 19:32:45
Die FX Reihe? Das waren die, die als erste den tollen "bri" AF Filter angewendet hatten...
Nö, das war die R9600 - und wenn man so will, auch die R9000/9200/9250.

Jesus
2004-11-13, 19:35:29
Nö, das war die R9600 - und wenn man so will, auch die R9000/9200/9250.

Kam die 9600 (r(v)360) vor den FXen raus ? Ist sie das konkurrenzprodukt zu einer 5950 ?

und r200 etc hatten afaik, nur einen bi-filter. Es gab auch mal Karten die gar nicht Anisotrop gefiltert haben (ja wirklich!). :wink:

Aber lassen wir das. :rolleyes:

aths
2004-11-13, 19:38:14
PP ist doch in den DX9 Specs - oder verstehe ich da was falsch?_PP erlaubt FP16, aber nicht FX12.

Und daran, dass die meisten Shader in Spielen nicht auf CineFX abgestimmt sind, ist doch einzig NV durch die verzögerte Auslieferung schuld, was einen Teufelskreis losgetreten hat. Die verzögerte Auslieferung liegt zumindest teilweise bei TSMC. Auch bei Abstimmung auf CineFX kann in DX9-Pixelshadern die Radeon-Performance nicht erreicht werden. Es hätte eines anderen DX-Standards bedurft.

der Haupteinsatzbereich ist aber Echtzeiberechnung in Spielen - entsprechend kann man den Rest bei der BEtrachtung weglassen oder mit 1/10 Gewichten.
Das ist IMO auch dein Problem; du übergewichtest die Vorteile der CineFX Architektur.
Es ist so, als ob man den R300 mit nem Toaster aus Sicht des Toasters betrachtet, sprich wer besser Brot warm machen kann... Der Haupteinsatz für die GeForce FX ist für die meisten Käufer, Computerspiele zu beschleunigen. Hier hatten diese Leute (genau wie ich) "Glück", dass "DX9-Spiele" trotz der verfügbaren und erschwinglichen Radeon-Hardware nicht in großer Zahl auf den Markt kamen. Die FX wurde aber nicht nur für Spiele entwickelt, sonst hätte sich NV die meisten Kompromisse, die ATI gemacht hat, ebenso erlauben können. Natürlich braucht der passionierte Spieler keine Architektur, die besonders gut für Offline-Rendering oder DCC ist. Doch ich hielte es für falsch, einen Chip nur danach zu bewerten, was er in Spielen leistet. Denn es gibt so viel mehr.

aths
2004-11-13, 19:40:11
Ok. Leider fehlt dafür der praktische Bezug völlig, damit ist das Argument für mich (als Käufer) irrelevant.Der praktische Bezug fehlt für dich und ist damit für dich irrelevant, ebenso für alle, die wie du denken.

Kurz:
nV hat die CineFX Architektur einfach verbockt Quark.
und M$ hatte andere Ansichten von DX9 als nV...Das allerdings.

Jesus
2004-11-13, 19:41:50
Der praktische Bezug fehlt für dich und ist damit für dich irrelevant, ebenso für alle, die wie du denken.

das sind eben die meisten (99% würde ich mal sagen, ohne mich zu weit aus dem Fenster zu lehnen ;)). Wo braucht man denn eine Geforce FX wenn man nicht spielt? Für den Professionellen Bereich gibt es doch schon lange eine ganz andere Serie von NV.

Mantikor
2004-11-13, 19:42:37
Ich suche immernoch den DXTweaker... :rolleyes:

aths
2004-11-13, 19:43:17
Das sehe ich nicht so. Features, die man in absehbarer Zeit haben sollte, sind in Sm2.0 festgelgt. Wenn NV einen NV40 baut, heißt das noch lange nicht, dass man diese Features haben sollte, auch wenn Du das immer wieder den Leuten einreden willst.Wo rede ich den Leuten an, dass "man" diese Features haben sollte?

Nun, der NV40 ist nicht so langsam wie der NV30, was wohl auch für NVs Überleben notwendig war. ATI hat aber erstens genug Features für alle derzeitige und in absehbarer Zeit kommende Games und ist bisweilen ganz erheblich schneller, als der NV40. ... Für die meisten intelligenten Spieler ist somit klar, dass der R420 die bessere Wahl ist.Ja, ATI hat genügemd Features zum überleben bis zum R5xx. Allerdings haben sie nicht genug Features für "alle" Games, siehe Far Crys HDR-Lighting.

aths
2004-11-13, 19:46:53
Die Diskussion ist doch sinnlos.
aths findet immer etwas um nVidia zu pushen und die anderen klein zu reden..aths legt darauf wert, möglichst unabhängig zu sein.

Dass ATI so viele Fans hat, ist angesichts der Radeon-Leistung und passablen Bildqualität kein Wunder. Kein Wunder ist auch, dass die Überzeugten ATI jetzt tendenziell zu gut einschätzen.

Und wenn es nur darum geht theoretische Vorteile rauszustellen die beim spielen vollkommen unwichtig sind.Da ich auch programmiere (wenn auch grafikmäßig auf sehr niedrigem Niveau) ist Spieletauglichkeit nicht alles für mich.

Einen besseren PR Manager kann man sich garnicht wünschen. Wäre ich PR-Manager würde das in meiner Sig stehen, und ohne Lohnscheck liefe da nix.

Jesus
2004-11-13, 19:48:59
Ja, ATI hat genügemd Features zum überleben bis zum R5xx. Allerdings haben sie nicht genug Features für "alle" Games, siehe Far Crys HDR-Lighting.

Also wenn das für NV überlebenswichtig ist dann gut´ Nacht ;)
(1024er Auflösung zum flüssig spielen, kein AA etc... ).

Aber wir drehen uns schon wieder im Kreis ;)

aths
2004-11-13, 19:50:52
Nun, bei der FX stimmt dann wieder die Performance nicht. Ich hätte mir einen NV40 gewünscht, bei dem man, und wenn auch nur durch Tweak, die starke Winkelabängigkeit abschalten kann.Diese Winkelabhängigkeit habt ihr den bedingungslosen ATI-Anhängern zu verdanken. Ebenso das Problem mit dem Texture Shimmering. Ich finde es absolut peinlich, dass NV ATI gerade dort nachahmt, wo sie vorher ihre Stärken hatten. Im Zuge dessen, dass die Texturqualität bei ATI ständig kleingeredet wurden sieht sich NV offenbar in der Lage, das auszunutzen und zwar bis zur (bzw. über) die Schmerzgrenze.

Gute Filterqualität kostet so oder so entsprechend Performance. Die GeForce FX ist bei AF so langsam wie die Texturen gut sind.

aths
2004-11-13, 19:52:16
Also wenn das für NV überlebenswichtig ist dann gut´ Nacht ;)
(1024er Auflösung zum flüssig spielen, kein AA etc... ).R420 kann es gleich gar nicht. Man könnte NV die mäßige Performance dann vorwerfen, wenn jemand zeigt wie es besser ginge.

Gast
2004-11-13, 19:53:11
Ja, ATI hat genügemd Features zum überleben bis zum R5xx.
Sicherlich noch länger.
Wenn ich mir ansehe, daß man mit einer FX5900 in HL2 im DX8.1Pfad noch gut über die Runden kommt. ;)

Allerdings haben sie nicht genug Features für "alle" Games, siehe Far Crys HDR-Lighting.
Gut zum anschauen. Schlecht zum Spielen.
In 1024x768 ohne AA zu spielen ist nicht akzeptabel.

betasilie
2004-11-13, 19:54:37
Wo rede ich den Leuten an, dass "man" diese Features haben sollte?
Das hört man immer wieder. Oder preist Du den NV40 nicht immer an, weil er so viel kann?

Ja, ATI hat genügemd Features zum überleben bis zum R5xx. Allerdings haben sie nicht genug Features für "alle" Games, siehe Far Crys HDR-Lighting.
Das HDR in FarCry ist inoffiziell und steht dem normalen Gamer nicht zur Verfügung. Außerdem lief HDR in früheren beta-Builds von FarCry auch auf R300 Hardware, wie Screenshots und Videos zeigen, die schon vor dem Release von FarCry, und somit weit vor dem Release des NV40, HDR zeigten.

Sich nun an so einem schlecht implemtierten, inoffiziellem HDR in FarCry hochzuziehen, was NV offensichtlich vertraglich zugesichert wurde, zeugt nicht gerade von Objektivität. Hinzu kommt, dass das HDR in FarCry, welches auch auf dem R300 lauffähig war, gecancelt wurde, wo wohl auch NV die Finger im Spiel hatte.

Aber ist schon klar; ich werde jetzt wieder als wirrer Verschörungtheoretiker hingestellt, obwohl solche Exklusiv-Deals Gang und Gebe in der Branche sind. :rolleyes:

Dunkeltier
2004-11-13, 19:56:04
[...]
Gute Filterqualität kostet so oder so entsprechend Performance. Die GeForce FX ist bei AF so langsam wie die Texturen gut sind.


Und warum hinkt sie dann trotz der aF-"Optimierungen" immer noch der Radeon 9800 Pro hinterher?

aths
2004-11-13, 19:58:59
Und warum hinkt sie dann trotz der aF-"Optimierungen" immer noch der Radeon 9800 Pro hinterher?Weil die Pixelshaderausführungsgeschwindigkeit geringer ist?

betasilie
2004-11-13, 20:03:11
... Ebenso das Problem mit dem Texture Shimmering. Ich finde es absolut peinlich, dass NV ATI gerade dort nachahmt, wo sie vorher ihre Stärken hatten. Im Zuge dessen, dass die Texturqualität bei ATI ständig kleingeredet wurden sieht sich NV offenbar in der Lage, das auszunutzen und zwar bis zur (bzw. über) die Schmerzgrenze.

Gute Filterqualität kostet so oder so entsprechend Performance. Die GeForce FX ist bei AF so langsam wie die Texturen gut sind.
Ack. Deshalb hätte ich mich gefreut, wenn die starke Winkelbahängikeit beim NV40 zwar per default an ist, um gerechte Benchmarks zu bekommen, aber halt irgendwie abschaltbar, für Leute, die sich etwas mehr mit der Thematik beschäftigen.

Diese Winkelabhängigkeit habt ihr den bedingungslosen ATI-Anhängern zu verdanken.
Das finde ich sehr flamig formuliert. :|

Man kann das ATI zuschreiben, aber den Usern bestimmt nicht. Ich für meinen Teil bin kein ATI Anhänger, aber habe mich ganz bewusst für die R300 Serie entschieden, trotz des AFs. Das ATI AF ist in vielen Fällen von der IQ sehr gut und sehr schnell. Es gibt aber Spiele wo das nicht so ist und da würde man sich als Kunde gerne mehr Einstellmöglichkeiten wünschen, wie gefiltert wird. ... Das hätte NV beim NV40 aufgreifen sollen.

Deine kompromisslose Art ist manchmal sehr ermüdend. Weder Features alleine noch Speed alleine sind der Schlüssel für eine gute Gpu. Es ist ein Mischung aus beiden.

aths
2004-11-13, 20:04:06
Das hört man immer wieder. Oder preist Du den NV40 nicht immer an, weil er so viel kann?Ich preise beim NV40 das umfangreiche Featureset, ja; weil ich offenbar zu den wenigen Leuten gehöre die in der Lage sind, dieses richtig einzuschätzen. (Das ist so arrogant gemeint wie es klingt. Man kann nicht von einem durchschnittlichen Computerspieler erwarten, die Nützlichkeit von "Nexgen-Features" fachgerecht zu bewerten.)

Was man von mir nicht liest ist, dass man vom R420 wegen mangelnden Features die Finger lassen sollte. Lediglich gebe ich zu bedenken, dass bei einer geplanten langen Einsatzdauer SM3 eine gewisse Relevanz erlangen könnte, was aber eine Binsenweisheit ist. Immerhin zeigte ATI praktisches Denken; anstatt traumtänzerisch einen Kompromiss-R400 zu bringen, liefern sie mit dem R420 einen Chip mit anständiger – um nicht zu sagen oft spitzenmäßiger – Leistung ab.

Das HDR in FarCry ist inoffiziell und steht dem normalen Gamer nicht zur Verfügung. Außerdem lief HDR in früheren beta-Builds von FarCry auch auf R300 Hardware, wie Screenshots und Videos zeigen, die schon vor dem Release von FarCry, und somit weit vor dem Release des NV40, HDR zeigten.War das HDR oder waren das nur Glowing-Effekte? Mit welcher Performance lief HDR-Lighting auf dem R360? Demirugs Posting zum Thema hast du doch gelesen, und – wenn ich nachfragen darf – auch verstanden?

Sich nun an so einem schlecht implemtierten, inoffiziellem HDR in FarCry hochzuziehen, was NV offensichtlich vertraglich zugesichert wurde, zeugt nicht gerade von Objektivität. Deine ständigen Verschwörungstheorien, wie und wo NV vielleicht habe Geld fließen lassen, zeugen nicht gerade von Neutralität.

Hinzu kommt, dass das HDR in FarCry, welches auch auf dem R300 lauffähig war, gecancelt wurde, wo wohl auch NV die Finger im Spiel hatte.

Aber ist schon klar; ich werde jetzt wieder als wirrer Verschörungtheoretiker hingestellt, obwohl solche Exklusiv-Deals Gang und Gebe in der Branche sind. :rolleyes: Siehe Demirugs Posting zur Performance beim Alphablending.

LairD
2004-11-13, 20:12:30
Ich preise beim NV40 das umfangreiche Featureset, ja; weil ich offenbar zu den wenigen Leuten gehöre die in der Lage sind, dieses richtig einzuschätzen. (Das ist so arrogant gemeint wie es klingt. Man kann nicht von einem durchschnittlichen Computerspieler erwarten, die Nützlichkeit von "Nexgen-Features" fachgerecht zu bewerten.)



LOL
99,999% der Menschheit interessieren diese NextGen Features einen Shice,weil sie es einfach was besseres zu tun haben.
Bist du jetzt toller als diese 99,999 %,weil du erkannt hast,was wir in Zukunft brauchen.

Sry aber so ein bescheuertes Posting,schlägt ja den billigsten Flame.

Black-Scorpion
2004-11-13, 20:15:56
aths legt darauf wert, möglichst unabhängig zu sein.
Das kommt aber nicht rüber, eher das Gegenteil.
Da ich auch programmiere (wenn auch grafikmäßig auf sehr niedrigem Niveau) ist Spieletauglichkeit nicht alles für mich.
Wie du schon sagst, ist es für dich nicht alles.
Aber du stellst diesen Vorteil so dar als wenn jeder andere das auch braucht.
Wenn ein Spieler nichts davon hat ist das völlig egal was die GPU noch kann.
Was bringen einem Spieler die tollsten Features einer Karte wenn er sie nicht braucht, aber bei jeder besten Gelegenheit als Vorteil und Nützlich vorgetragen bekommt.
Damit lädst du gerade dazu ein auf diesee Argumente einzugehen und das Spiel geht von vorne los.

Vielleicht solltest du versuchen nicht alles was für dich ein Vorteil ist Allgemeingültig darzustellen.