PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14

r@h
2004-06-17, 23:16:40
Original geschrieben von Jesus
als was ? Als eine R9800p...

Razor

r@h
2004-06-17, 23:21:05
Original geschrieben von MadManniMan
LS ... 20 - 50 fps könnten allerdings wirklich hinkommen - auch mit diesen Einstellungen.

Daß er nicht erwähnt, daß es auch krassere Slowdowns geben kann, ist klar, oder? ;) Ich kann zwar nur unter 1024 mitreden (1280 hab' ich nicht einmal probiert ;-), aber da war's (wie ich schon schrieb) absolut OK.

Krasse Slowdowns hatte ich mit der R9800p eigentlich nur unter DX2 und Thief3.
Alles andere war eigentlich (meist) OK.

Razor

MadManniMan
2004-06-17, 23:26:31
Original geschrieben von r@h
Offenbar nicht nur langsam, sondern auch noch recht humorlos, gell ?

Nein.

a) mit wichtigeren Sachen beschäftigt, als sofort antworten zu können.

b) nur irritiert, warum du nicht auf das ganz einfach antwortest, was ich oben gefragt habe.

Original geschrieben von r@h
Geht Dir Deine Freundin vielleicht auf die Nerven ?

Aber sonst gehts noch? :???

Original geschrieben von r@h
Vielleicht hätte ich den in meinem Kommentar enthaltenen Sarkasmus ein wenig deutlicher kennzeichnen sollen. Damals haben 512MB vollkommen ausgereicht, bis FarCry kam...

Du, 512MB reichen auch heute noch. Man muß nur mit den Abstrichen leben können, die man damit machen muß.
Und auch heute kann man noch wunderbar mit ner GF4 klarkommen. Man muß nur mit den Abstrichen leben können, die man damit machen muß.

Und auch heute kann man sich schon die Vorteile eines NV40 gönnen ... auch wenn sie sich wohl erst in einem halben Jahr merklicher machen.

Und nochmal: 1Gig war schon vor laaanger Zeit von Vorteil. Wenn man sich die 80€ - wie ich vor einem Jahr für 512MB ;) waren grad günstig - aus den Rippen schneiden konnte, hatte man nicht nur für Sachen wie FC vorgesorgt, sondern auch mehr Spaß an Sachen wie MMORPGs oder intensivem Multitasking - ich habe den Unterschied deutlich wahrgenommen.

Mag sein, daß du damals keinen Vorteil daraus gehabt hättest, aber deshalb allgemein dagegen zu wettern, so wie du es getan hast :???:

Wenn du wirklich endlich verstanden hättest, warum sich dereinst so viele von dir vor den Kopf gestoßen gefühlt haben, würdest du nicht ...

Original geschrieben von r@h
Und mit FarCry kam auch mein Einsehen und fortan hatte auch ich (teuren) 1GB im Rechner.

... schreiben. Denn das zeigt nicht Verständnis dafür, daß andere eben ein paar € für ein halbes Gig bezahlt haben, bevor FC kam.

Gegenüber Intoleranz bin ich intolerant - und ja, vielleicht auch ein wenig humorlos ATM ... ändert aber nichts an den Fakten :|

Gast
2004-06-17, 23:30:18
so hier mal ein beweisbild :)

http://nemesis.rushers.net/FarCry0034.jpg

Gast
2004-06-17, 23:32:49
Original geschrieben von MadManniMan
b) nur irritiert, warum du nicht auf das ganz einfach antwortest, was ich oben gefragt habe.Und das wäre ?
:???:
Original geschrieben von MadManniMan
<snip> - ich habe den Unterschied deutlich wahrgenommen.Ich nicht.
Bei FC allerdings schon...
Original geschrieben von MadManniMan
... schreiben. Denn das zeigt nicht Verständnis dafür, daß andere eben ein paar € für ein halbes Gig bezahlt haben, bevor FC kam.Korrekt.

Razor

P.S.: Ich habe Dich absichtlich nicht vollständig zitiert, da ich sonst auch auf das andere hätte reagieren müssen... ;)
(und das paßt hier einfach nicht)

r@h
2004-06-17, 23:34:57
Original geschrieben von Gast
so hier mal ein beweisbild :)

http://nemesis.rushers.net/FarCry0034.jpg ...dass Gäste auch Bildchen posten können ?
:D

Mal im ernst: "Beweis" wofür ?
:???:

Razor

Jesus
2004-06-17, 23:38:58
naja dass ich über 20 fps hab :)

das ist 1280x1024x32, 4xAA 8xAF, alles auf very high wasser auf ultra high etc...

in den innenlevels läufts übrigens besser

MarcWessels
2004-06-18, 00:01:20
@Jesus
Dann mal viel Spaß bei Deiner Ruckelei (die, als ob 20fps noch nicht schlimm genug wären, sich auch oft im Frameratenbereich unter 10fps abspielt), dem Lagging und mit Deiner Grafikkarte, die wie von Zauberhand, nicht nur bei gleichem Takt schneller ist als eine 9700P sondern sogar fast mit einer X800 (Pro ?) mithalten kann... ;D ;D ;D

Tjell
2004-06-18, 00:13:26
Mittlerweile schaffen es "die üblichen Verdächtigen" (mich eingeschlossen) den Thread hier immer weiter Off-Topic zu treiben.

Es geht hier nicht um Festplatten, Speicher, Far Cry, Ruckeln oder um dummdusselige Ati-Karten!



Daher mal eine für mich (und meinen Chef :) ) wichtige Frage zum NV40:
Ist damit zu rechnen, daß die im Vorfeld viel gepriesene MPEG2- und -4-Unterstützung in Hardware von kommenden Treibern mal unterstützt wird, so daß man irgendwann von einer einigermaßen leistungsfähigen Alternative zu einer Zusatzkarte mit MPEG2-Encoderchip sprechen kann?

Dann wäre das zusammen mit dem gelegentlichen Nachbearbeiten von 3D-Szenen in Cinema4D mit ein Kaufgrund für einen NV40 als GeForce oder Quadro, denn wir bräuchten eine Lösung zur vereinfachten Aufzeichnung analogen Videomaterials. Wenn sich das mit einer sowieso benötigten neuen Grafikkarten erschlagen läßt umso besser (Und ich könnte mit dem Argument dann auch für mich einen NV40 auf Firmenkosten "erben" :D ).

Jesus
2004-06-18, 00:15:10
Original geschrieben von MarcWessels
@Jesus
Dann mal viel Spaß bei Deiner Ruckelei (die, als ob 20fps noch nicht schlimm genug wären, sich auch oft im Frameratenbereich unter 10fps abspielt), dem Lagging und mit Deiner Grafikkarte, die wie von Zauberhand, nicht nur bei gleichem Takt schneller ist als eine 9700P sondern sogar fast mit einer X800 (Pro ?) mithalten kann... ;D ;D ;D

also unter die 10 fps ist FC wirklich noch nie gekommen, 15 war das absolute minimum :) Laggen tut auch nichts und ja bei gleichem Takt ist eine 9800 Pro schneller als eine 9700 Pro. Und nein sie ist ganz bestimmt nicht so schnell wie eine X800 pro.

hier noch ein shot in nem innenlevel ( selbe einstellungen wie oben ):

http://nemesis.rushers.net/FarCry0035.jpg

Jesus
2004-06-18, 00:17:07
Original geschrieben von Tjell
Mittlerweile schaffen es "die üblichen Verdächtigen" (mich eingeschlossen) den Thread hier immer weiter Off-Topic zu treiben.

Es geht hier nicht um Festplatten, Speicher, Far Cry, Ruckeln oder um dummdusselige Ati-Karten!



Daher mal eine für mich (und meinen Chef :) ) wichtige Frage zum NV40:
Ist damit zu rechnen, daß die im Vorfeld viel gepriesene MPEG2- und -4-Unterstützung in Hardware von kommenden Treibern mal unterstützt wird, so daß man irgendwann von einer einigermaßen leistungsfähigen Alternative zu einer Zusatzkarte mit MPEG2-Encoderchip sprechen kann?

Dann wäre das zusammen mit dem gelegentlichen Nachbearbeiten von 3D-Szenen in Cinema4D mit ein Kaufgrund für einen NV40 als GeForce oder Quadro, denn wir bräuchten eine Lösung zur vereinfachten Aufzeichnung analogen Videomaterials. Wenn sich das mit einer sowieso benötigten neuen Grafikkarten erschlagen läßt umso besser (Und ich könnte mit dem Argument dann auch für mich einen NV40 auf Firmenkosten "erben" :D ).

Kann jede 9800 All in Wonder... meine kann z.b. in Echtzeit Videos vom Fernseher direkt in Divx, Xvid oder was auch immer aufnehmen.

Jesus
2004-06-18, 00:18:07
oh jetz ist mir ein fehler unterlaufen :)

beim 2ten shot war es nur 2xaa... naja auch egal

Tjell
2004-06-18, 00:23:48
Original geschrieben von Jesus
Kann jede 9800 All in Wonder... meine kann z.b. in Echtzeit Videos vom Fernseher direkt in Divx, Xvid oder was auch immer aufnehmen.

MPEG4-Hardware-Unterstützung fehlt.

Außerdem herrscht in meiner Firma mittlerweile Ati-Verbot (zuviele Probleme gehabt) und bei mir privat sowieso. :D

Jesus
2004-06-18, 00:26:33
Original geschrieben von Tjell
MPEG4-Hardware-Unterstützung fehlt.

Außerdem herrscht in meiner Firma mittlerweile Ati-Verbot (zuviele Probleme gehabt) und bei mir privat sowieso. :D

Mpeg4 = Divx... fehlt nicht, denn ich glaub kaum dass mein Rechner divx mit 25fps encodieren kann... ( bei 40% CPU auslastung... :) )

Jesus
2004-06-18, 00:29:40
hier noch 2 bilder mit Super Bump Mapping ( das Nvidia für die verarschungspräsentation verwendet hat... ), da hier mal jemand geschrieben hat er bringts nicht zum laufen. ( testoffset map )

FC: 1280x1024x32 4xAA 8xAF very high...Radeon 9800 SE AIW ( @ 8 pipes, 410 / 370 )

http://nemesis.rushers.net/FarCry0036.jpg
http://nemesis.rushers.net/FarCry0037.jpg

Mr. Lolman
2004-06-18, 00:39:47
Original geschrieben von Tjell
Außerdem herrscht in meiner Firma mittlerweile Ati-Verbot (zuviele Probleme gehabt) und bei mir privat sowieso. :D


...und wenn ich dir jetzt erzähle, dass überall am Technikum Wien, und im ganzen Wifi Komplex nur ATi Karten verwendet werden, beginnst du dann an den Fähigkeiten deiner Arbeitskollegen zu zweifeln, oder hö?

/edit:

...

Mr. Lolman
2004-06-18, 00:58:37
Original geschrieben von Jesus
Laggen tut auch nichts und ja bei gleichem Takt ist eine 9800 Pro schneller als eine 9700 Pro. Und nein sie ist ganz bestimmt nicht so schnell wie eine X800 pro.


Das war doch nur mit dem Catalyst 3.2 so. Oder hat Ati wieder mittlerweile 9800pro Optimierungen drinnen?

Denn bis auf die deutlich höhere Spannung
( und natürlich dem höheren Takt) ist ein R350 einem R300 ja sehr ähnlich. (Hab zumindest noch keinen Gegenbeweis gefunden)


P.S.: Ich hab auch sicha schon 1000x meine Farcry einstellungen gepostet. Und ja ich spiels auch mit 4xAA. Aber halt nur in 1024, dafür mit ordentlich optimiertem LOD, (wo Razor bei der Demo anfangs noch gewettert hat über die Lolmanschen Tweaks (http://www.forum-3dcenter.de/vbulletin/showthread.php?postid=1916141#post1916141), bis er eingesehen hat, dass diese die BQ erhöhen, und nicht der Performane)

BTW: Die Demo lief sogar noch etwas schlechter, u.U. weil auch Fulltri-AF aktiviert sien musste, damits keine Fehler gab. Jetzt reicht auch meistens bi-AF...

Tjell
2004-06-18, 00:59:05
Warum zum Henker versucht ständig einer missionarisch tätig werden zu müssen, um mich davon zu überzeugen, daß die Einstellung contra Ati falsch ist?

Ehrlich gesagt ist es mir wurscht, wo, wann und wieso eine Ati eingesetzt wird. Es interessiert mich einfach nicht. Basta.

Und akzeptiert doch einfach mal den Umstand, daß aufgrund zuvieler Probleme mit Ati-Karten diese in meiner Firma nunmehr bis auf Weiteres nicht mehr gekauft werden. Oder seid ihr an Ati finanziell beteiligt?

Es nervt langsam.

Mr. Lolman
2004-06-18, 01:00:23
Original geschrieben von Tjell
Warum zum Henker versucht ständig einer missionarisch tätig werden zu müssen, um mich davon zu überzeugen, daß die Einstellung contra Ati falsch ist?

Ehrlich gesagt ist es mir wurscht, wo, wann und wieso eine Ati eingesetzt wird. Es interessiert mich einfach nicht. Basta.

Und akzeptiert doch einfach mal den Umstand, daß aufgrund zuvieler Probleme mit Ati-Karten diese in meiner Firma nunmehr bis auf Weiteres nicht mehr gekauft werden. Oder seid ihr an Ati finanziell beteiligt?

Es nervt langsam.


Genau wie dein Gebashe. Es interessiert hier niemanden ob in deiner Firma Ati verboten ist, und du zuHause nur Probleme hattest. Schluss hjetzt mit der Diskussion

Tjell
2004-06-18, 01:12:04
Original geschrieben von Mr. Lolman
Genau wie dein Gebashe. Es interessiert hier niemanden ob in deiner Firma Ati verboten ist, und du zuHause nur Probleme hattest. Schluss hjetzt mit der Diskussion

Gebashe!!?? Daß ich nicht lache!!!

Wenn ich auf meine Frage hin zu der Hardwareunterstützung des NV40 von MPEG2 und MPEG4 als Antwort erhalte, daß das jede 9800 AIW kann, dann geht das vollkommen an meiner Frage vorbei.

Es soll auch keinen interessieren, warum bestimmte Karten in meinem Umfeld nicht mehr erwünscht sind, aber ich möchte genausowenig wissen, warum sie es doch sein sollten.

Danach habe ich schließlich nicht gefragt!

:no:

Mr. Lolman
2004-06-18, 01:14:12
ok, ist gut :bier: ?

Tjell
2004-06-18, 01:19:50
Original geschrieben von Mr. Lolman
ok, ist gut :bier: ?

Sicher das!
:bier:



Vielleicht hat ja irgendwann mal jemand eine realistische Einschätzung der hinterfragten Funktionen des NV40.

MarcWessels
2004-06-18, 01:43:14
Original geschrieben von Mr. Lolman
Das war doch nur mit dem Catalyst 3.2 so. Oder hat Ati wieder mittlerweile 9800pro Optimierungen drinnen?

Genau! Daher hat man ja "damals" als 9700P-User den gemoddeten 3.2er verwendet, was sich dann mit dem 3.4er erledigt hatte. Aber laß ihn - wenn er meint...

MadManniMan
2004-06-18, 01:51:19
Original geschrieben von Razor
P.S.: Ich habe Dich absichtlich nicht vollständig zitiert, da ich sonst auch auf das andere hätte reagieren müssen... ;)
(und das paßt hier einfach nicht)

:up: Ganz Recht, ich hab glaub ich auch jetzt etwas von meinem Humor zurückbekommen :freak2:

Und nein, bei uns läufts wunderbar - OK ich zieh im September weg, aber was interessierts heut? :freak:

Errm, Themawechsel :D


Entschuldigt bitte, wenns OT bleibt ... :eyes:

a) Thema 1600 - du bestreitest also ernsthaft den Sinn dieser Auflösung?

b) Thema 1Gig - nur, weil du selbst erst jetzt von 1024MB profitierst, verstehst du nicht, daß andere bereits früher den Unterschied zwischen 512 und eben jener Menge bemerkt haben?

MarcWessels
2004-06-18, 02:23:42
Aprospos Ram @razor: FarCry profitiert ebenso erheblich von 256MB GraKa-Ram...

Gel
2004-06-18, 03:05:43
Edit by Thowe: Unwichtig

r@h
2004-06-18, 07:43:20
Original geschrieben von Mr. Lolman
P.S.: Ich hab auch sicha schon 1000x meine Farcry einstellungen gepostet. Und ja ich spiels auch mit 4xAA. Aber halt nur in 1024, dafür mit ordentlich optimiertem LOD, (wo Razor bei der Demo anfangs noch gewettert hat über die Lolmanschen Tweaks (http://www.forum-3dcenter.de/vbulletin/showthread.php?postid=1916141#post1916141), bis er eingesehen hat, dass diese die BQ erhöhen, und nicht der Performane)Wus ?
Wo soll ich gegen Deine Tweaks 'gewettert' haben ?
:???:

Und by the way: habe Deinen 'reply'-Link mal gegen einen vernünftigen getauscht... ;)
Original geschrieben von Mr. Lolman
BTW: Die Demo lief sogar noch etwas schlechter, u.U. weil auch Fulltri-AF aktiviert sien musste, damits keine Fehler gab. Jetzt reicht auch meistens bi-AF... :kotz:

Mit Bi-AF konnte ich in FarCry (und der R9800p) nun gar nichts anfangen.
Irgendwie scheinen Radeon-User hier weniger anspruchsvoll...
:D

Razor

r@h
2004-06-18, 07:56:58
Original geschrieben von MadManniMan
:up: Ganz Recht, ich hab glaub ich auch jetzt etwas von meinem Humor zurückbekommen :freak2:

Und nein, bei uns läufts wunderbar - OK ich zieh im September weg, aber was interessierts heut? :freak: Oki !
Und: :up:

Die Welt ist einfach schon ernst genug...
Original geschrieben von MadManniMan
a) Thema 1600 - du bestreitest also ernsthaft den Sinn dieser Auflösung?Nein.
Ich bestreite diesen, um die generelle Leistungsfähigkeit einer Grafikkarte auf heutigen Systemen mit heutigen Monis darzustellen.

Die einzigen, die sich wirklich positiv über diesen Modus geäussert haben, sind Leutz mit guten 22"-Monitoren... ab da fängt's ja auch langsam an, sinnvoll zu werden - wenn mir auch 75Hz eindeutig zu wenig wären...
Original geschrieben von MadManniMan
b) Thema 1Gig - nur, weil du selbst erst jetzt von 1024MB profitierst, verstehst du nicht, daß andere bereits früher den Unterschied zwischen 512 und eben jener Menge bemerkt haben? Auch damals habe ich eingeräumt, dass es durchaus Anwendungen gab, die von 'nem Gig profitieren - Spiele gehörten eindeutig nicht dazu (von den etwas kürzeren, aber zu vernachlässigen Ladezeiten mal abgesehen ;-).

Insofern ich mich (selbstredend) gegen eine generelle Empfehlung dessen ausgesprochen habe.
Vor allem, weil primär nach der Erweiterung für Spiele-PC's gefragt wurde...

FarCry war bei mir ein willkommener Anlaß, den Hauptspeicher aufzurüsten (und ich habe keine 80€, sondern 180€ dafür bezahlt :freak: ), da gerade zu diesem Zeitpunkt die generelle Anforderung an meinen Hauptrechner stieg und ich den Speicher 'eh benötigte (würde für ein einziges Spiel doch NIEMALS solch einen Unsinn verzapfen ;-).

Razor

r@h
2004-06-18, 07:59:54
Original geschrieben von MarcWessels
Aprospos Ram @razor: FarCry profitiert ebenso erheblich von 256MB GraKa-Ram... Mit 4xAA ?
Auf jeden Fall !
:D

Aber nö... ein Test meinerseits zeigte das Gegenteil.
Bei FyrCry machen 256MB (bis 2xAA) kaum Sinn.

Nur was hat dies jetzt...
Egal.

Razor

Quasar
2004-06-18, 08:19:27
Original geschrieben von Jesus
also ich spiele FarCry mit meiner 9800 Pro auf etwas höherem takt ( 400 / 370 ) absolut ruckelfrei auf 1280x1024x32 4xAA 8xAF bei so 20-50 fps je nachdem wo ich bin, aber ohne ruckler. ( mit nem A64 3000+ und 1gig ram )
allles auf very high / ultra high natürlich, glare on und mit EAX 2.0

1280x1024x32 mit 4xAA und 8xAF mit allen Details auf very high, bzw. ultra high? Wo hast du diese Optionen denn eingestellt? "Medium AA" in Far Cry bedeutet bsw. nur 2xAA auf Radeons - "High" ist schon 6x.
edit:
Als nächstes willst du das auch noch mit einer 9800p mit nur 128MB hinbekommen haben, oder? BTW, wir suchen hier keine besonders anspruchslosen Stellen, in denen auch eine, in Far Cry verboten gehörende FX5800u auf 100fps+ kommt...
Darf man fragen, was du mit "glare" meinst? Die Option ist mir in Far Cry nicht bekannt.

In Standardsettings, allerdings ohne AA und AF komme ich da mit einer 9800XT, die noch ein bißchen höher taktet und mehr RAM hat als deine "pro" auf durchschnittliche 27-28fps.

Irgendwie glaube ich nicht, daß man das als flüssig empfinden kann...

Quasar
2004-06-18, 08:24:55
Original geschrieben von Mr. Lolman
Das war doch nur mit dem Catalyst 3.2 so. Oder hat Ati wieder mittlerweile 9800pro Optimierungen drinnen?


Jein. In manchen Games/Benchmarks sind offenbar ein paar Workarounds für die 9700p weggefallen, so z.B. mit dem 4.4er (neuere nicht probiert) im TempleMark.

Als teils kann die R350/360 schonmal bissel schneller sein, auch bei gleichem Takt.

[dzp]Viper
2004-06-18, 08:40:07
Original geschrieben von Quasar
1280x1024x32 mit 4xAA und 8xAF mit allen Details auf very high, bzw. ultra high? Wo hast du diese Optionen denn eingestellt? "Medium AA" in Far Cry bedeutet bsw. nur 2xAA auf Radeons - "High" ist schon 6x.
edit:
Als nächstes willst du das auch noch mit einer 9800p mit nur 128MB hinbekommen haben, oder? BTW, wir suchen hier keine besonders anspruchslosen Stellen, in denen auch eine, in Far Cry verboten gehörende FX5800u auf 100fps+ kommt...
Darf man fragen, was du mit "glare" meinst? Die Option ist mir in Far Cry nicht bekannt.

In Standardsettings, allerdings ohne AA und AF komme ich da mit einer 9800XT, die noch ein bißchen höher taktet und mehr RAM hat als deine "pro" auf durchschnittliche 27-28fps.

Irgendwie glaube ich nicht, daß man das als flüssig empfinden kann...

Full Ack!

Ich habe selber eine 9800pro und wenn man 1280x1024iger auflösung nimmt (ohne AA und mit 4 AF) dann fallen die FPS in manchen Szenen (nicht zu wenig) schon mal locker auf 15 ab - wie man das dann noch als Flüssig betrachten kann, weiß ich auch nicht :eyes:
Wenn man dann noch 4 AA und 8 AF hinzuschaltet, dann hat man mehr als oft unter 15 fps (schon nur, weil die 128 MB RAM dann zuwenig sind)
Der Unterschied zwischen 1024x768 und 1280x1024 mit einer 9800pro mit 128 MB RAM ist in Farcry extrem. Ca. 50% weniger fps sobald man auf die 1280x1024 Auflösung wechselt!

Jesus - wenn du lügen willst, dann geh woanders hin (Vielleicht gigaforum ;))

ShadowXX
2004-06-18, 09:05:56
Original geschrieben von [dzp]Viper
Full Ack!

Ich habe selber eine 9800pro und wenn man 1280x1024iger auflösung nimmt (ohne AA und mit 4 AF) dann fallen die FPS in manchen Szenen (nicht zu wenig) schon mal locker auf 15 ab - wenn man das dann noch als Flüssig betrachten kann, weiß ich auch nicht :eyes:
Wenn man dann noch 4 AA und 8 AF hinzuschaltet, dann hat man mehr als oft unter 15 fps (schon nur, weil die 128 MB RAM dann zuwenig sind)
Der Unterschied zwischen 1024x768 und 1280x1024 mit einer 9800pro mit 128 MB RAM ist in Farcry extrem. Ca. 50% weniger fps sobald man auf die 1280x1024 Auflösung wechselt!

Jesus - wenn du lügen willst, dann geh woanders hin (Vielleicht gigaforum ;))

Full ack...kann ich bestätigen.

Ich hab im Prinzip das gleiche System wie du (nur anderes Mainboard) und habe genau das was du sagt ebenfalls festgestellt...(meine 9800Pro läuft @418MHz GPU Takt)

Das ist der Grund, warum ich bei FC sogar völlig auf AA verzichte und auch nur 4xFullTriAF einschalte (bei 1024x768)...sonst läufts für mich nicht wirklich spielbar...

Jesus
2004-06-18, 10:35:54
Also ich spiele FC schon seit jeher mit AA und 1280x1024 ( 17" TFT, alles drunter sieht verwaschen aus weil wer interpoliert )...

Das 4x AA stelle ich im Control Panel ein , nicht im Spiel. ( genaus wie das AF ).

Alle Bilder die ich gepostet habe sind genau mit diesen einstelleungen gemacht ( ausser das 2te , hat nur 2x AA ) !

Und für alle die immer noch glauben R300 = R350 hier die Unterschiede:

SMARTSHADER 2.1 – Which gives the 9800 Pro beyond DX9 specs which ATI is calling DX9++. An F-Buffer has been introduced in the R350 core which allows long shader programs to be run much faster then previously and also gives unlimited pixel shader support allowing for a true OpenGL 2.0 compliant VPU.
SMOOTHVISION 2.1 – Which is the AA/AF component of the 9800 Pro. This newer version has hardware enhancement of the memory controller for improved AA/AF performance at higher resolutions.
HyperZ III+ - Which is their Z-Culling technique. The Z-Cache has been enhanced to better handle stencil buffer data for features like shadow volumes.

MadManniMan
2004-06-18, 10:39:59
Original geschrieben von r@h
Die einzigen, die sich wirklich positiv über diesen Modus geäussert haben, sind Leutz mit guten 22"-Monitoren... ab da fängt's ja auch langsam an, sinnvoll zu werden - wenn mir auch 75Hz eindeutig zu wenig wären...

Holzbockbeutel hat einen 19"er :o

Original geschrieben von r@h
Auch damals habe ich eingeräumt, dass es durchaus Anwendungen gab, die von 'nem Gig profitieren - Spiele gehörten eindeutig nicht dazu (von den etwas kürzeren, aber zu vernachlässigen Ladezeiten mal abgesehen ;-).

Du hast eindeutig nie MMORPGs gespielt :stolz:

Jesus
2004-06-18, 10:59:05
hm ich wollte jetzt noch ein "beweisvideo" mit fraps drehen :)

allerdings verlier ich dabei gut die hälfte der fps... ist das normal ?

Quasar
2004-06-18, 11:04:41
Original geschrieben von Jesus
Also ich spiele FC schon seit jeher mit AA und 1280x1024 ( 17" TFT, alles drunter sieht verwaschen aus weil wer interpoliert )...

Das 4x AA stelle ich im Control Panel ein , nicht im Spiel. ( genaus wie das AF ).

Alle Bilder die ich gepostet habe sind genau mit diesen einstelleungen gemacht ( ausser das 2te , hat nur 2x AA ) !

Schön schön, geh' mal in den Cooler-Level und genieß' da mal dein ruckelfreies Spielvergnügen...
Oder nein, besser, ich tu mal meine 9800XT rein, und sag' dir, wieviel FPS ich da noch habe - bei "deinen" Einstellungen.

Wie gesagt, ein paar Popel-Szenen laufen auch auf einer FX5800 noch wunderbar flüssig.....


Original geschrieben von Jesus
Und für alle die immer noch glauben R300 = R350 hier die Unterschiede:

SMARTSHADER 2.1 – Which gives the 9800 Pro beyond DX9 specs which ATI is calling DX9++. An F-Buffer has been introduced in the R350 core which allows long shader programs to be run much faster then previously and also gives unlimited pixel shader support allowing for a true OpenGL 2.0 compliant VPU.
SMOOTHVISION 2.1 – Which is the AA/AF component of the 9800 Pro. This newer version has hardware enhancement of the memory controller for improved AA/AF performance at higher resolutions.
HyperZ III+ - Which is their Z-Culling technique. The Z-Cache has been enhanced to better handle stencil buffer data for features like shadow volumes.

Du solltest Marketing nicht so ernst nehmen, schließlich müssen die ja den Leuten die R9800-Reihe irgendwie schmackhaft verkaufen...


CineFX 2.0 Engine
The second-generation CineFX 2.0 engine powers advanced pixel and vertex shader processing and true 128-bit color precision. Delivering double the floating-point pixel shader power of the previous CineFX engine, CineFX 2.0 produces a visible performance boost through its more efficient execution of pixel shader programs.

UltraShadow Technology
Powers the next-generation of complex, realistic shadow effects by accelerating shadow generation. Accurate shadows that effectively mimic reality without bogging down frame rates are one of the keys to more believable game environments.

Intellisample HCT
Second-generation Intellisample technology delivers up to a 50-percent increase in compression efficiency for compressing color, texture, and z-data, and powers unprecedented visual quality for resolutions up to 1600 x 1280.

Guck mal, was die nV35 alles tolles kann - sogar im Gegensatz zur nV30.... :freak:

Gast
2004-06-18, 11:04:57
Hmm... der Thread hier ist zeigt einmal mehr das Versagen der Moderation.

Gast
2004-06-18, 11:15:45
Original geschrieben von Quasar
Schön schön, geh' mal in den Cooler-Level und genieß' da mal dein ruckelfreies Spielvergnügen...
Oder nein, besser, ich tu mal meine 9800XT rein, und sag' dir, wieviel FPS ich da noch habe - bei "deinen" Einstellungen.

Wie gesagt, ein paar Popel-Szenen laufen auch auf einer FX5800 noch wunderbar flüssig.....


Level Cooler. Radeon 9800 Pro ( 420 / 370 jetzt :) )
1280x1024x32 4xAA 8xAF alles auf very high bzw ultra high + EAX 2.0 doppler effekt etc... alles was geht :) )

http://nemesis.rushers.net/FarCry0038.jpg
http://nemesis.rushers.net/FarCry0042.jpg
http://nemesis.rushers.net/FarCry0045.jpg

Jesus
2004-06-18, 11:19:59
allerdings macht das meine Passiv kühlung fast nicht mehr mit :) ( man sieht schon leichte artefakte auf dem Arm im letzten bild :P )

Quasar
2004-06-18, 11:30:21
Ok, 26fps ohne Feindeinwirkung sind also flüssig. :-)

Fadl
2004-06-18, 11:32:11
Und wenn 2-3 Gegner mit im Bild sind hast du nur noch 16 Frames. Wobei ich selbst nichtmal sagen würde das 23 Frames flüssig sind. Zumindest nicht bei FarCry.
Ich habe einen P4 2.8 mit 9800Pro und 1GB Ram und deine Settings könnte ich niemals flüssig spielen.

Jesus
2004-06-18, 11:34:39
Original geschrieben von Fadl
Und wenn 2-3 Gegner mit im Bild sind hast du nur noch 16 Frames. Wobei ich selbst nichtmal sagen würde das 23 Frames flüssig sind. Zumindest nicht bei FarCry.
Ich habe einen P4 2.8 mit 9800Pro und 1GB Ram und deine Settings könnte ich niemals flüssig spielen.

siehe erstes bild 3 gegner... ( ok einer da kaum zu sehen :) ) immer noch schön flüssig spielbar. die Fps gehen zwar auch mal in die 18er wenn ich rumballere aber ansonsten gehts super! ( in 1024 läufts bei 4x 8x mit ca. 50-70 fps in dem level )

P.S.: Ich spiel aber trotzdem lieber mit 2xAA weils einfach schneller ist und mit der Auflösung kaum anders aussieht :)

Gast
2004-06-18, 11:35:49
naja iegnetlich 2tes bild .) aber beim ersten sind auch 2 und ich schiesse rum ( dadurch geht die framerate nochmal um 10 fps zurück, ohne geballer hatte ich hier 48fps )

Gast
2004-06-18, 11:37:48
du kannst auch einen p4 ( bei Spielen :) ) nicht mit nem Athlon 64 vergleichen :)

Jesus
2004-06-18, 11:40:43
Original geschrieben von Quasar
Ok, 26fps ohne Feindeinwirkung sind also flüssig. :-)

in dem Raum gibts verdammt viele Env Lights der ist immer so langsam...

Tjell
2004-06-18, 11:42:21
Auch wenn ich desöfteren genauso OT marschiert bin:
Könnten wir auf den eigentlichen Sinn dieses Threads zurückkommen und aufhören über Far Cry und sonstigem Kram zu palavern?

Jesus
2004-06-18, 11:43:34
bin ja schon ruhig ;)

Quasar
2004-06-18, 11:45:21
Meinst du, in GPU-limitierten Szenarien macht das noch viel aus?

BTW, im Cooler-Demo habe ich mit deinen Settings in meiner Demo ~27fps, mit aktiver Taschenlampe oder Nachtsichtgerät gern mal unter 20fps (im Schnitt).

Und das bei leerem Level - Gegner sind vorher getötet worden.

In meiner Training-Demo sind nur 24,5fps ohne und mit Taschenlampe (ok, in diesem Level nur im "innenteil" sinnvoll und auch nur dort genutzt) sind's dann noch gewaltige 21,1fps.

Und das mit dem "hübschen" bilinearen AF auf den Detail- und Bump-Texturen...

Sorry, spielbar ist für mich was anderes - besonders wenn da "absolut ruckelfrei zwischen 20 und 50 fps" postuliert. X-D

sry
;(

(btw, auch wenn ich gern Dinge richtig stelle, wird's mir hier langsam zu blöd, das rumgetrolle immer wieder zu beachten - insofern: EOD für mich.)

Jesus
2004-06-18, 11:49:14
tja ich kann nur das hinschreiben und bilder posten so wies eben bei mir ist. Wenns bei dir anders ist dann kann ich dir da leider auch nicht helfen ( auch wenn du immer das letzte wort haben musst :) )

( habe übrigens auch Bi AF an, weil KEIN sichtbarer unterschied zu erkennen ist solange AF an ist , im gegensatz zu bi oder tri ohne AF )

Quasar
2004-06-18, 12:05:35
*hrhr*

Wenn's bei dir anders ist, dann freue ich mich für dich, daß du mit 20,146fps im Schnitt flüssig spielen kannst.
Das ist nämlich eben bei mir herausgekommen, bei CP-AF (sorry, wenn du den Unterschied nicht siehst, musst du wirklich sehr resistent gegen ordentliche Texturfilterung sein) und 4xAA im Cooler-Level, den ich mal probeweise von der Stelle an, wo man aus dem Fahrstuhl nach unten aussteigt bis dahin, wo man am Rad dreht, um die Mutagen-Kammer zu fluten.

Diesmal mit Gegnern und Feuergefechten.... (und dank Godmode auch unter Verzicht auf leistungsfressendes Nachtsichtgerät).

Aber wie gesagt, schön, wenn du das in Kombination mit bilinearem AF bei Detail- und Bumpmaps noch als flüssig und optisch ansprechend empfindest. ;)

edit:
Nein, 20fps ist nicht das CPU-Limit meines P4, das liegt rund doppelt so hoch.

edit2:
Das war auf einer R9800pro mit 256MB, keiner XT.

[dzp]Viper
2004-06-18, 12:40:41
@ jesus/gast
Ich frag mich sowieso, warum du nur innenlvls genommen hast.
Die innenlvls laufen in 90% eh besser als aussenlvls
Ich will mal deine fps sehen beim letzten Lvl wenn man zum Vulkan fährt X-D
Wenn du dann noch 15 fps hast, dann gratuliere ich dir...
Oder am anfang des Spiels wenn man aus dem Höhlensystem kommt
oder im Flugzeugträger
oder oder
ich könnte massig szenen aufzählen wo du 100%ig unter 15 fps kommen wirst mit deinen einstellungen!
Wenn du dann noch normal spielen kannst, dann ist das schön für dich. Wir könnten es jedenfalls nicht...

Gast
2004-06-18, 12:45:27
wie gesagt p4 ist nicht gleich Athlon 64, anderes Speicherinterface, bus speed etc...

wenn du mal auf guru3d schauen würdest , da haben einige p4´s mit athlon 64 verglichen unter farcry. Da hatte einer mit p4 3.2 und X800xt dieselbe Framerate wie einer mit ner X800 pro und nem AThlon 64

[dzp]Viper
2004-06-18, 12:48:54
Original geschrieben von Gast
wie gesagt p4 ist nicht gleich Athlon 64, anderes Speicherinterface, bus speed etc...

wenn du mal auf guru3d schauen würdest , da haben einige p4´s mit athlon 64 verglichen unter farcry. Da hatte einer mit p4 3.2 und X800xt dieselbe Framerate wie einer mit ner X800 pro und nem AThlon 64

wir reden hier aber von einer 9800pro mit 128 MB Speicher :|
Du wirfst hier irgendwie alles in den selben topf ;)

Jesus
2004-06-18, 12:52:01
ich meine bezogen auf das was quasar gepostet hat.

und ja ich habe ne 9800 SE / pro aiw mit 128mb :)

Jesus
2004-06-18, 12:58:25
Original geschrieben von Jesus
P.S.: Ich spiel aber trotzdem lieber mit 2xAA weils einfach schneller ist und mit der Auflösung kaum anders aussieht :)

^^

Quasar
2004-06-18, 13:03:57
Original geschrieben von Gast
wie gesagt p4 ist nicht gleich Athlon 64, anderes Speicherinterface, bus speed etc...

wenn du mal auf guru3d schauen würdest , da haben einige p4´s mit athlon 64 verglichen unter farcry. Da hatte einer mit p4 3.2 und X800xt dieselbe Framerate wie einer mit ner X800 pro und nem AThlon 64

Wenn du nicht am CPU-Limit bist, sondern so tief in der Graka-Limitierung steckst, wie wir hier, spielt das kaum noch eine Rolle.

Link zum Guru - ich werde da ganz sicher nicht stundenlang in allen möglichen Threads rumwühlen...

BTW, die R9800pro mit 256MB erreicht bei denselben Rahmenbedingungen wie hier (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/10/#far_cry_v1_1) (1280x1024, 4xAA/maxAF) gewaltige 17,17fps...

Und damit du nicht sagst, ich mache nur ATi schlecht: Eine FX5950 schaffte nur 14,12 fps.

Ah ja, mit einer 128MB-Karte ist das Ganze natürlich nur noch erstaunlicher...

Jesus
2004-06-18, 13:38:13
ich denke dass es sehr wohl (teilweise ) CPU abhängig ist. habe eben meine Graka auf 9700 pro niveau ( also um knapp 100 MHz, speicher um 60 Mhz ) runtergetaktet und verliere dadurch nur 3 fps ( im cooler level da wo das wasser von unten kommt, keine gegner, kein garnichts nur grafik. selbe stelle wie das bild oben )

ausserdem würde ich gerne wissen welche sichtbaren unterschiede tri und bi AF (8x AF war an )( ausser in irgendwelchen benchmarks ) haben soll.
ich habe nun ernsthaft versucht welceh zu finden ( bin am boden entlanggekrochen am strand ) aber konnte absolut nichts finden, kein banding, kein gar nichts.

Ausser man deaktiviert AF völlig ( oder auf 1x ) dann sieht man deutliches banding zwischen tri und bi filterung. ( also besser gesagt keines bei tri und sehr krasses bei bi )

Quasar
2004-06-18, 14:10:53
Ich bin zu genau der Position gegangen, die du in deinem Screenshot eingenommen hast. Dank "CamPos" (322 1073 35 Angle -11) recht gut zu identifizieren.

Du hast dort 26fps bei aktiver Taschenlampe angezeigt bekommen - verlierst durch R9700p-Taktung drei FPS - das müssten dann noch ~23sein, oder?

Ich habe an dieser Stelle mit meiner R9700p nur ganze 14fps.

Du zielst in dem Shot nach oben - dort ist ein kleiner, hell erleuchteter Raum. Geh' da mal hin und stell dich in die Tür an der rechten Seite. Dann guck in den Raum rein und erfreue dich an Mip-Bandings, wie sie schöner nicht sein können.

edit:
Kleines Video mit Mip-Banding (800x600, 8xAF via Control Panel): http://home.arcor.de/quasat/3DC-Pics/Far%20Cry%20Mip-Banding.avi

[dzp]Viper
2004-06-18, 14:14:46
Original geschrieben von Quasar
Ich bin zu genau der Position gegangen, die du in deinem Screenshot eingenommen hast. Dank "CamPos" (322 1073 35 Angle -11) recht gut zu identifizieren.

Du hast dort 26fps bei aktiver Taschenlampe angezeigt bekommen - verlierst durch R9700p-Taktung drei FPS - das müssten dann noch ~23sein, oder?

Ich habe an dieser Stelle mit meiner R9700p nur ganze 14fps.

Du zielst in dem Shot nach oben - dort ist ein kleiner, hell erleuchteter Raum. Geh' da mal hin und stell dich in die Tür an der rechten Seite. Dann guck in den Raum rein und erfreue dich an Mip-Bandings, wie sie schöner nicht sein können.

ich denke langsam, dass unser guter Jesus nicht mit allen details spielt -sonst würde er nicht so auf seiner Meinung verharren ;)

/edit: Ich hätte gerne mal von Jesus ein 1280x1024 4AA und 8AF Bild mit maximalen Details von anfang des Spiels. Und zwar, wenn man aus dem Höhlensystem rauskommt und das erste mal auf die Insel sieht....

Quasar
2004-06-18, 14:26:11
Könnte gut sein, auf dem Shot in dem großen Raum im Cooler habe ich auch mal guzte 20% mehr Polys angezeigt....

P.S.:
An der Stelle hab ich mit R9700p 12fps... (Ohne Taschenlampe ;) )

edit:
Das CPU-Limit liegt dort bei mind. den doppelten FSP, wahrscheinlich mehr... ;) Nur für den Fall, daß der 1337e AMD64 den P4 mal wieder völlig pwn3n sollte X-D

Jesus
2004-06-18, 14:26:20
no prob. moment :)

Jesus
2004-06-18, 14:27:17
Original geschrieben von Quasar
Könnte gut sein, auf dem Shot in dem großen Raum im Cooler habe ich auch mal guzte 20% mehr Polys angezeigt....

so jetzt weiss ich endlich dass du nur bullshit laberst. ich habe alles auf ultra high und very high, higher gehts nicht mehr...

Quasar
2004-06-18, 14:33:55
Original geschrieben von Jesus
so jetzt weiss ich endlich dass du nur bullshit laberst. ich habe alles auf ultra high und very high, higher gehts nicht mehr...

löl...
Vielleicht sollte ich mich auch mal ausloggen und als Gast posten - dann darf ich auch all die schönen Schimpfwörter benutzen, die mir grad im Kopf umherfliegen.

Allerdings muss ich Abbitte leisten:
Es sind nicht 20% mehr (ich war von 50k bei dir ausgegangen), sondern nur 1/6 mehr.)

Sieh selbst:
~900kB (http://home.arcor.de/quasat/3DC-Pics/FarCry0000.jpg)

Winter[Raven]
2004-06-18, 14:46:17
so jetzt weiss ich endlich dass du nur bullshit laberst

Sollte nicht vielleicht endlich ein MOD dem guten Jesus den Kopfschuss verpassen?

//EDIT:

ICH WILL OW ZURÜCK!

Jesus
2004-06-18, 14:46:58
ok sorry bei dir ist auch die Taschenlampe an...

Jesus
2004-06-18, 14:49:56
so hier nochmal die screenshots die ihr wolltet ( das wird auch das letzte sein was ich hier poste :) )

Ich kann hier beim besten willen kein "banding" erkennen, bin gekrochen am boden ( vor und zurück) aber sehen tut man da wirklich nichts.

einstellungen 1280x1024x32 4xAA 8xAF(bi)

http://nemesis.rushers.net/FarCry0047.jpg

http://nemesis.rushers.net/FarCry0049.jpg

MarcWessels
2004-06-18, 15:03:29
Original geschrieben von r@h
Aber nö... ein Test meinerseits zeigte das Gegenteil.


40% ist der Unterschied. OHNE AA/AF!

EDIT:Weil die Texturen einfach zu groß sind, um in 128MB hineinzupassen...

Jesus
2004-06-18, 15:05:13
@ quasar ... du hattest auch ne andere Waffe drin :)

MarcWessels
2004-06-18, 15:06:32
Original geschrieben von [dzp]Viper
Der Unterschied zwischen 1024x768 und 1280x1024 mit einer 9800pro mit 128 MB RAM ist in Farcry extrem. Ca. 50% weniger fps sobald man auf die 1280x1024 Auflösung wechselt!

Genau!! Und da der Unterschied zwischen 1024er und 800er Res fast ebenso groß ist, spiel ich FarCry (zwangsweise) in 800x600.

MarcWessels
2004-06-18, 15:08:32
Original geschrieben von MadManniMan
Holzbockbeutel hat einen 19"er :o



Du hast eindeutig nie MMORPGs gespielt :stolz:

...und Echtzeitstrategiespiele. Vor Far cry gab es schon 12 bekannte Titel, die mit 512MB stockten.

MarcWessels
2004-06-18, 15:09:07
Original geschrieben von Jesus
Und für alle die immer noch glauben R300 = R350 hier die Unterschiede:

SMARTSHADER 2.1 – Which gives the 9800 Pro beyond DX9 specs which ATI is calling DX9++. An F-Buffer has been introduced in the R350 core which allows long shader programs to be run much faster then previously and also gives unlimited pixel shader support allowing for a true OpenGL 2.0 compliant VPU.
SMOOTHVISION 2.1 – Which is the AA/AF component of the 9800 Pro. This newer version has hardware enhancement of the memory controller for improved AA/AF performance at higher resolutions.
HyperZ III+ - Which is their Z-Culling technique. The Z-Cache has been enhanced to better handle stencil buffer data for features like shadow volumes.

;D Reicht es, wenn ich "AUA" sage?

DrumDub
2004-06-18, 15:12:03
Original geschrieben von MarcWessels
;D Reicht es, wenn ich "AUA" sage?

darfst du. ;D

MarcWessels
2004-06-18, 15:12:34
Original geschrieben von Jesus
( habe übrigens auch Bi AF an, weil KEIN sichtbarer unterschied zu erkennen ist solange AF an ist , im gegensatz zu bi oder tri ohne AF )

Allein DAFÜR sollte man Dich teeren und federn...

Jesus
2004-06-18, 15:13:13
Original geschrieben von MarcWessels
;D Reicht es, wenn ich "AUA" sage?

http://www.hardocp.com/article.html?art=NDQ4

Tjell
2004-06-18, 15:13:56
Um das mal mit simpler Mathematik zu betrachten:

800 × 600 = 480 000
1024 × 768 = 786 432
1280 × 1024 = 1 310 720

Na, fällt was auf!?
Es sollte daher wenig verwundern, daß die Framerate derart dratisch einbricht. Entsprechend geringer ist der Leistungsverlust, wechselt man von 800 × 600 auf 1024 × 768.

Jesus
2004-06-18, 15:14:08
Original geschrieben von MarcWessels
Allein DAFÜR sollte man Dich teeren und federn...

probierts doch selber, das was man da auf Quasars video sieht ( deutliches banding ) kann ich absolut nicht bei mir nachvollziehen.

( vorrausgesetzt es ist wirklich bi-AF wenn man im CP den regler auf performance stellt beim AF)

Gast
2004-06-18, 15:19:32
Jesus hast due die Bilder mit einer X800pro gmacht ?

Jesus
2004-06-18, 15:20:12
nein 9800

mapel110
2004-06-18, 15:22:39
hm, der NV40 war nicht der Überchip, der ATI nur die rücklichter zeigt. kann man das so sagen?!
=)

MarcWessels
2004-06-18, 15:23:23
Original geschrieben von Jesus
probierts doch selber, das was man da auf Quasars video sieht ( deutliches banding ) kann ich absolut nicht bei mir nachvollziehen.

( vorrausgesetzt es ist wirklich bi-AF wenn man im CP den regler auf performance stellt beim AF)

AAAARGHHH... Du siehst es sogar nicht nur auf dem Boden, sondern (im Level auf Deinem eigenen Screenshot!) sogar direkt vor Dir an der Wand!! Ist wie ne Gardine, die Du auf- und zuziehst... :chainsaw:


So und das war mein letztes Statement zu dem Thema; mir gehen solche Leute mit Wundercomputern, die mehr fps schaffen als technsich möglich ist, DERBE auf den Sack.

LovesuckZ
2004-06-18, 15:25:02
Original geschrieben von mapel110
hm, der NV40 war nicht der Überchip, der ATI nur die rücklichter zeigt. kann man das so sagen?!
=)

Nein, weil ATi sich selbst demontiert (Filterung, PCI-E). Dazu brauch man keine Konkurenz mehr. :D

Jesus
2004-06-18, 15:25:26
lol eh... also das was ich bei mir sehe( immer noch nichts ) und das was ich in Quasar´s Video sehe ist schon ein riesen unterschied.

und 20fps sind auch nicht gerade supercomputer oder ? :)

Gast
2004-06-18, 15:26:09
Original geschrieben von mapel110
hm, der NV40 war nicht der Überchip, der ATI nur die rücklichter zeigt. kann man das so sagen?!
=)


Was soll das jetzt heißen ? das der nv40 net gut is ? un der r420 besser is.

Jesus
2004-06-18, 15:26:13
Original geschrieben von LovesuckZ
Nein, weil ATi sich selbst demontiert (Filterung, PCI-E). Dazu brauch man keine Konkurenz mehr. :D

ich würde das eher "anpassen" an die Konkurrenz nennen :)

Quasar
2004-06-18, 15:31:10
Original geschrieben von Jesus
probierts doch selber, das was man da auf Quasars video sieht ( deutliches banding ) [...]

Schön, daß du es überhaupt siehst.
Das ist in 800x600 nativer Auflösung, weil mir die 9700p in 1280x1024 mit 4xAA und 8xAF im CP (Quality) zu rucklig war.

Banding sieht man am besten, je geschmeidiger die Bewegung ist.

Mit Performance AF im Control Panel war's nur noch flimmriger - bei mir lief Quality-AF (TS-Opt.)

Auf diesem Shot (http://home.arcor.de/quasat/3DC-Pics/FarCry0002.jpg) "ziele" ich relativ genau auf das Mip-Band. Soll ich es noch rot umkreisen?

Tjell
2004-06-18, 15:33:55
Original geschrieben von mapel110
hm, der NV40 war nicht der Überchip, der ATI nur die rücklichter zeigt. kann man das so sagen?!
=)

Der NV40 (wie auch der R420) zeigt der alten Grafikkarten-Generation die Rücklichter. Nicht mehr, nicht weniger.

Tjell
2004-06-18, 15:36:11
Original geschrieben von Quasar
Auf diesem Shot (http://home.arcor.de/quasat/3DC-Pics/FarCry0002.jpg) "ziele" ich relativ genau auf das Mip-Band. Soll ich es noch rot umkreisen?

Aißi. Du meinst sicher den beginnenden Texturenmatsch über dem Fadenkreuz?

DrumDub
2004-06-18, 15:40:31
Original geschrieben von Tjell
Der NV40 (wie auch der R420) zeigt der alten Grafikkarten-Generation die Rücklichter. Nicht mehr, nicht weniger.

ähmm. nein, bezüglich des r420, wenns um die performnace geht. featuremäßig ist der nv40 natürlich das fortschrittlichste, was es gibt.

Tjell
2004-06-18, 15:47:18
Original geschrieben von DrumDub
ähmm. nein, bezüglich des r420, wenns um die performnace geht. featuremäßig ist der nv40 natürlich das fortschrittlichste, was es gibt.

Ita est. :) (lat.)

Jesus
2004-06-18, 16:09:14
Original geschrieben von Quasar
Banding sieht man am besten, je geschmeidiger die Bewegung ist.

Mit Performance AF im Control Panel war's nur noch flimmriger - bei mir lief Quality-AF (TS-Opt.)

Auf diesem Shot (http://home.arcor.de/quasat/3DC-Pics/FarCry0002.jpg) "ziele" ich relativ genau auf das Mip-Band. Soll ich es noch rot umkreisen?

deswegen krieche ich auch über den boden, langsamer gehts auch nicht mehr in FC. werde später nochmal ein video machen damit dus auch siehst .

aths
2004-06-18, 16:25:04
Original geschrieben von DrumDub
ähmm. nein, bezüglich des r420, wenns um die performnace geht. featuremäßig ist der nv40 natürlich das fortschrittlichste, was es gibt. Die neuen Features NV40 des NV sind überwiegend dazu gedacht, bekannte Render-Techniken zu beschleunigen. Der NV40 kann bislang impraktikable Techniken so weit beschleunigen, dass sie auch für den Echtzeiteinsatz taugen. Vom aniso abgesehen sind die Features auch für qualitativ sehr hochwertiges Effekte ausgelegt.

Quasar
2004-06-18, 16:26:15
Original geschrieben von Jesus
deswegen krieche ich auch über den boden, langsamer gehts auch nicht mehr in FC. werde später nochmal ein video machen damit dus auch siehst .

Kannst du dir sparen. Im Kriechen sieht man das schlecht, dafür ist aus der Perspektive das Mip-Band zu weit hinten.

edit:
Klingt etwas unfreundlich, also setze:
"Kannst du dir ersparen, daß glaube ich dir auch so..."

Gast
2004-06-18, 16:28:03
so hier das video ( leider 14 mb gross :) ) viel spass

und bitte kompressionsartefakte nicht mit "banding" verwechseln :)

auflösung war nur 1024 diesmla ohne AA, da Fraps gut 50 % performance kostet.

muss allerdings zugeben bei 800x600 sieht man ganz leicht das banding, bei 1280x1024 sieht man allerdings überhaupt nichts mehr davon.

http://nemesis.rushers.net/fc.avi ( xvid )

dauert noch 5 min. bis upload fertig ist :)

DrumDub
2004-06-18, 16:33:59
Original geschrieben von aths
Die neuen Features NV40 des NV sind überwiegend dazu gedacht, bekannte Render-Techniken zu beschleunigen. Der NV40 kann bislang impraktikable Techniken so weit beschleunigen, dass sie auch für den Echtzeiteinsatz taugen. Vom aniso abgesehen sind die Features auch für qualitativ sehr hochwertiges Effekte ausgelegt.

tjo. nur wird sich zeigen, ob diese features in spielen zu lebzeiten des nv40 eine rolle spielen werden. ;)

sagen wird mal so: in momentan bekannten spielen liegen sowohl nv40, als auch r420 in etwas gleichauf, wenn man sämtliche optimierungen auf beiden ausschaltet.

aths
2004-06-18, 16:49:20
Original geschrieben von DrumDub
tjo. nur wird sich zeigen, ob diese features in spielen zu lebzeiten des nv40 eine rolle spielen werden. ;)Ja. Die neue Pipeline z. B. kann zur Performancesteigerung genutzt werden. Warum sollten die Entwickler darauf verzichten?
Original geschrieben von DrumDub
sagen wird mal so: in momentan bekannten spielen liegen sowohl nv40, als auch r420 in etwas gleichauf, wenn man sämtliche optimierungen auf beiden ausschaltet. Nutzen momentane Spiele die NV40-Möglichkeiten, um die Geschwindigkeit zu steigern, aus? Afaik nein, weshalb NV40 wegen dem geringeren Takt "nur" etwa gleichauf liegt.

Mr. Lolman
2004-06-18, 16:53:23
Original geschrieben von aths
Nutzen momentane Spiele die NV40-Möglichkeiten, um die Geschwindigkeit zu steigern, aus?


Wohl genauso stark wie sie es bei ATi machen. Was soll die Frage?


Original geschrieben von aths
Afaik nein, weshalb NV40 wegen dem geringeren Takt "nur" etwa gleichauf liegt.

Das kategorische Taktratendenken habe wir doch schon längst abgeschafft. Oder sollen wir jetzt auch anfangen, uns zu wundern, warum trotz des niedrigeren Taktes, die Verlustleistung beim NV40 höher ist :ratlos:

Jesus
2004-06-18, 16:57:02
eben ati´s PS 2.0b bringt auch gewalitg performance, dank der erweiterten Register (u.a.) und schnellerer ( auch als 6800 ) ausführungseinheiten.

genauso das 3dc was enorm speicherplatz sparen kann.

Jo
2004-06-18, 16:59:38
ob mehr leistung durch mehr transistoren und komplexere ( und stromfressendere , heissere ) schaltkreise erkauft wird oder durch höhere taktraten ist eigentlich egal. im moment ist es so das ATI trotz höhere Taktraten weniger Strom frisst ( also genau das gegenteil )

wärs anders, also wär Nvidia´s versuch hier an ATI´s performancekrone zu rütteln so wie bei AMD prozessoren die bei niedrigere Taktrate und geringerem Stromverbrauch mehr leisten dann würd ich mir ne Nvidia karte kaufen.

Torian.cc
2004-06-18, 17:06:54
Original geschrieben von MarcWessels
AAAARGHHH... Du siehst es sogar nicht nur auf dem Boden, sondern (im Level auf Deinem eigenen Screenshot!) sogar direkt vor Dir an der Wand!! Ist wie ne Gardine, die Du auf- und zuziehst... :chainsaw:


So und das war mein letztes Statement zu dem Thema; mir gehen solche Leute mit Wundercomputern, die mehr fps schaffen als technsich möglich ist, DERBE auf den Sack.

Ein hammerhartes FULL ACK !! *eg*

Beendet dieses öde Thema endlich mal...

MfG
Tori

Mr. Lolman
2004-06-18, 17:07:14
Original geschrieben von r@h
Wus ?
Wo soll ich gegen Deine Tweaks 'gewettert' haben ?
:???:


Naja ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1540462#post1540462), ein kleines bisschen halt ;)


Und by the way: habe Deinen 'reply'-Link mal gegen einen vernünftigen getauscht... ;)


Dankeschön. Habs editiert.


Mit Bi-AF konnte ich in FarCry (und der R9800p) nun gar nichts anfangen.
Irgendwie scheinen Radeon-User hier weniger anspruchsvoll...
:D

Razor

Habs noch nicht durchgespielt. *schäm* Aber ja, vielleicht ist man als ATi User hinsichtlich des AF wirklich weniger anspruchsvoll. Ich könnte mir vorstellen, dass, von einer GF4 auf eine R3x0 gewechselt, mir bi-AF ein Grauen sein könnte.

Aber so find' ichs halt in grösstenteils vollkommen in Ordnung. Überhaupt in den performancezehrenden Aussenlevel.

(ein fps abhängiges dynamisches tri-Band wär manchmal schon einewünschenswerte Option)

aths
2004-06-18, 17:18:46
Original geschrieben von Mr. Lolman
Wohl genauso stark wie sie es bei ATi machen.Hat NV einen so ausgereiften Shader-Recomiler für den NV40, wie ATI für den R420? Berücksichtigen Entwickler bei ihren Effekten, was auf dem NV40 besonders gut performt?

aths
2004-06-18, 17:20:34
Original geschrieben von Jesus
eben ati´s PS 2.0b bringt auch gewalitg performance, dank der erweiterten Register (u.a.) und schnellerer ( auch als 6800 ) ausführungseinheiten.NV40s Pixelshader-Ausführungseinheiten sind pro Takt schneller, als R420s Pixelshader-Ausführungseinheiten. Gegenüber 2_0 ist 2_B kaum schneller. Dafür lassen sich mit 2_A viele Effekte mit weniger Instruktionen rendern. Leider ist 2_A auf FX-Karten sehr langsam. Auf dem NV40 läuft es endlich vernünftig: Pro Takt können mehr 2_A-Instruktionen ausgeführt werden, als R420 pro Takt 2_B-Instruktionen schafft. Da man mit 2_A oftmals etwas kürzere Shader hat (aufgrund mächtigerer Befehle bzw. weniger Limits, beim Dependent Read, beim Swizzle) ist der NV40 hardwaremäßig hier gleich zweifach im Vorteil.
Original geschrieben von Jesus
genauso das 3dc was enorm speicherplatz sparen kann. Bei Normal Maps wird (etwas zulasten der Qualität) die Hälfte an Speicherplatz eingespart. Ein nützliches Feature für Mittelklasse-Karten mit "nur" 128 MB. Leider bietet ATI im Moment das 3Dc-Feature nur für die X800 an.

Quasar
2004-06-18, 17:24:26
Original geschrieben von Gast
http://nemesis.rushers.net/fc.avi ( xvid )


Vor lauter Kompressionsartefakten (oder Fehlerhaften Codecs meinerseits) kann ich da leider wirklich kein Mip-Banding erkennen - ich bin froh, zumindest bestätigen zu können, daß es sich wohl um Far Cry handelt.

Kann jemand das Video "ordentlich" sehen und mir einen Hinweis auf den benötigten Codec geben?

Mr. Lolman
2004-06-18, 17:25:54
Original geschrieben von aths
NV40s Pixelshader-Ausführungseinheiten sind pro Takt schneller, als R420s Pixelshader-Ausführungseinheiten.


Warum kaufen manche Leute eigentlich Intelrechner?

Achja die kompensieren ihre schwächere Leistung mit höheren Taktraten. Solang die Verlustleistung nicht höher ist, ist das auch voll ok, oder nicht?


Bei Normal Maps wird (etwas zulasten der Qualität) die Hälfte an Speicherplatz eingespart.

Was ja grad für zukünftige Spiele nicht übel ist. Sieht die originale Ruby Demo auf R420 Chips eigentlich schlechter aus, als die gewrappte Version?

Quasar
2004-06-18, 17:26:31
Original geschrieben von Jesus
eben ati´s PS 2.0b bringt auch gewalitg performance, dank der erweiterten Register (u.a.) und schnellerer ( auch als 6800 ) ausführungseinheiten.

Erzähl.... (aber bitte ohne Marketing-PDFs nachzubeten, die kenne ich schon).

- Welche "Register" sind erweitert? Die Temps? Ja, von 12 auf 32 - wobei die ATi Pipeline dafür eh nicht anfällig zu sein scheint.

- Schnellere Ausführungseinheiten? Du meinst, höher getaktete Ausführungseinheiten, oder?

Mr. Lolman
2004-06-18, 17:28:34
Original geschrieben von Quasar
- Schnellere Ausführungseinheiten? Du meinst, höher getaktete Ausführungseinheiten, oder?

Hm, gibts eigentlich taktbereinigte Shader Benchmarks zw. R300 u. R420?

Quasar
2004-06-18, 17:30:08
Original geschrieben von aths
NV40s Pixelshader-Ausführungseinheiten sind pro Takt schneller, als R420s Pixelshader-Ausführungseinheiten. Gegenüber 2_0 ist 2_B kaum schneller. Dafür lassen sich mit 2_A viele Effekte mit weniger Instruktionen rendern. Leider ist 2_A auf FX-Karten sehr langsam. Auf dem NV40 läuft es endlich vernünftig: Pro Takt können mehr 2_A-Instruktionen ausgeführt werden, als R420 pro Takt 2_B-Instruktionen schafft. Da man mit 2_A oftmals etwas kürzere Shader hat (aufgrund mächtigerer Befehle bzw. weniger Limits, beim Dependent Read, beim Swizzle) ist der NV40 hardwaremäßig hier gleich zweifach im Vorteil.

Der Vergleich "XT PE" vs. "Ultra" hinkt - wie Mr.Lolman richtig sagte. Die Pipeline mag "toller" sein, was hintenrauskommt, ist dank zu niedrigen Taktes meist trotzdem langsamer.

Treffender wäre der Vergleich Pro und GT.
Hier sind zwar die Taktraten auch unterschiedlich, aber dafür eben auch die Pipe-Anzahl. Dadurch gleich sich einiges soweit aus, das man von der Rohleistung her fast von Gleichstand sprechen kann - höherer Takt und weniger Pipes egalisieren sich beinahe.
Entsprechend sieht's dann auch mit der Leistung aus...

DrumDub
2004-06-18, 17:33:13
Original geschrieben von aths
Ja. Die neue Pipeline z. B. kann zur Performancesteigerung genutzt werden. Warum sollten die Entwickler darauf verzichten?

wir werden es sehen. ich hab halt keine glaskugel. ;)

Nutzen momentane Spiele die NV40-Möglichkeiten, um die Geschwindigkeit zu steigern, aus? Afaik nein, weshalb NV40 wegen dem geringeren Takt "nur" etwa gleichauf liegt.

eben.

ich will ja auch ger nicht den nutzen der neuen features (insbeaonders sm 3.0) in frage stellen. es ging mir eigentlich nur darum, dass mir die aussage von tjell zu einseitig war. ;)

sicherlich war mein einwand da auch nicht 100%ig korrekt ausfomuliert, um die beiden architekturen in wenigen worten im bezug auf ihre performace- und featuremäßigen möglichkeiten zu beschreiben. tendenziell bemühe ich mich dennoch ein objektives urteil der sich monentan darstellenden situation abzuliefern, wenngleich ich dabei gewisse aspekte vernachlässigt habe, die in zukunft auf der einen architektur wohl zum tragen kommen werden. :)

Quasar
2004-06-18, 17:36:53
Original geschrieben von Mr. Lolman
Hm, gibts eigentlich taktbereinigte Shader Benchmarks zw. R300 u. R420?

Takt nicht, aber Füllratenbereinigt.

Allerdings gibt's da rein gar nichts zu sehen...

seahawk
2004-06-18, 17:44:36
Ich denke man sollte sich hier mal an den Threadtitel erinnern. Es ist der 6800er Thread, nicht der X800 gegen 6800 Thread.

Es wäre schön, wenn diese (imho sinnlosen, da Glaubenssache) Vergleiche entfallen könnten.

Gast
2004-06-18, 17:50:07
Original geschrieben von Quasar
Erzähl.... (aber bitte ohne Marketing-PDFs nachzubeten, die kenne ich schon).

- Welche "Register" sind erweitert? Die Temps? Ja, von 12 auf 32 - wobei die ATi Pipeline dafür eh nicht anfällig zu sein scheint.

- Schnellere Ausführungseinheiten? Du meinst, höher getaktete Ausführungseinheiten, oder? +

soweit ich das gelesen habe sind beim R420 die Pixelshader jeweils 3 einheiten ( ALU, FPU und textures ) absolut Parallel ( im gegensatz zum 6800 wo sie voneineander abhängig sind ). Dadurch kann er in einem Singlepass mehr befehle durchmachen wie der 6800 . ( steht u.a. auf Anandtech... )

ausserdem bestätigen doch bisher alle Benchmarks genau das. ( wir reden hier von PS2.0 peformance , PS2.0b oder 3.0 benchmarks / spiele gibt es noch nicht )

Jesus
2004-06-18, 17:52:45
Original geschrieben von Quasar
Vor lauter Kompressionsartefakten (oder Fehlerhaften Codecs meinerseits) kann ich da leider wirklich kein Mip-Banding erkennen - ich bin froh, zumindest bestätigen zu können, daß es sich wohl um Far Cry handelt.

Kann jemand das Video "ordentlich" sehen und mir einen Hinweis auf den benötigten Codec geben?

naja die kompressionsartefakte sieht man eigentlich nur ganz hinten an der wand am ende des videos. aber da isses eh unwichtig. Wichtig ist dass man am boden nichts sieht ( nicht nur im video ).

Allerdings in 800x600 so wie bei deinem Video sehe ich auch das banding. Nur in 1280x1024 ist davon nichts mehr übrig.

Codec ist XVID. single pass auf quality mit 100% Qualtiy, deshalb auch so gross.

Mr. Lolman
2004-06-18, 18:00:13
Original geschrieben von Jesus
naja die kompressionsartefakte sieht man eigentlich nur ganz hinten an der wand am ende des videos. aber da isses eh unwichtig. Wichtig ist dass man am boden nichts sieht ( nicht nur im video ).

Allerdings in 800x600 so wie bei deinem Video sehe ich auch das banding. Nur in 1280x1024 ist davon nichts mehr übrig.

Codec ist XVID. single pass auf quality mit 100% Qualtiy, deshalb auch so gross.

Quasar hat mit 7zip mal auch so ein Video mit original fraps Codec wunderbar gepackt. Wäre in dem Fall auch ratsam, da man (zumindest auf meinem TFT) doch recht deutliche Kompressionsartefakte sieht...

LovesuckZ
2004-06-18, 18:02:00
Original geschrieben von Gast
Dadurch kann er in einem Singlepass mehr befehle durchmachen wie der 6800 . ( steht u.a. auf Anandtech... )

Der NV40 kann über 60000, wieiviel konnte der r420 nochmal? Achja, 512 (oder 15xx unter OpenGL)X-D

ausserdem bestätigen doch bisher alle Benchmarks genau das.

Gleichstand, Sieg, Niederlage?

Gast
2004-06-18, 18:06:33
Original geschrieben von LovesuckZ
Der NV40 kann über 60000, wieiviel konnte der r420 nochmal? Achja, 512 (oder 15xx unter OpenGL)X-D



Gleichstand, Sieg, Niederlage?

ATI`s PS performance ist höher.

der NV 40 kann 64k ( theoretisch ).

Der R420 kann (theoretisch ) unendlich lange PS Programme ausführen da er sie im F-Buffer zwischenspeichern kann.

Ausserdem rede ich hier nicht von der Anzahl der Befehle sondern von der Ausführungsgeschwindigkeit.

seahawk
2004-06-18, 18:08:45
Ok, ich dneke wir einigen uns, dass der R$20 der mit Abstand beste erhältliche Chip ist. Er ist konkurrenzlos.

Und dieser Thread bleibt dann eben dem peinlichen Verlierer NV40 vorbehalten. Muss sich als okeiner Angucken, der erkannt hat, wie hoffnungslos unterlegen dieser NV40 ist.

Winter[Raven]
2004-06-18, 18:08:56
@ Gast

ATHS schrieb auf der voherigen seite:

NV40s Pixelshader-Ausführungseinheiten sind pro Takt schneller, als R420s Pixelshader-Ausführungseinheiten.

Der R420 kann (theoretisch ) unendlich lange PS Programme ausführen da er sie im F-Buffer zwischenspeichern kann.


Kann der NV40 dankt 3.0 Paket auch X-D

Gast
2004-06-18, 18:10:38
hab ich nicht bestritten, nur lovsux widersprochen.

LovesuckZ
2004-06-18, 18:15:13
Original geschrieben von Gast
ATI`s PS performance ist höher.

Warum ist eine X800Pro nicht schneller als eine GF6800GT?

Der R420 kann (theoretisch ) unendlich lange PS Programme ausführen da er sie im F-Buffer zwischenspeichern kann.

"Singlepass mehr befehle durchmachen wie der 6800"

Singlepass =| Multipass.

Ausserdem rede ich hier nicht von der Anzahl der Befehle sondern von der Ausführungsgeschwindigkeit.

"Singlepass mehr befehle"!!!!!!!!!!!eins

Achja, koennte ein Mod bitte diesen Mist (ja, auch meins!) loeschen? der liebe Jesus flamet hier sowieso nur rum, luegt und basht, wenn er nicht weiter weiß.

Gast
2004-06-18, 18:17:02
www.guru3d.com

Shadermark 2.0 ( V 1e)
The XT simple is faster here and there compared to the 6800 Ultra. This is full pixel Shader 2.0 performance. NVIDIA in all honesty did an excellent job in boosting Shader model 2 performance, look and compare it towards the 5950 Ultra. The x800 Pro can't take the heat from the 6800 Ultra, but that's not really a fair statement as it's a cheaper product.

Quasar
2004-06-18, 18:17:13
Original geschrieben von Gast
+

soweit ich das gelesen habe sind beim R420 die Pixelshader jeweils 3 einheiten ( ALU, FPU und textures ) absolut Parallel ( im gegensatz zum 6800 wo sie voneineander abhängig sind ). Dadurch kann er in einem Singlepass mehr befehle durchmachen wie der 6800 . ( steht u.a. auf Anandtech... )

ausserdem bestätigen doch bisher alle Benchmarks genau das. ( wir reden hier von PS2.0 peformance , PS2.0b oder 3.0 benchmarks / spiele gibt es noch nicht )

Wie gesagt, die Marketing-PDFs von ATi kenne ich zur genüge. Das einzige, was m.W. wirklich ohne Beeinträchtigung parallel geschieht, ist das Texld.

Ansosten hat der R420 eine ALU und eine Mini-ALU, die nur einen eingeschränkten Befehlssatz hat.

Gast
2004-06-18, 18:18:33
Original geschrieben von LovesuckZ
Warum ist eine X800Pro nicht schneller als eine GF6800GT?



"Singlepass mehr befehle durchmachen wie der 6800"

Singlepass =| Multipass.



"Singlepass mehr befehle"!!!!!!!!!!!eins

Achja, koennte ein Mod bitte diesen Mist (ja, auch meins!) loeschen? der liebe Jesus flamet hier sowieso nur rum, luegt und basht, wenn er nicht weiter weiß.

lol soll auch auf diesen ********** noch antworten...

Quasar
2004-06-18, 18:18:55
Original geschrieben von Jesus
naja die kompressionsartefakte sieht man eigentlich nur ganz hinten an der wand am ende des videos.

Codec ist XVID. single pass auf quality mit 100% Qualtiy, deshalb auch so gross.

Wie gesagt, ich bezweifel nicht, daß dein Video weitaus besser ist, als ich es zu sehen vermag. Ich vermute, mir fehlt der passende Codec oder er ist fehlerhaft installiert.

btw,
deswegen ja auch die Aufforderung, "dich" beim Begucken nicht hinzulegen, sondern stehenzubleiben...

P.S.:
Mit 7z ist bei deinem Video nichts mehr zu holen...

LovesuckZ
2004-06-18, 18:19:32
Original geschrieben von Gast
lol soll auch auf diesen ********** noch antworten...

Nein, dann bist du naemlich ruhig!

Quasar
2004-06-18, 18:20:46
Original geschrieben von Gast
ATI`s PS performance ist höher.

der NV 40 kann 64k ( theoretisch ).

Der R420 kann (theoretisch ) unendlich lange PS Programme ausführen da er sie im F-Buffer zwischenspeichern kann.


Kann der NV40 auch - er wird nur vom DX-Limit aufgehalten. Mehr als besagte 65xxx Instruktionen wird auch ATi nicht ohne API-Hack zuwege bringen - was meinst du, warum der F-Buffer nur unter OpenGL zugänglich war?

Gast
2004-06-18, 18:21:47
Original geschrieben von LovesuckZ
Warum ist eine X800Pro nicht schneller als eine GF6800GT?



"Singlepass mehr befehle durchmachen wie der 6800"

Singlepass =| Multipass.



"Singlepass mehr befehle"!!!!!!!!!!!eins

Achja, koennte ein Mod bitte diesen Mist (ja, auch meins!) loeschen? der liebe Jesus flamet hier sowieso nur rum, luegt und basht, wenn er nicht weiter weiß.

wie gesagt ich rede hier nicht von PS3.0, sondern von 2.0.

LovesuckZ
2004-06-18, 18:21:54
Original geschrieben von Quasar
[...] was meinst du, warum der F-Buffer nur unter OpenGL zugänglich war?

"waere".
Bis jetzt gibt es keine Beweise, dass es diesen F-Buffer wirklich gibt.

LovesuckZ
2004-06-18, 18:23:21
Original geschrieben von Gast
wie gesagt ich rede hier nicht von PS3.0, sondern von 2.0.

Was jetzt?
Unter SM2.0 koennen beide nur 32 Textur Anweisung und 64 mathematische Anweisung pro Shader "liefern", hier begrenzt das DX.
Unter OpenGL kann Nvidia deutlich mehr, ATi kommt über 15xx nicht hinaus.
Der PS2.0 Speed ist bei keinem zur Zeit besser.

Jesus
2004-06-18, 18:24:16
Original geschrieben von LovesuckZ
"waere".
Bis jetzt gibt es keine Beweise, dass es diesen F-Buffer wirklich gibt.

rofl oh mann.....

Quasar
2004-06-18, 18:25:05
Original geschrieben von Gast
www.guru3d.com

Shadermark 2.0 ( V 1e)
The XT simple is faster here and there compared to the 6800 Ultra. This is full pixel Shader 2.0 performance. NVIDIA in all honesty did an excellent job in boosting Shader model 2 performance, look and compare it towards the 5950 Ultra. The x800 Pro can't take the heat from the 6800 Ultra, but that's not really a fair statement as it's a cheaper product.

Kannst du mal die Werte hinschreiben? Irgendwie kann ich die Flash-Dinger von Guru nicht sehen, egal was ich einstelle....

Gast
2004-06-18, 18:26:32
da stehen keine exakten werte da, nur ein diagramm :)

Tjell
2004-06-18, 18:44:29
Original geschrieben von DrumDub
ich will ja auch ger nicht den nutzen der neuen features (insbeaonders sm 3.0) in frage stellen. es ging mir eigentlich nur darum, dass mir die aussage von tjell zu einseitig war. ;)

Einseitig? Eher nein.

Dafür stecke ich mir gerne das Schild "oberflächlich" an den Post. :)
Das habe ich aus gutem Grund gemacht, denn fängt man irgendwo an, auch in diesem Thread, die Implementierung von SM 3.0 durch nVidia in dem NV40 zu loben, erntet man sofort heftigsten Gegenwind aus dem Lager der Kanadier-Freunde. Das wollte ich vermeiden, aber wie die letzten Seiten zeigen, ist genau das trotzdem eingetreten.

Eigentlich sollten sich alle Bashing-Begeisterten in einen eigenen Thread trollen.

Ich für meinen Teil dürfte zwar mittlerweile als nVidia-Freund bekannt sein, dafür darf ich aber von mir behaupten niemals die hervorragende Leistung der Ati-Karten ernstgemeint schlechtgemacht zu haben. Was ich mal hier und da anbringe sind meine Späßchen und Sticheleien.

Nur artet das hier in dem Thread irgendwie aus. :ratlos:

Jesus
2004-06-18, 18:53:12
da muss ich dir zustimmen :)

naja ich finde natürlich ist SM3.0 was tolles, die Frage ist aber ob es ( jetzt ) ein Vorteil ist oder nicht.

Tjell
2004-06-18, 18:58:19
Original geschrieben von Jesus
da muss ich dir zustimmen :)

naja ich finde natürlich ist SM3.0 was tolles, die Frage ist aber ob es ( jetzt ) ein Vorteil ist oder nicht.

Die Frage ist interessant und wird auch beantwortet werden.

DX9.0c klopft an die Tür, nVidia bastelt eifrig an vernünftigen Treibern für ihre 6800er und z. B. Crytek stricken ihre Engine noch ein wenig um.

Ende Sommer sehen wir dann also 2 Dinge:
Die NV40-Karten weit verbreitet im Handel und ob SM 3.0 tatsächlich etwas bringt oder es doch jetzt nur ein Türöffner für spätere Software-Umsetzungen ist.

aths
2004-06-18, 19:08:17
Original geschrieben von Gast
soweit ich das gelesen habe sind beim R420 die Pixelshader jeweils 3 einheiten ( ALU, FPU und textures ) absolut Parallel ( im gegensatz zum 6800 wo sie voneineander abhängig sind ).(Klammern bitte nicht mit Leerzeichen absetzen.)

Die Units beim R420 sind nicht "absolut" unabhängig. Verglichen mit NV40 sind sie aber "unabhängiger". Beim NV40 blockiert eine Tex-Operation das MUL in Shader Unit 1. Der NV40 hat aber Extra-Units sowie höhere Flexibilität, um das mehr als auszugleichen, beispielsweise ein zweites MUL in Unit 2 :)

Original geschrieben von Gast
Dadurch kann er in einem Singlepass mehr befehle durchmachen wie der 6800 . ( steht u.a. auf Anandtech... )R420 kann pro Takt maximal 1 Tex + 2 math. NV40 kann pro Takt entweder 1 Tex + 3 Math, oder 4 Math.

R420 kann einen MAD-Befehl mit bis zu 3 Komponenten mit einem anderen MAD-Befehl oder einer SFU (special function) in einem Takt ausführen. (Wobei viele SFUs, wie z. B. SINCOS, mehrere Takte brauchen. SINCOS braucht 8 Takte, der NV40 schafft das in 2 bzw. 3 Takten.)

Beim NV40 ist das etwas komplizierter. Unit 1 kann entweder SFU + MUL3, oder SFU + Tex. Unit 2 kann MAD3 + MAD1. Oder MAD3 + SFU, wobei bestimmte SFUs nur von Unit 1, alle anderen nur von Unit 2 ausgeführt werden können.

Außerdem bietet die NV40-Pipe pro Takt noch ein NRM_PP "for free". (Ein NRM kostet auf R420 3 Takte, möglicherweise nur "2,5", habe da bei ATI mal angefragt.) Statt NRM_PP kann NV40 alternativ auch ein _PP Fog-Blending "kostenlos" ausführen. Die TMU hat eine Logik, um kostenlos Texturwerte um ganze Zweierpotenzen zu skalieren.

NV40 hat FP16-TMUs. Obwohl ein bilineares Sample hier 2 Takte braucht, ist das gegenüber FP-Texturfilterung im Pixelshader sehr viel schneller.

Original geschrieben von Gast
ausserdem bestätigen doch bisher alle Benchmarks genau das. ( wir reden hier von PS2.0 peformance , PS2.0b oder 3.0 benchmarks / spiele gibt es noch nicht ) Zum Glück werden Shader meist in HLSL geschrieben. Die lassen sich auch für 2_A oder 3_0 kompilieren, womit der NV40 automatisch weitere Vorteile hat, da diese Profile gegenüber 2_0 oder 2_B mächtigere Befehle bieten, und gewisse Limits nicht haben, die bei 2_B erfordern, dass man zusätzliche Befehle braucht.

aths
2004-06-18, 19:09:30
Original geschrieben von Gast
ATI`s PS performance ist höher.

der NV 40 kann 64k ( theoretisch ). Der NV40 kann theoretisch so viel, wie sein RAM reicht. An RAM kann der NV40 bis zu 2048 MB adressieren.

Original geschrieben von Gast
Ausserdem rede ich hier nicht von der Anzahl der Befehle sondern von der Ausführungsgeschwindigkeit. Hier ist der NV40 taktbereinigt dem R420 überlegen. (Man kann natürlich Spezialfälle konstruieren, wo R420 schneller ist.)

aths
2004-06-18, 19:10:48
Original geschrieben von Jesus
da muss ich dir zustimmen :)

naja ich finde natürlich ist SM3.0 was tolles, die Frage ist aber ob es ( jetzt ) ein Vorteil ist oder nicht. Komische Frage. Da SM 3.0 alle CineFX-Shaderfeatures beinhaltet (FP32, mehr Befehle, mehr Textur-Operationen, kein Dependent Read Limit, beliebiges Swizzling) ist SM 3.0 auf jeden Fall besser als 2.0.

Tjell
2004-06-18, 19:19:19
Danke, aths.

:kiss:

Vielleicht hören Kritiker bald endlich mal auf, von der SM 3.0-Achitektur des NV40 als Unsinn zum jetzigen Zeitpunkt zu sprechen.

Gast
2004-06-18, 19:21:17
also ihr glaubt quasi allem was Nvidia euch sagt, seit aber allem kritisch gegenüber was ATI an specs so von sich gibt, bzw. wisst alles besser ( auch als andere Reviewer seiten ).

Wieviel bekommt ihr da eigentlich von Nvidia ?

Gast
2004-06-18, 19:24:57
Original geschrieben von aths
Hier ist der NV40 taktbereinigt dem R420 überlegen. (Man kann natürlich Spezialfälle konstruieren, wo R420 schneller ist.)

was soll bitte dieses Statemate bringen, "taktbereinigt" wer ist schon so blöd und taktet eine x800xt oder so auf 6800 niveau herunter ?

der satz müsste heissen :

"hier ist der NV40 taktbedingt dem R420 unterlegen."

aths
2004-06-18, 19:27:53
Original geschrieben von Gast
also ihr glaubt quasi allem was Nvidia euch sagtNein. Dass CineFX wirklich so schnell ist, habe ich nachgeprüft.

Original geschrieben von Gast
seit aber allem kritisch gegenüber was ATI an specs so von sich gibtGenau wie bei Nvidia. Beispielsweise vermarktet NV natürlich SM 3.0. Sofern diese neuen Features eingesetzt werden, glänzt der NV40 aber nicht gerade. (Das ist architekturbedingt.)
Original geschrieben von Gast
, bzw. wisst alles besser ( auch als andere Reviewer seiten ).Ich für mein Teil weiß nicht alles besser. Einige Details schon.
Original geschrieben von Gast
Wieviel bekommt ihr da eigentlich von Nvidia ? 3DCenter (Leonidas) bekam zum Benchmarken ein 6800 U, und ich habe derzeit eine 6800 GT, um die NV40-Filterqualität "in echt" zu sehen. Die Karten sind natürlich nur leihweise für uns.

aths
2004-06-18, 19:29:16
Original geschrieben von Gast
was soll bitte dieses Statemate bringen, "taktbereinigt" wer ist schon so blöd und taktet eine x800xt oder so auf 6800 niveau herunter ?

der satz müsste heissen :

"hier ist der NV40 taktbedingt dem R420 unterlegen." Der Satz müsste heißen: "Im Moment, wo Nvidia im Gegensatz zu ATI noch keinen ausgereiften Shader-Recompiler hat, gelingt es dem R420 durch seinen höheren Takt manchmal, Pixelshader mit FP24 schneller zu berechnen als NV40 mit FP32."

Gast
2004-06-18, 19:33:32
Original geschrieben von aths
Der Satz müsste heißen: "Im Moment, wo Nvidia im Gegensatz zu ATI noch keinen ausgereiften Shader-Recompiler hat, gelingt es dem R420 durch seinen höheren Takt manchmal, Pixelshader mit FP24 schneller zu berechnen als NV40 mit FP32."

naja so viel ich weiss gibts bis jetzt noch keine HSLS shader benchmarks, also ist hier wieder paré.

Gast
2004-06-18, 19:34:38
HLSL :)

Gast
2004-06-18, 19:35:39
Original geschrieben von aths
Der Satz müsste heißen: "Im Moment, wo Nvidia im Gegensatz zu ATI noch keinen ausgereiften Shader-Recompiler hat, gelingt es dem R420 durch seinen höheren Takt manchmal, Pixelshader mit FP24 schneller zu berechnen als NV40 mit FP32."

und manchmal ( bis auf eine ausnahme ) durch immer ersetzen solange FP32 verwendet wird, bei FP16 siehts schon anders aus.

Gast
2004-06-18, 19:41:05
Original geschrieben von aths
Nein. Dass CineFX wirklich so schnell ist, habe ich nachgeprüft.

wie, wo sind die benchmarks ?

LovesuckZ
2004-06-18, 19:48:17
Original geschrieben von Gast
naja so viel ich weiss gibts bis jetzt noch keine HSLS shader benchmarks, also ist hier wieder paré.

Dann muesstest du dich erkundigen.

aths
2004-06-18, 19:56:16
Original geschrieben von Gast
naja so viel ich weiss gibts bis jetzt noch keine HSLS shader benchmarks, also ist hier wieder paré. Welche Spiele liefern nur ein 2_0-Shaderset mit? Mindestens 2_A dürfte noch beiliegen. NV40 kommt mit beidem zurecht, mit 2_A vermutlich etwas besser. Zudem 2_A-Shader den gleichen Effekt oft mit weniger Anweisungen erreichen können. Um den NV40 vernünftig auszunutzen, müsste schon für 3_0 neu kompiliert werden, und die NV40-Treiber brauchen wohl noch etwas Zeit.

Sofern NV40 für ein gegebenes Spiel nicht ohnehin schnell genug ist, und man mit einer Shader-Neucompilierung mehr Performance erreichen kann, erwart ich entsprechende Patches des Spieleentwicklers.

Original geschrieben von Gast
und manchmal ( bis auf eine ausnahme ) durch immer ersetzen solange FP32 verwendet wird, bei FP16 siehts schon anders aus. (Klammern bitte nicht mit Leerzeichen absetzen.)

Sinnigerweise sollte nur das mit FP16 gemacht werden, wofür FP16 ausreicht. Vergleiche, bei denen für einen der Chips alles in FP16 gemacht wird, hielte ich für nicht aussagekräftig. Wenn man davon ausgeht, dass FP24 für heutige Effekte genug ist, sind es FP32/FP16-Shader wohl auch.

Original geschrieben von Gast
wie, wo sind die benchmarks ? Vor Fragezeichen bitte kein Leerzeichen :)

Wozu Benchmarks? Auf der 6800 GT hier habe ich bislang nicht einen einzigen Benchmark gefahren. Die Karte nutze ich so, als wäre es meine normale VGA (was aber nicht der Fall ist, bald muss die FX 5900 XT wieder rein.) Die CineFX-Demos habe ich auf der 5900 XT und auf der 6800 GT gesehen. 5900: Sehr ruckelig. 6800: Sehr flüssig.

Demirug
2004-06-18, 20:01:47
Original geschrieben von Gast
und manchmal ( bis auf eine ausnahme ) durch immer ersetzen solange FP32 verwendet wird, bei FP16 siehts schon anders aus.

Auf welcher Grundlage erfolgt diese Aussage? Shadermark?

Und welche Karten vergleichen wir? 6800U oder 6800UE mit X800 XT oder X800 XT PE?

Mr. Lolman
2004-06-18, 20:27:15
Original geschrieben von aths
Der Satz müsste heißen: "Im Moment, wo Nvidia im Gegensatz zu ATI noch keinen ausgereiften Shader-Recompiler hat, gelingt es dem R420 durch seinen höheren Takt manchmal, Pixelshader mit FP24 schneller zu berechnen als NV40 mit FP32."

Hä, alle Shaderanwengungen bzw. Shaderlastigen Spiele laufen insgesamt* (noch?) auf 6800U z.T. deutlich langsamer als auf ner x800xt (mit Ausnahme von Spellforce vielleicht), oder bei schlechtere Qualität max. gleichschnell.




*bei einzelnen SM2.0 Shader sieht für NV besser aus.

Ist nur abzuwarten, was PS 3.0 im verhältnis zu 3dc an zusätzlicher Performance bringen.







Aber wurde das nicht ohnehin schon alles ausdiskutiert? Warum schon wieder? Naja, @all nochmal zum mitschreiben:


Ingesamt hat ATi (momentan?) die Performancekrone, was aber fast ausschliesslich dem höherem Takt zuzuschreiben ist.

LovesuckZ
2004-06-18, 20:31:28
Original geschrieben von Mr. Lolman
Ist nur abzuwarten, was PS 3.0 im verhältnis zu 3dc an zusätzlicher Performance bringen.


Was bringt den 3Dc an "zusätzlicher Performance"?

reunion
2004-06-18, 20:32:20
Original geschrieben von Mr. Lolman

was aber fast ausschliesslich dem höherem Takt zuzuschreiben ist.

Was allerdings total irrelevant ist, denn es zählt das was am Ende rauskommt und nicht wie man es erreicht.

tombman
2004-06-18, 20:34:02
Original geschrieben von reunion
Was allerdings total irrelevant ist, denn es zählt das was am Ende rauskommt und nicht wie man es erreicht.

der Satz könnte von mir sein ;)

reunion
2004-06-18, 20:38:35
Original geschrieben von LovesuckZ
Was bringt den 3Dc an "zusätzlicher Performance"?

3dc spart 50% Speicherbandbreite und Speicherplatz bei Normalmaps was das an Mehrleistung bringt hängt logischerweise von vielen Faktoren ab.

Demirug
2004-06-18, 21:04:13
Original geschrieben von Mr. Lolman
Hä, alle Shaderanwengungen bzw. Shaderlastigen Spiele laufen insgesamt* (noch?) auf 6800U z.T. deutlich langsamer als auf ner x800xt (mit Ausnahme von Spellforce vielleicht), oder bei schlechtere Qualität max. gleichschnell.




*bei einzelnen SM2.0 Shader sieht für NV besser aus.

Wobei es bei Spellforce nicht an den Shadern liegt. Zudem gibt es bisher AFAIK noch keine echte shaderlastigen Spielen. Es bricht nämlich noch alles ein wenn man das AF hochdreht.

Ist nur abzuwarten, was PS 3.0 im verhältnis zu 3dc an zusätzlicher Performance bringen.

Ich würde mein Geld was Leistungssteigerungen durch SM3 angeht im Moment eher auf den VS setzten.

Hakkerstiwwel
2004-06-18, 21:09:39
Original geschrieben von aths
Komische Frage. Da SM 3.0 alle CineFX-Shaderfeatures beinhaltet (FP32, mehr Befehle, mehr Textur-Operationen, kein Dependent Read Limit, beliebiges Swizzling) ist SM 3.0 auf jeden Fall besser als 2.0.

ohne Zweifel ist das Ganze auf dem Papier ein grosser Vorteil. Dein Optimismus daß PS3 in der Realität frühzeitig eingesetzt wird in allen Ehren, allein mir fehlt der Glauben. Hat doch die Vergangenheit bewiesen daß spätere Extensions einer Dx Generation (bsp PS1.4.) erst mit der nächsten Dx Generation flächendeckend appliziert werden. Auf dem Papier waren die R100/200 den entsprechenden nV1x/2x featuremässig auch überlegen, aber wen kümmerte es? :kratz2: :kratz2:

deekey777
2004-06-18, 21:12:11
Original geschrieben von LovesuckZ
Was bringt den 3Dc an "zusätzlicher Performance"?

Hoffentlich nichts - mir wären höher aufgelöste "Maps" lieber.

PS: Wer hat wieder diesen Krieg SM3 <-> 3Dc ins Gespräch gebracht?

Tesseract
2004-06-18, 21:12:37
Original geschrieben von reunion
Was allerdings total irrelevant ist, denn es zählt das was am Ende rauskommt und nicht wie man es erreicht.

ganz irrelevant ist es deswegen nicht weil ati deshalb so hoch takten kann, weil auch der chip entsprechend schlanker ist als der von nvidia was leider in den meisten fällen auf die die bildquallität geht

insofern ist der teufelskreis wieder geschlossen

einerseits ist ati etwas schneller dran, andererseits hat nvidia vorteile in der bildquallität

und welche die wirklich bessere lösung ist muss sowieso noch die zeit zeigen

Demirug
2004-06-18, 21:28:00
Original geschrieben von Hakkerstiwwel
ohne Zweifel ist das Ganze auf dem Papier ein grosser Vorteil. Dein Optimismus daß PS3 in der Realität frühzeitig eingesetzt wird in allen Ehren, allein mir fehlt der Glauben. Hat doch die Vergangenheit bewiesen daß spätere Extensions einer Dx Generation (bsp PS1.4.) erst mit der nächsten Dx Generation flächendeckend appliziert werden. Auf dem Papier waren die R100/200 den entsprechenden nV1x/2x featuremässig auch überlegen, aber wen kümmerte es? :kratz2: :kratz2:

Kurze Antwort: Die Situation damals war eine andere als die jetzige. Die Kosten/Nutzen Relation wäre damals einfach nicht aufgegangen.

aths
2004-06-18, 21:45:46
Original geschrieben von Mr. Lolman
Hä, alle Shaderanwengungen bzw. Shaderlastigen Spiele laufen insgesamt* (noch?) auf 6800U z.T. deutlich langsamer als auf ner x800xt (mit Ausnahme von Spellforce vielleicht), oder bei schlechtere Qualität max. gleichschnell.Wie wurde getestet? Mit AA und AF?
Original geschrieben von Mr. Lolman
Ist nur abzuwarten, was PS 3.0 im verhältnis zu 3dc an zusätzlicher Performance bringen. Hm? Du vergleichst ein Feature, was in der HW bedeutet, die DXT5-Alpha-Dekomprimierung doppelt auszulegen, mit einer HW die SM 3.0 beherrscht??

Die zusätzliche Performance bei 3.0 kommt weniger durch 3.0. Eher durch CineFX vs. 2.0.

Original geschrieben von Mr. Lolman

Ingesamt hat ATi (momentan?) die Performancekrone, was aber fast ausschliesslich dem höherem Takt zuzuschreiben ist. Wie wurde das getestet? Mit AA/AF? Wie viel Performancesteigerung durch neue Treiber ist beim R420, wie viel beim NV40?

aths
2004-06-18, 21:51:07
Original geschrieben von Hakkerstiwwel
ohne Zweifel ist das Ganze auf dem Papier ein grosser Vorteil. Dein Optimismus daß PS3 in der Realität frühzeitig eingesetzt wird in allen Ehren, allein mir fehlt der Glauben.Ich denke schon, dass es eingesetzt wird. Viel an Performance wird 3.0 im Vergleich zum CineFX-Pfad auf der gleichen HW (dem NV40) aber nicht bringen.

TNT bot 32-Bit-Rendering, obwohl die Speicherbandbreite hinten und vorne nicht reichte. GF bot T&L, obwohl die Pixeleinheit mit sehr vielen (und kleinen) Dreiecken nicht sonderlich gut zurecht kam. GF3 hatte Pixelshader, aber die sind nicht gerade flexibel. FX 5800 hat CineFX, das ist aber arschlahm. 6800 hat SM 3.0, aber die Architektur ist damit eigentlich überfordert.

GF war für 32-Bit-Rendering viel besser. GF3 konnte aus T&L schon richtig Nutzen ziehen. Die 5800 ist für DirectX8 eine fast perfekte Karte. Die 6800 macht CineFX so richtig schnell. Spekulation: NV50 wird viel effizienter im Pixelshader branchen können als NV40, und die TMUs im VS werden beim NV50 auch filtern können.

Der NV50, der gegenüber dem CineFX-Pfad durch das 3_0-Profil richtig Performance gewinnen kann, trifft dann auf eine Situation in der es bereits 3.0-Erfahrung bei den Entwicklern, sowie 3.0 nutzende Spiele gibt.

Shodan Veritas
2004-06-18, 22:10:53
Original geschrieben von aths
... Spekulation: NV50 wird viel effizienter im Pixelshader branchen können als NV40, und die TMUs im VS werden beim NV50 auch filtern können. ...

Das wäre die optimistische Variante. Die realistische liegt näher an der pessimistischen:
Branching klappt zwar schneller, Texturfilterung in den VS ist aber gar nicht gewünscht. Ein VS mit TMU ließe sich doch schließlich auch zeitweise zur Point-Sampling-Pixelpipeline verwursteln, die nächste Runde im Otimierungswettstreit könnte durchaus mit solchen Tiefschlägen aufwarten. Wäre die hier angedachte "Optimierung" auf NV40-HW möglich oder braucht es dafür neben TMUs im VS noch andere HW-Voraussetzungen?

Aquaschaf
2004-06-18, 22:20:53
Point-Sampling? Das glaubst du doch nicht wirklich, dass das in Optimierungen verwendet wird.

Shodan Veritas
2004-06-18, 22:45:59
Original geschrieben von Aquaschaf
Point-Sampling? Das glaubst du doch nicht wirklich, dass das in Optimierungen verwendet wird.

Trilinear nur auf einer Texture-Stage und Bilinear als Maximum für den Rest sollte eigentlich auch jeden vom Kauf abhalten, trotzdem werden einem Radeons nicht wie sauer Bier angeboten. Die Dinger gehen im Handel eigentlich recht gut...
Wie wäre es z.B. mit Pointsampling bei Einsatz von Hybrid-AA-Modi (8xs/16xs)? Die könnte man damit gewaltig beschleunigen, die in ein Pixel einfließende Texelzahl würde sich gegenüber reinem MSAA nicht ändern, während der grundlegende SSAA-Vorteil, Alpha-Tests zu entfransen, nach wie vor erhalten bleibt.
Und in Punkto "Optimierung" traue ich den Marktführern alles inklusive MipMap-Dithering statt Trilinearität und Point Sampling zu. Denn die Balken können doch nie lang genug sein, insbesondere, wenn die Überschrift über den Balken exzellente Bildqualität verspricht...

Hakkerstiwwel
2004-06-18, 23:31:43
Original geschrieben von aths
Ich denke schon, dass es eingesetzt wird. Viel an Performance wird 3.0 im Vergleich zum CineFX-Pfad auf der gleichen HW (dem NV40) aber nicht bringen.

Die 6800 macht CineFX so richtig schnell. Spekulation: NV50 wird viel effizienter im Pixelshader branchen können als NV40, und die TMUs im VS werden beim NV50 auch filtern können.

Der NV50, der gegenüber dem CineFX-Pfad durch das 3_0-Profil richtig Performance gewinnen kann, trifft dann auf eine Situation in der es bereits 3.0-Erfahrung bei den Entwicklern, sowie 3.0 nutzende Spiele gibt.

Also eher Papiertiger als realer Kaufgrund? Eher für die Entwickler relevant?
ps die GF1 war für 32Bit genauso ungeeignet (ausser evtl die DDR Version), vernünftig wurde es erst mit der GTS

Aquaschaf
2004-06-19, 00:15:40
Original geschrieben von Shodan Veritas
Trilinear nur auf einer Texture-Stage und Bilinear als Maximum für den Rest sollte eigentlich auch jeden vom Kauf abhalten, trotzdem werden einem Radeons nicht wie sauer Bier angeboten. Die Dinger gehen im Handel eigentlich recht gut...
Wie wäre es z.B. mit Pointsampling bei Einsatz von Hybrid-AA-Modi (8xs/16xs)? Die könnte man damit gewaltig beschleunigen, die in ein Pixel einfließende Texelzahl würde sich gegenüber reinem MSAA nicht ändern, während der grundlegende SSAA-Vorteil, Alpha-Tests zu entfransen, nach wie vor erhalten bleibt.
Und in Punkto "Optimierung" traue ich den Marktführern alles inklusive MipMap-Dithering statt Trilinearität und Point Sampling zu. Denn die Balken können doch nie lang genug sein, insbesondere, wenn die Überschrift über den Balken exzellente Bildqualität verspricht...

Der Unterschied zwischen Point-Sampling und bilinear/brilinear/trilinear ist aber "etwas" besser sichtbar als der zwischen brilinear und trilinear.
Abgesehen davon... why the hell sollte man das mit bilinearen TMUs machen?

Shodan Veritas
2004-06-19, 00:32:19
Original geschrieben von Aquaschaf
Der Unterschied zwischen Point-Sampling und bilinear/brilinear/trilinear ist aber "etwas" besser sichtbar als der zwischen brilinear und trilinear.
Abgesehen davon... why the hell sollte man das mit bilinearen TMUs machen?

Wie schon gesagt, im Spezialfall, daß SSAA mit aktiv ist, läßt sich quasi-bilineare IQ mit Point Sampling erreichen. Für bilineare TMUs spart man damit natürlich nur an der Bandbreite und es ist eigentlich sinnbefreit. Die TMUs der VS hingegen können nur Point Sampling, weil das weniger Transistoren frißt. Will man diese bei verhältnismäßig geringer Geometrielast und gleichzeitig hoher Belastung der Pixelpipelines (wie eben in superhohen Auflösungen mit HybridFSAA) mitnutzen (damit der gottverdammte Balken ein wenig länger ist als bei der Konkurrenz), könnte man versuchen, Spezialfälle zu finden wo dies nicht wirklich sofort auffällt bzw. beim Einsatz von Testprogrammen oder der Screenshot-Funktion einfach "unoptimiert" arbeiten (siehe Volari (nein, nicht Point Sampling!)).
Hätte denn irgendwer gedacht, daß modernen Grakas der Trilineare Filter gestrichen wird bzw. nur mit Tuningprogrammen verfügbar ist? Wer denkt denn im Moment wirklich, daß mit der "Optimiererei" bald Schluß ist? Der Spaß geht wohl noch eine Weile weiter...

SKYNET
2004-06-19, 02:09:34
Original geschrieben von Quasar
Der Vergleich "XT PE" vs. "Ultra" hinkt - wie Mr.Lolman richtig sagte. Die Pipeline mag "toller" sein, was hintenrauskommt, ist dank zu niedrigen Taktes meist trotzdem langsamer.

Treffender wäre der Vergleich Pro und GT.
Hier sind zwar die Taktraten auch unterschiedlich, aber dafür eben auch die Pipe-Anzahl. Dadurch gleich sich einiges soweit aus, das man von der Rohleistung her fast von Gleichstand sprechen kann - höherer Takt und weniger Pipes egalisieren sich beinahe.
Entsprechend sieht's dann auch mit der Leistung aus...

350 * 16 = 5600 fillrate
475 * 12 = 5700 fillrate

also leichter vorteil für die x800pro(und dennoch ist sie langsamer)

r@h
2004-06-19, 05:08:47
Original geschrieben von MadManniMan
Holzbockbeutel hat einen 19"er :o'Holzbockbeutel' war DIE Ausnahme (wie ich auch schrieb)...
Die anderen beiden hatten 'nen 22"-Moni.
:D
Original geschrieben von MadManniMan
Du hast eindeutig nie MMORPGs gespielt :stolz: Oh doch !
Und wie... ;)

Aber wir sollten das Thema ruhen lassen, gell ?

Razor

r@h
2004-06-19, 05:22:13
Original geschrieben von MarcWessels
40% ist der Unterschied. OHNE AA/AF!

EDIT:Weil die Texturen einfach zu groß sind, um in 128MB hineinzupassen... Bitte mal einen Link zu dieser - mir 'etwas' unsinnig erscheinenden - Behauptung Deinerseits bitte.

Razor

P.S.: Und bitte nicht einen, der auf die unter FC völlig sinnbefreite Auflösung von 1600x1200 verweist. Oder aber auf einen, der FC mit 4xAA und max AF unter 1280 (oder Schlimmeren ;-) bencht...

r@h
2004-06-19, 05:24:03
Original geschrieben von MarcWessels
...und Echtzeitstrategiespiele. Vor Far cry gab es schon 12 bekannte Titel, die mit 512MB stockten. na, auf die Liste bin ich aber gespannt !
*daspopkornherausgeholt-undgleichwiederweggesteckt-dazufrüh*
:D

Razor

r@h
2004-06-19, 05:39:58
Original geschrieben von Mr. Lolman
Naja ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1540462#post1540462), ein kleines bisschen halt ;)Und rechtmäßig auch (wenn ich auch das mit dem LOD durcheinander gebracht habe ;-). Oder warum hast Du die "e_shadow_maps" auf 0 gesetzt ?

Ich erinnere mich noch gut an Deine UT-'Tweaks'...
:D
Original geschrieben von Mr. Lolman
Habs noch nicht durchgespielt. *schäm* Aber ja, vielleicht ist man als ATi User hinsichtlich des AF wirklich weniger anspruchsvoll. Ich könnte mir vorstellen, dass, von einer GF4 auf eine R3x0 gewechselt, mir bi-AF ein Grauen sein könnte. Und das ist ja noch umso verwunderlicher...
Wenn Du wenigstens ATI-'Scheuklappen' tragen würdest ?
;D

Aber mal im ernst: Auch auf den FX'en siehts 'bil' ebenfalls einfach scheußlich aus. Bei ATI im übrigen völlig unabhängig davon, ob man nun 16°AF (*graus* ;-) full-bi oder eben die Stage-Opt-Variante benutzt.
Original geschrieben von Mr. Lolman
Aber so find' ichs halt in grösstenteils vollkommen in Ordnung. Überhaupt in den performancezehrenden Aussenlevel. Warum gehst Du hier nicht einfach mit dem AF-Level herunter ?
Schont die performance uns sieht auch sehr viel besser aus !
Original geschrieben von Mr. Lolman
(ein fps abhängiges dynamisches tri-Band wär manchmal schon einewünschenswerte Option) 'Option' ist hier allerdings DAS Zauberwort, gell ?
;-)

Razor

r@h
2004-06-19, 05:54:19
Original geschrieben von Quasar
http://nemesis.rushers.net/fc.avi

Vor lauter Kompressionsartefakten (oder Fehlerhaften Codecs meinerseits) kann ich da leider wirklich kein Mip-Banding erkennen - ich bin froh, zumindest bestätigen zu können, daß es sich wohl um Far Cry handelt.

Kann jemand das Video "ordentlich" sehen und mir einen Hinweis auf den benötigten Codec geben? Habe mir das mal mit GSpot angeschaut... und siehe da, ein XVid mit OpenDML-Stream unter VitualDub (18160) konvertiert...

- 512x384 Pixel
- 7,8MB/s bei 30fps :freak:

Kein wunder, dass man auf dem Vid aber auch rein gar nichts (mehr) erkennt...
(war ja ursprünglich mal die unkomprimierte, 4-fache Auflösung ;-)

Wie dem auch sei, da bei mir alle anderen Video-Player abgeschmiert sind, hab' ichs mir dann mit VirtualDub angeschaut... und DAS hat dann gefunzt.

Razor

r@h
2004-06-19, 06:04:01
Original geschrieben von deekey777
PS: Wer hat wieder diesen Krieg SM3 <-> 3Dc ins Gespräch gebracht? Lolmann... wer sonst ?
:D

Razor

r@h
2004-06-19, 06:08:56
Original geschrieben von Hakkerstiwwel
ps die GF1 war für 32Bit genauso ungeeignet (ausser evtl die DDR Version), vernünftig wurde es erst mit der GTS Blödsinn.
Und wer die nonDDR-Version gekauft hat (so wie heute 'ne 9800 oder 'nen FX5900 mit 128Bit-Interface), der ist selber schuld.

Razor

Quasar
2004-06-19, 09:39:49
Original geschrieben von r@h
Wie dem auch sei, da bei mir alle anderen Video-Player abgeschmiert sind, hab' ichs mir dann mit VirtualDub angeschaut... und DAS hat dann gefunzt.

Danke für den Hinweis, aber nichtmal das half bei mir. Ich muss wohl mal meine Codecs neu installieren...

Original geschrieben von r@h
Blödsinn.
Und wer die nonDDR-Version gekauft hat (so wie heute [...] 'nen FX5900 mit 128Bit-Interface), der ist selber schuld.

EY!
:freak:

r@h
2004-06-19, 11:01:46
Original geschrieben von Quasar
EY!
:freak: Wie 'EY' ?
:???:

Razor

Quasar
2004-06-19, 11:02:45
EY im Sinne von "EY...was heißt hier "selber schuld"?" ;)

r@h
2004-06-19, 11:08:42
Original geschrieben von Quasar
EY im Sinne von "EY...was heißt hier "selber schuld"?" ;) Ah ja...
Aber irgendwer hat doch wohl ins Regal gegriffen, oder ?
:D

Und das zudem noch etwas übereilt (NV10), bzw. ohne auf die Packung zu schaun' (R3x0-128)...

Razor

P.S.: Manchmal ist es eben sinnvoller zu warten... oder eben ein bissel mehr auszugeben und sich vor allem vorher besser zu informieren, gell ?
(war jetzt nicht an Dich gerichtet ;-)

Mr. Lolman
2004-06-19, 12:01:13
Original geschrieben von r@h
Und rechtmäßig auch (wenn ich auch das mit dem LOD durcheinander gebracht habe ;-). Oder warum hast Du die "e_shadow_maps" auf 0 gesetzt ?


Weil die Demo in der Hinsicht noch ein bisschen langsamer war...


Ich erinnere mich noch gut an Deine UT-'Tweaks'...


Gut so, denn die waren ja in der Tat nicht mal so schlecht ;)


:D
Und das ist ja noch umso verwunderlicher...

Wenn Du wenigstens ATI-'Scheuklappen' tragen würdest ?
;D

Aber mal im ernst: Auch auf den FX'en siehts 'bil' ebenfalls einfach scheußlich aus. Bei ATI im übrigen völlig unabhängig davon, ob man nun 16°AF (*graus* ;-) full-bi oder eben die Stage-Opt-Variante benutzt.
Warum gehst Du hier nicht einfach mit dem AF-Level herunter ?
Schont die performance uns sieht auch sehr viel besser aus !


Alles eine SAche der Konditionierung. OK, der Wechsel von einer V5 auf eine 8500 war BQ mässig gesehen ein Dilemma, doch hatte ich mit der Karte genug Zeit, mich mit dem pfeischnellen bi-AF anzufreunden. (Keine Angst, bei Q3a und Serious Sam hets eh nicht funktioniert)

Sogesehen, war dann das R300 AF eine deutliche Verbesserung. Auch bilinear.

Den AF Level hab ich bei Farcry auf 4x. Das ist deutlich schneller als 2xtri, und wie gesagt, zumindest bei Aussenlevel ist mir noch nie ein Banding aufgefallen.

So gesehen hab ich halt lieber gamedetailerhöhende Tweaks aktiv, und spar' dafür mit dem AF - ganz im GGs dazu, wie es aths z.B. machen würde ;)



'Option' ist hier allerdings DAS Zauberwort, gell ?
;-)

Razor

Stimmt. Aufgezwungen will ich so eine Optimierung auch nicht bekommen. Für stabilere fps wärs allerdigs wirklich eine shcöne Wahl...

Mr. Lolman
2004-06-19, 12:02:23
Original geschrieben von r@h
Lolmann... wer sonst ?
:D

Razor

Jesus hat mich angestachelt :devil:

Jesus
2004-06-19, 12:09:17
also ich finde manche hier sind schon teilweise paranoid was bi-Tri AF angeht. Ich persönlich sehe absolut keinen Unterschied zwischen bi und tri AF ( solange man nicht die auflösung künstlich runterdreht und gamma hoch und im schnecken tempo irgendwo an einer ganz bestimmten stelle danach sucht ).

Im realen Betrieb in hohen auflösungen ( so wie bei mir FC mit 8xAF (bi) fällt da absolut nichts mehr ins auge was irgendwie nach banding aussieht. ( und nein ich habe keine schlechten augen, plus 17" tft... ).

verzichtet man dagegen auf AF sieht das ganze schon wieder anders aus, aber im ernst wer spielt heutzutage noch ohne AF sondern mit bilineare filterung ?

Jesus
2004-06-19, 12:09:59
Original geschrieben von Mr. Lolman
Jesus hat mich angestachelt :devil:

:kratz2:

Mr. Lolman
2004-06-19, 12:25:52
Original geschrieben von Jesus
:kratz2:

Du hasts vor 5 Seitsn irgendwann ins Spiel gebracht, und aths hat die Diskussion ob der noch schlummernden Leistung bei GF6800 in Rollen gebracht. Ich hab doch nur die beiden Aspekte...


...naja, egal jetzt :ups:

Jesus
2004-06-19, 12:46:34
aso naja :)

hab nochmal ein Video gemacht das meine Theorie voll und ganz bestätigt ( hoffentlich :) )

diesmal WMV 2 Codec , mit besserer Qualität :)

ich starte mit 1xAF und bilinearem Filter und schalte dann um auf 2xAF mit bilinearem Filter. das banding verschwindet.

( im CP ist auf application default eingestellt )

http://nemesis.rushers.net/fc2.avi

Mr. Lolman
2004-06-19, 13:01:57
Original geschrieben von Jesus
aso naja :)

hab nochmal ein Video gemacht das meine Theorie voll und ganz bestätigt ( hoffentlich :) )

diesmal WMV 2 Codec , mit besserer Qualität :)

ich starte mit 1xAF und bilinearem Filter und schalte dann um auf 2xAF mit bilinearem Filter. das banding verschwindet.

( im CP ist auf application default eingestellt )

http://nemesis.rushers.net/fc2.avi


Ich schaus mit gleich an. Aber wenn du die Videos mit fraps machst, warum lässt du nicht den original Codec, und komprimierst sie einfach mit 7zip? Nach dem Entpacken hat man wieder wunderbare Qualität und schön klein wird das Ganze auch....

/edit:Habs grad gesehen. Und im Prinzip hast du ja auch fast* recht. Aber bei der Videoqualität kann mans immernoch auf die Kompressionsartefakte schieben. Machs doch mit der beschriebener Methode.


*"fast" deswegen, weils nicht mehr störend ist, aber immernoch vorhanden. Und da der Grad der Störung ein höchst subjektiv zu beurteilender ist, kann man das nicht einfach so pauschalisieren. (Dementsprechend ists gut dass du das mit Videos untermauerst, aber solang man sich and den Kompressionsartefakten aufhängen kann...

Jesus
2004-06-19, 13:03:45
hab ich gemacht aber dann isses 160 mb gross :)

Jesus
2004-06-19, 13:09:10
mist ist wohl was kaputtgegangen beim upload :(

muss nochmal hochladen sorry

Mr. Lolman
2004-06-19, 13:09:35
Original geschrieben von Jesus
hab ich gemacht aber dann isses 160 mb gross :)

:kratz2:, wie hat das Quasar damals fertiggebracht?

*anderenPCanwerfundselbstprobier*

Quasar
2004-06-19, 13:57:35
Ich hab nur eine kurze Sequenz ohne Audio genommen und ich habe nur die Fraps-Demo, die kein Full-Res Video erlaubt.

Das Ergaybnis war dann recht knackig klein, wie man auch an meinen 180k-Video von der letzten Seite sehen kann.


Jesus:
Wieso bilineare Grundfilterung und wieso Taschenlampe an beim zweiten Durchlauf? Ach ja, und wieso "kriechen"?

Taschenlampe verschleiert den Effekt in diesem Falle schön und "kriechen" schiebt die Mips weiter nach hinten... :|

Jesus
2004-06-19, 14:10:16
Original geschrieben von Quasar
Jesus:
Wieso bilineare Grundfilterung und wieso Taschenlampe an beim zweiten Durchlauf? Ach ja, und wieso "kriechen"?

Taschenlampe verschleiert den Effekt in diesem Falle schön und "kriechen" schiebt die Mips weiter nach hinten... :|

also die taschenlampe ist beim ersten durchgang auch an, ich schalte sie beim zweiten nur extra an weil sie automatisch ausgeht wenn man ins menu wechselt.

kriechen mach ich weil man langsamer ist :) aber man sieht wirklich absolut kein banding mehr sobald AF > 2x. egal ob bi oder tri filterung. das wollte ich damit zeigen.

Mr. Lolman
2004-06-19, 14:30:37
Wenn mir jemand 7MB Webspace zur Verfügung stellt, kann ich zeigen, dass selbst mit 4xbi-AF teils noch sehr deutliches Banding zu sehen ist. (ok, ich hab mir auch wirklich eine böse Stelle ausgesucht)

@Quasar: bilineare Grundfilterung deswegen, weil man sonst keine Möglichkeit hat noAF, bi zu zeigen, egal was im CP eingestellt ist...


Mit 7zip hat das komprimieren nicht so gut hingehauen. Die 122MB Datei war nachher immernoch 46MB gross, aber mit 3ivX 2pass @ maxilmaler Qualität, shcauts auch ganz brauchbar aus.

BTW: Mit Fraps 1.9D kann man noch 640x480 Fullres capturen. Die Auflösung muss man bei Farcry halt in der system.cfg selbst eintragen...


/edit: Zur Ehrenrettung sei gesagt, dass das bei 1024x768 weitaus weniger schlimm ist, auch wenn man an dieser Stelle ,zumindest zur 1. Mip, noch deutlich den Übergang erkennen kann

Jesus
2004-06-19, 14:47:09
eben und da ich eigentlich jedes spiel auf 1280x1024 spiele ( wegen tft auflösung ) bleibt davon absolut nichts mehr übrig.

Deshalb denke ich auch dass man von diesen ganzen Brilinearen "optimierungen" in der Praxis überhaupt nichts sieht ( deswegen ist es ja auch niemandem aufgefallen, bis man danach gesucht hat )

Aquaschaf
2004-06-19, 14:56:43
Überhaupt nicht stimmt nicht, auf einem Rechner mit einer 9600 ist mir z.B. bei Battlefield 1942 schon etwas aufgefallen.

Mr. Lolman
2004-06-19, 15:34:31
Original geschrieben von Jesus
eben und da ich eigentlich jedes spiel auf 1280x1024 spiele ( wegen tft auflösung ) bleibt davon absolut nichts mehr übrig.

Deshalb denke ich auch dass man von diesen ganzen Brilinearen "optimierungen" in der Praxis überhaupt nichts sieht ( deswegen ist es ja auch niemandem aufgefallen, bis man danach gesucht hat )

Hab nocht 2 weitere Videos. Ein 3.5 MB grosses wo ein 640x480 grosser Auschnitt von der gleichen Szene in 1024x768 genommen wurde, und ein 2. (auch ~3.5MB) ebenfalls an einer üblen Stelle unter Freiem Himmel (Trainingslevel), wo man schon in nativer 640x480 Auflösung schon merkt, dass zumindest in Aussenlevels das Mipmapbanding grösstenteils wirklich überhaupt nicht sichtbar ist, sofern man FC in eine halbwegs vernünftiges Auflösung spielt...

aths
2004-06-19, 15:39:12
Original geschrieben von Jesus
also ich finde manche hier sind schon teilweise paranoid was bi-Tri AF angeht. Ich persönlich sehe absolut keinen Unterschied zwischen bi und tri AF ( solange man nicht die auflösung künstlich runterdreht und gamma hoch und im schnecken tempo irgendwo an einer ganz bestimmten stelle danach sucht ).

Im realen Betrieb in hohen auflösungen ( so wie bei mir FC mit 8xAF (bi) fällt da absolut nichts mehr ins auge was irgendwie nach banding aussieht. ( und nein ich habe keine schlechten augen, plus 17" tft... ).

verzichtet man dagegen auf AF sieht das ganze schon wieder anders aus, aber im ernst wer spielt heutzutage noch ohne AF sondern mit bilineare filterung ? Wenn auch nicht ständig MIP-Banding zu sehen ist, die Gefahr besteht. Ich für mein Teil akzeptiere das nicht und wähle trilineares AF :) Lieber ein paar fps opfern als plötzlich von einem MIP-Band genervt zu werden. Zum Glück ist die 5900 XT schnell genug.

(Die bi-AF-Banding-Tests führte ich natürlich auch auf der Radeon 9600 durch. Auch dort wählte ich dann in der Regel lieber tri-, äh, try-lineares AF :) Nun ist die Leistung der 9600 nicht sooo überragend, dass ich bei einigen Spielen durchaus mit bi-AF leben kann.)

aths
2004-06-19, 15:42:51
Original geschrieben von Hakkerstiwwel
Also eher Papiertiger als realer Kaufgrund? Eher für die Entwickler relevant?
ps die GF1 war für 32Bit genauso ungeeignet (ausser evtl die DDR Version), vernünftig wurde es erst mit der GTS Hrnja ich meinte natürlich die DDR-Version der GF256.

Was den "Papiertiger" angeht: Im Vergleich zum NV40 ist die R300 (und damit auch R420-) Pipe "robuster". Der NV40 kann pro Takt nur relativ wenig temporäre Register bzw. interpolierte Werte einlesen.

Ansonsten, natürlich wird NV50 schneller sein. R500 auch. Verglichen mit dem R420 ist der NV40 aber sehr viel besser für zukünftige Spiele geeignet.

aths
2004-06-19, 15:44:23
Original geschrieben von Shodan Veritas
Das wäre die optimistische Variante. Die realistische liegt näher an der pessimistischen:
Branching klappt zwar schneller, Texturfilterung in den VS ist aber gar nicht gewünscht. Ein VS mit TMU ließe sich doch schließlich auch zeitweise zur Point-Sampling-Pixelpipeline verwursteln, die nächste Runde im Otimierungswettstreit könnte durchaus mit solchen Tiefschlägen aufwarten. Wäre die hier angedachte "Optimierung" auf NV40-HW möglich oder braucht es dafür neben TMUs im VS noch andere HW-Voraussetzungen? Bitte diesen Quatsch vergessen. Im NV40 sind PS und VS-Units separat gebaut. Außerdem ist Texturzugriff im NV40-VS viel zu langsam als das lohnen würde.

Mr. Lolman
2004-06-19, 15:51:35
Original geschrieben von aths
Wenn auch nicht ständig MIP-Banding zu sehen ist, die Gefahr besteht. Ich für mein Teil akzeptiere das nicht und wähle trilineares AF :) Lieber ein paar fps opfern als plötzlich von einem MIP-Band genervt zu werden. Zum Glück ist die 5900 XT schnell genug.

(Die bi-AF-Banding-Tests führte ich natürlich auch auf der Radeon 9600 durch. Auch dort wählte ich dann in der Regel lieber tri-, äh, try-lineares AF :) Nun ist die Leistung der 9600 nicht sooo überragend, dass man bei einigen Spielen durchaus mit bi-AF leben kann.)


AHA, WUSST' ICHS DOCH!!!! :chainsaw: ;)


...und wenn man das Ganze von Max Payne auf Farcry ummünzt (oder meinetwegen auch LockOn mit max .Detail) merkt man, dass dort NV3x und R3x0 doch schön langsam die Puste ausgehen. Bevor ich auf 800x600 runterschalte, oder auf AA verzichte, leb ich halt lieber mit der Gefahr plötzlich von einem MIP-Band genervt zu werden. Ist imo immernoch besser als von zu grossen Pixelblöcken genervt zu werden, oder sich einen Stress mit kontinuierlich wandernden Pixeltreppen zu machen.

Auch das Wegschalten von Spieledetails sollte eher erst die entgültige Lösung darstellen...


BTW: Wieviel (subjektiv) schneller ist denn deine 9600 mit bi-AF im Vergleich zu deiner alten Ti4600 , ohne AF?

aths
2004-06-19, 16:00:01
Original geschrieben von Mr. Lolman
Auch das Wegschalten von Spieledetails sollte eher erst die entgültige Lösung darstellen...Nö. Ich schalte eher Ingame-Details runter, als auf feine Kantenglättung und tolle Texturen zu verzichten :naughty: Vor allem opfere ich aber gerne Spiel-Details, um die CPU zu entlasten.

Original geschrieben von Mr. Lolman
BTW: Wieviel (subjektiv) schneller ist denn deine 9600 mit bi-AF im Vergleich zu deiner alten Ti4600 , ohne AF? Weiß ich nicht. Ich meine, die Ti 4600 wird ohne AF deutlich schneller sein, als die 9600 ohne AF, erst recht als die 9600 mit AF.

Mr. Lolman
2004-06-19, 16:06:02
Original geschrieben von aths
Nö. Ich schalte eher Ingame-Details runter, als auf feine Kantenglättung und tolle Texturen zu verzichten :naughty: Vor allem opfere ich aber gerne Spiel-Details, um die CPU zu entlasten.

Naja, ist halt Geschmackssache. Ich versuch halt immer auf Zwang alles Details eingeschlaten zu haben (deswegen hab ich mich auch nicht mit dem 2GHz AMD zufrieden gegeben, obwohl der ja auch noch ausreichend wäre)



Weiß ich nicht. Ich meine, die Ti 4600 wird ohne AF deutlich schneller sein, als die 9600 ohne AF, erst recht als die 9600 mit AF.

Also war nur die AA/AF Geschwindigkeit ausschlaggebend, warum die 9600 der Ti4600 vorziehst?

aths
2004-06-19, 16:14:43
Original geschrieben von Mr. Lolman
Naja, ist halt Geschmackssache. Ich versuch halt immer auf Zwang alles Details eingeschlaten zu haben (deswegen hab ich mich auch nicht mit dem 2GHz AMD zufrieden gegeben, obwohl der ja auch noch ausreichend wäre)Sowas ist mir fremd :) Reicht die HW nicht – erst mal Details runter. Das Spiel kann ich irgendwann schon mal mit vollen Details sehen. Zum Spielen sind volle Details eigentlich nicht erforderlich.

Original geschrieben von Mr. Lolman
Also war nur die AA/AF Geschwindigkeit ausschlaggebend, warum die 9600 der Ti4600 vorziehst? Nein. Es war die Qualität des Overlays.

MarcWessels
2004-06-19, 17:16:11
Jesus ist blind und braucht ein Wunder. :asshole:

Tesseract
2004-06-19, 20:35:09
Original geschrieben von aths
Nö. Ich schalte eher Ingame-Details runter, als auf feine Kantenglättung und tolle Texturen zu verzichten :naughty:

full ack! :)

ich lass mir doch von einem übermütigen entwickler nicht mein AA und AF nehmen

Tesseract
2004-06-19, 21:02:51
Original geschrieben von Jesus
ich starte mit 1xAF und bilinearem Filter und schalte dann um auf 2xAF mit bilinearem Filter. das banding verschwindet.


das banding verschwindet höchstens in der komprimierung des codecs

dort wo das banding sein müsste ist nur noch pixelmatsch

Jesus
2004-06-19, 21:27:50
Original geschrieben von Tesseract
das banding verschwindet höchstens in der komprimierung des codecs

dort wo das banding sein müsste ist nur noch pixelmatsch

schwachsinn...

Tesseract
2004-06-19, 21:53:35
Original geschrieben von Jesus
schwachsinn...

vielen dank für diesen wertvollen beitrag

auf der höhe des schreibtischs rechts sehe ich etwas das wie briliear aussieht
ich nehme mal an das ist das banding
jedenfalls ist dort alles sehr verschwommen und von der komprimierung geschluckt

Jesus
2004-06-19, 23:01:10
Original geschrieben von Tesseract
vielen dank für diesen wertvollen beitrag

auf der höhe des schreibtischs rechts sehe ich etwas das wie briliear aussieht
ich nehme mal an das ist das banding
jedenfalls ist dort alles sehr verschwommen und von der komprimierung geschluckt

dann würd ich nochmal genauer hinsehen.

1) "brilinear" kommt schonmal gar nicht vor, das erste ist reines BILINEAR ( ohne "r" )

2) der zweite durchgang ist wie man sieht immer noch BILINEAR ( ohne "r" ) jedoch mit aktiviertem 2xAF.

Trilineares filtering wird überhaupt nicht benutzt, dennoch kommt KEIN banding vor.


Typischer Fall von Banding Paranoia :)... vielleicht werd ich das unkomprimierte Video auch mal uploaden wenn ich mal Zeit dazu hab ( ist 350 MB gross :) )

P.S.: Das rechts am tisch ist das Licht der Taschenlampe das mitwandert wenn ich mich bewege...ist aber wirklich sehr mit artefakten durchzogen

Tesseract
2004-06-19, 23:03:26
Original geschrieben von Jesus
1) "brilinear" kommt schonmal gar nicht vor, das erste ist reines BILINEAR ( ohne "r" )

genau aus diesem grund habe ich ja geschrieben der codec mach pixelmatsch

der harte bi-rand verschmiert scheinbar zu einem briliear ähnlichen bild

aber du kannst ja mal einen screenshot uploaden, dann könnte man wirklich vergleichen


Original geschrieben von Jesus
P.S.: Das rechts am tisch ist das Licht der Taschenlampe das mitwandert wenn ich mich bewege...ist aber wirklich sehr mit artefakten durchzogen

gemeint waren eigendlich die fugen zwischen den kacheln am boden auf höhe des rechten tisches (sind ja 2 - um missverständnisse zu vermeiden)

Jesus
2004-06-19, 23:49:07
glaubst mir doch einfach - da ist nichts :)

Tesseract
2004-06-20, 00:08:43
Original geschrieben von Jesus
glaubst mir doch einfach - da ist nichts :)

das will ich trotzdem mit meinen eigenen augen sehn ;)


warum sollte das banding nicht mehr da sein? wenn ich auf biliear stelle seh ich es ja trotzdem noch, nur etwas verschoben

MarcWessels
2004-06-20, 00:46:01
Original geschrieben von Jesus
glaubst mir doch einfach - da ist nichts :)

Nein, Jesus... wir sind nicht Deine Jünger und glauben Dir daher nicht.

r@h
2004-06-20, 03:58:57
Jesus ist halt gegen Banding immun und damit hat sichs dann auch.

Kommt jetzt BITTE wieder auf das Thema zurück !

Es interessiert hier jetzt einfach niemanden mehr (und wenn das Video 1Gig groß ist), ob Jesus (bei welchen Einstellungen auch immer) kein Banding hat, oder auch nicht.

Falls jemand den Thread-Titel nicht lesen kann (was scheinbar so ist): Hier geht es um den NV40, bzw. die GeForce6800'er und nicht - ich wiederhole nochmal - nicht um Jesus und seine Anti-Banding-Paranoja, OK ?

DANKE !

Razor

Jesus
2004-06-20, 08:47:44
Original geschrieben von r@h
Jesus ist halt gegen Banding immun und damit hat sichs dann auch.
Razor

nein ganz und gar nicht. Aber wo nichts ist kann man auch nichts sehen.

Quasar
2004-06-20, 09:50:23
*nachdenk*
*auftrolleingeh*

Oder man weigert sich einfach, es zu sehen.

*zufriedenseiweiltrolljetztnichthungernmuss*

Gast
2004-06-20, 14:51:12
man man man wan wird den mal endlich Jesus Gekreuzigt ???

Jesus
2004-06-20, 15:23:04
hm also wenn ich genau hinsehe ... ich glaub ich seh auch was, könnte ganz leichtes banding sein.

Tja ... vielleicht habt ihr doch recht gehabt. Ich geb mich geschlagen. :(


Könnt ihr vergessen ! :) Is echt zum lachen hier. Ganz schön lebhafte Fantasie muss ich schon sagen.
Naja wenn ihr unbedingt banding sehen wollt dann kann ich euch auch nicht helfen. Fakt ist, da ist nichts , weder auf dem komprimierten Video ( trotz der Artefakte ) noch auf dem Original Fraps video und schon gar nicht im laufenden Spiel !

Also entweder mal nen besseren Monitor kaufen oder mal die Brille putzen, soll helfen ... :;

Tesseract
2004-06-20, 15:26:41
Original geschrieben von Jesus
Also entweder mal nen besseren Monitor kaufen oder mal die Brille putzen, soll helfen ... :;

ich habe spitzen augen und einen spitzen monitor und warte eigendlich nur auf einen screenshot deinerseits ;)

Aquaschaf
2004-06-20, 15:33:41
Original geschrieben von Jesus
Also entweder mal nen besseren Monitor kaufen oder mal die Brille putzen, soll helfen ... :;

Klar, wenn meine Brille dreckig ist seh ich überall Banding - daran wird es liegen :lol:

Jesus
2004-06-20, 15:40:30
so hier noch die zugehörigen Bilder. ( sogar mit Taschenlampe aus, weil man sonst ja nichts "sieht" ... und kriechen tu ich auch nicht :) )

http://nemesis.rushers.net/FarCry0050.JPG

http://nemesis.rushers.net/FarCry0051.JPG

Tesseract
2004-06-20, 15:48:45
also ich seh da 2 relativ gut sichtbare stellen die banding sein könnten (in ruhe ist das schwer definitiv zu sagen)
bei 2 anderen könnte ich es vermuten, das könnte aber auch einfach etwas ganz anderes sein

einmal auf höhe der schreibtischkante und einmal auf der höhe wo die "fußaussparung" vom schreibtisch beginnt
genauer gesagt: einmal fliese 9 und einmal fließe 11 wenn ich mich nicht verzählt habe
(gezählt vom spieler nach hinten und da jeweils auf ganzer breite sichtbar)

PS: auf deinem oberen bild sind es deren vier, du hast #1 und #3 eingezeichnet


PPS: ich denke mit dem OT ist es hier langsam genug, wie wär es mit einem "ich hab mein banding verloren, wer kann mir suchen helfen?" thread :D

Jesus
2004-06-20, 16:03:13
tja dann siehst du auf standbildern mehr wie ich in bewegung, und das will was heissen :)

Aber genug davon...

Jesus
2004-06-20, 16:09:07
Original geschrieben von Tesseract

PS: auf deinem oberen bild sind es deren vier, du hast #1 und #3 eingezeichnet


wenn du damit meinst dass zwischen den beiden von mir eingekreisten noch ein band ist muss ich dich leider enttäuuschen, da ist absolut gar nichts dazwischen.

Mr. Lolman
2004-06-20, 16:16:55
Original geschrieben von Jesus
tja dann siehst du auf standbildern mehr wie ich in bewegung, und das will was heissen :)

Aber genug davon...


Jesus, wenn du dir deiner Sache schon so sicher bist, dann sei doch so freundlich und stell mir bitte (temporär) mal ~für 3 Videos ~15MB Webspace zur Verfügung.



1. Video: (7.5MB)

Unterschiede zw. normaler bilinearer Filterung, Trainingslevel innenraum, 2xAF, 4xAF
in Fullres, 640x480


2. Video: (3.5MB)

Gleiche Stelle, 4xbi-AF, aber ein 640x480 grosser Ausschnitt von meiner Spielauflösung: 1024x768

3. Video: (3.5MB)

Trainingslevel, blick auf Sandstrand, bei einer, für ATis Winkelabhängigkeit, bösen Stelle. in nativer 640x480 Auflösung. Trotzdem ist hier schon erkennbar, dass zumindest in 1024x768, bei Aussenlevel, das bi-Band im Normalfall ÜBERHAUPT nicht feststellbar ist (im GGs, zu manchen Innenlevelstellen), sofern man sich nicht kriechenderweise solche Stellen aussucht, um den Effekt demonstrieren zu können ;)

Quasar
2004-06-20, 16:46:50
Original geschrieben von Tesseract
PS: auf deinem oberen bild sind es deren vier, du hast #1 und #3 eingezeichnet

Hier mal No.1 und No.4
http://home.arcor.de/quasat/3DC-Pics/FarCry0050_.JPG

Und hier noch ein kleines Video.
http://home.arcor.de/quasat/3DC-Pics/Far%20Cry%20Mip-Banding_hi.avi

Mal die Fugen auf Höhe des Fadenkreuzes beachten. Und _nicht_ kriechen. ;)

Mr. Lolman
2004-06-20, 16:53:19
Original geschrieben von Quasar
Und hier noch ein kleines Video.
http://home.arcor.de/quasat/3DC-Pics/Far%20Cry%20Mip-Banding_hi.avi



:???: Also in dieser 1 sec. seh ich da garnix..

/edit: Ob kriechen oder nicht, ist wurscht. Die Mips gehen auch durchs kriechen nicht weiter nach hinten. Sie rücken näher zusammen, aber das wars auch schon...

Ranz0r
2004-06-20, 16:58:28
Hau mal ne Endlosschleife rein, dann erkennt man das recht gut zumindest sehe ich als "Laie" das sogar noch.

Quasar
2004-06-20, 17:04:12
Original geschrieben von Ranz0r
Hau mal ne Endlosschleife rein, dann erkennt man das recht gut zumindest sehe ich als "Laie" das sogar noch.

Äh, ja. Das hilft enorm, hätte ich vielleicht dazuschreiben sollen. ;)

Jesus
2004-06-20, 17:18:34
Original geschrieben von Quasar
Hier mal No.1 und No.4
http://home.arcor.de/quasat/3DC-Pics/FarCry0050_.JPG

Und hier noch ein kleines Video.
http://home.arcor.de/quasat/3DC-Pics/Far%20Cry%20Mip-Banding_hi.avi

Mal die Fugen auf Höhe des Fadenkreuzes beachten. Und _nicht_ kriechen. ;)

hm stimmt sogar da sind noch 2, hab ich nicht so drauf geachtet:)

ändert aber nichts daran dass bei 2xAF KEINE mehr zu sehen sind !

webspace kann ich dir leider nicht zur verfügung stellen weils nicht meiner ist :)

r@w
2004-06-21, 18:10:15
Original geschrieben von Jesus
ändert aber nichts daran dass bei 2xAF KEINE mehr zu sehen sind !Hascht Du Dir wenigstens mal das Video von Quasar angeschaut ?
:???:

Razor

Endorphine
2004-06-21, 18:12:26
Ohne flamen/bashen zu wollen, aber mich würde mal interessieren, wie viele der "PS 1.4 ist das wichtigste auf der ganzen Welt"-User nun auf einmal meinen, dass das SM 3.0 der NV4x-Serie nichts weiter als ein überflüssig, transistor- und stromfressend sei. :freak2:

Die PS 1.4-Fans müssten ja jetzt in Scharen zu nVidia überlaufen, wenn sie ihren ehemals propagierten Idealen treu bleiben wollen.

BUG
2004-06-21, 19:12:20
..hätte man ja schon viel eher umsteigen können. Die FX5800 und abköhmlinge haben ja auch schon 2.0+ Shader. ;) Aber wie heißt es so schön, man dreht es sich wie man es brauch. :)

cu
BUG

aths
2004-06-21, 19:27:18
Original geschrieben von Endorphine
Ohne flamen/bashen zu wollen, aber mich würde mal interessieren, wie viele der "PS 1.4 ist das wichtigste auf der ganzen Welt"-User nun auf einmal meinen, dass das SM 3.0 der NV4x-Serie nichts weiter als ein überflüssig, transistor- und stromfressend sei. :freak2:

Die PS 1.4-Fans müssten ja jetzt in Scharen zu nVidia überlaufen, wenn sie ihren ehemals propagierten Idealen treu bleiben wollen. Andererseits müssten die "R9700 bringt gegenüber meiner GF3 keinen Mehrwert"- bzw. "Pixelshader 1.4 ist kein Standard"-Leute jetzt zur X800 greifen.

r@h
2004-06-21, 19:31:33
Original geschrieben von aths
Andererseits müssten die "R9700 bringt gegenüber meiner GF3 keinen Mehrwert"- bzw. "Pixelshader 1.4 ist kein Standard"-Leute jetzt zur X800 greifen. Wieso denn das ?
:???:

Razor

reunion
2004-06-21, 19:33:49
Original geschrieben von r@h
Wieso denn das ?
:???:

Razor

Weil es jetzt das gleiche ist nur umgekehrt.

reunion
2004-06-21, 19:35:43
Original geschrieben von Endorphine
Ohne flamen/bashen zu wollen, aber mich würde mal interessieren, wie viele der "PS 1.4 ist das wichtigste auf der ganzen Welt"-User nun auf einmal meinen, dass das SM 3.0 der NV4x-Serie nichts weiter als ein überflüssig, transistor- und stromfressend sei. :freak2:


Und ich möchte nicht wissen wieviel Leute die behauptet haben PS1.4 ist total unwichtig und sowieso kein Standard jetzt aufeinmal SM3.0 in den Himmel loben...

r@h
2004-06-21, 19:35:45
Original geschrieben von reunion
Weil es jetzt das gleiche ist nur umgekehrt. Könntest Du das mal präzisieren ?
:???:

Razor

Torian.cc
2004-06-21, 19:42:00
Original geschrieben von reunion
Weil es jetzt das gleiche ist nur umgekehrt.

Hehe, ziemlich verwirrend..., aber klingt doch ulkig =)

MfG
Tori

P.S.: Danke, ist ´ne gute Sig. ;)

Endorphine
2004-06-21, 19:42:17
Original geschrieben von reunion
Und ich möchte nicht wissen wieviel Leute die behauptet haben PS1.4 ist total unwichtig und sowieso kein Standard jetzt aufeinmal SM3.0 in den Himmel loben... Mein Posting sollte eher zeigen, wie viele User sich nur stur argumentativ alles so in Diskussionen zurechtlegen, wie es zur eigenen Bevorzugung passt. Egal welche Seite. Kein Rückgrat, keine Konstanz der Meinung... ;(

reunion
2004-06-21, 19:43:51
Original geschrieben von r@h
Könntest Du das mal präzisieren ?
:???:

Razor

Damals wurde gesagt PS1.4 ist kein Standard da es ja nur von einem Hersteller unterstützt wird, außerdem wurde behauptet es ist total nutzlos. Jetzt ist es bei PS/VS 3.0 vom NV40 das gleiche, und aufeinmal ließt man von genau den gleichen Leuten wie toll das SM3.0 vom NV40 nicht ist...

reunion
2004-06-21, 19:45:38
Original geschrieben von Endorphine
Mein Posting sollte eher zeigen, wie viele User sich nur stur argumentativ alles so in Diskussionen zurechtlegen, wie es zur eigenen Bevorzugung passt. Egal welche Seite. Kein Rückgrat, keine Konstanz der Meinung... ;(

War ja nicht böse gemeint :tröst:
;(

Quasar
2004-06-21, 19:58:51
Original geschrieben von reunion
Damals wurde gesagt PS1.4 ist kein Standard da es ja nur von einem Hersteller unterstützt wird, außerdem wurde behauptet es ist total nutzlos. Jetzt ist es bei PS/VS 3.0 vom NV40 das gleiche, und aufeinmal ließt man von genau den gleichen Leuten wie toll das SM3.0 vom NV40 nicht ist...

Tempora Mutandur :)
Außerdem gab es zwischen damals und heute ein par gravierende Unterschiede.
Wenn SM3.0 jetzt eine komplett neue Herangehensweise an die Programmierung der Shader erfordern würde, anstatt im HLSL-Compiler ein Flag zu setzen oder eine Checkbox abzuhaken, wäre SM3.0 sicherlich noch weniger attraktiv, als es so der Fall ist.

Umgekehrt wären PS1.4 damals sicher auf breitere Akzeptanz gestoßen, wenn sie "einfach nur" ihre Vorteile in der gewohnten Syntax hätten zeigen können.

aths
2004-06-21, 20:09:28
Original geschrieben von Quasar
Umgekehrt wären PS1.4 damals sicher auf breitere Akzeptanz gestoßen, wenn sie "einfach nur" ihre Vorteile in der gewohnten Syntax hätten zeigen können. Die gewohnte Syntax eignete sich nicht besonders für fortschrittlichere Technik.

Winter[Raven]
2004-06-21, 20:42:05
Da der Fread mal wieder zugespammt wurde und keiner der Mods es für nötig hält bissel zusäubern ... :down:

6800U + P4 3.4EE + 61.45 drivers = über 100fps in Far Cry @ 1600x1200 | NV stahmt den X800XT ungespritzt in den Boden.

http://www.anandtech.com/cpu/showdoc.html?i=2091&p=18

BvB123
2004-06-21, 20:43:39
Hi


aber warum ist die 6800U mit nem 3400+ viel langsammer?

ganz 40 fps ind 1600*1200

Mr. Lolman
2004-06-21, 20:49:09
Original geschrieben von BvB123
Hi


aber warum ist die 6800U mit nem 3400+ viel langsammer?

ganz 40 fps ind 1600*1200

Es scheint sich immer deutlicher herauszukristallisieren:

AMD User sollten sich ne ATi zulegen, Intel User eine NVidia.


(Passt aber eh irgendwie zam ;))


/edit:

BTW: Farcry sollte sowieso nicht gebencht werden, solang NV Karten sich immernoch mit fp16 herumschlagen müssen. ;)

Demirug
2004-06-21, 20:52:22
Original geschrieben von Winter[Raven]
Da der Fread mal wieder zugespammt wurde und keiner der Mods es für nötig hält bissel zusäubern ... :down:

Bei meinem letzten Versuch einen Thread dieser Länge zu bearbeiten ist mir die Forumssoftware schwindelig geworden. Da andere Mods sich wohl ebenfalls nicht die Finger verbrennen wollten hat es keiner gemacht.

Demirug
2004-06-21, 20:54:34
Original geschrieben von Mr. Lolman
BTW: Farcry sollte sowieso nicht gebencht werden, solang NV Karten sich immernoch mit fp16 herumschlagen müssen. ;)

Ich würde es anders formulieren. Farcry sollte nicht mehr gebencht werden solange nicht auf allen Chips identische Shadermaterial zum Einsatz kommt.

Winter[Raven]
2004-06-21, 21:33:09
Original geschrieben von Demirug
Bei meinem letzten Versuch einen Thread dieser Länge zu bearbeiten ist mir die Forumssoftware schwindelig geworden. Da andere Mods sich wohl ebenfalls nicht die Finger verbrennen wollten hat es keiner gemacht.

Ich will ja nimmanden auf die Füsse tretten, aber dieses "Schwachsinn" was sich Jesus und paar "Gäste" sich geleistet haben, hätte man gleich beim anfang unterbinden sollen, oder für dieses "banding" ne eigenen Tread erstellen sollen.

Jetzt sind die letzen >3 Seiten zugemühlt mit Fanboy Gelaber, da kann man diesen fread doch gleich dichtmachen.