PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 9800 oder GeForceFX5900?!?


VooDoo7mx
2003-12-10, 23:44:47
Moin Leute also ich möcht mir eine neue Graka kaufen da mir meine 9500 besonders mit Qualitätsfeatures langsam zu lahm wird.

Ich würde maximal so um die 250€ ausgeben.Am besten so wenig wie möglich.

In Frage kommt erst einmal die 9800 nonPro die ist aber mit 260€+(Sapphire) doch recht teuer.
Auf der Gegenseite stehen jedoch die Leadtek A350 TDH LX Retail und die Asus V9950 Bulk.
Nach vielen Benchmarks zu urteilen, müsste die 5900 ja schneller als eine 9800 sein außer es werden massiv 2.0 Shader eingesetzt.

Was ist nun die richtige Wahl?
Also ich tendiere eher zur FX5900 da ich nach ATi wieder mal was neues haben möchte(hört sich dumm an ist aber so).Vom Speed scheint sie auch nicht schlecht zu sein. Dazu kommt noch der günstigere Preis.

Was haben denn beide Karten für Vor- und Nachteile die ich beachten sollte?WIe ist eigentlich die Qualität und Bedienung das Nvidia TV-Out? Genauso gut wie bei ATi oder schlechter?
Und bitte kein Flamewar über irgendwelche Treiber Optimierungen und so Blazeugs. Das machen beide Entwickler! Nur versteckt das der eine besser...

Sumpfmolch
2003-12-11, 00:01:14
Original geschrieben von VooDoo7mx
Moin Leute also ich möcht mir eine neue Graka kaufen da mir meine 9500 besonders mit Qualitätsfeatures langsam zu lahm wird.

Ich würde maximal so um die 250€ ausgeben.Am besten so wenig wie möglich.

In Frage kommt erst einmal die 9800 nonPro die ist aber mit 260€+(Sapphire) doch recht teuer.
Auf der Gegenseite stehen jedoch die Leadtek A350 TDH LX Retail und die Asus V9950 Bulk.
Nach vielen Benchmarks zu urteilen, müsste die 5900 ja schneller als eine 9800 sein außer es werden massiv 2.0 Shader eingesetzt.

Was ist nun die richtige Wahl?
Also ich tendiere eher zur FX5900 da ich nach ATi wieder mal was neues haben möchte(hört sich dumm an ist aber so).Vom Speed scheint sie auch nicht schlecht zu sein. Dazu kommt noch der günstigere Preis.

Was haben denn beide Karten für Vor- und Nachteile die ich beachten sollte?WIe ist eigentlich die Qualität und Bedienung das Nvidia TV-Out? Genauso gut wie bei ATi oder schlechter?
Und bitte kein Flamewar über irgendwelche Treiber Optimierungen und so Blazeugs. Das machen beide Entwickler! Nur versteckt das der eine besser...


kommt drauf an ob du in sehr hohen auflösungen zockst und deshalb auf mehr als 2xAA getrost verzichten kannst...

falls du aber gern 4xAA oder höher einsetzt weil du max. 1280x960 auflösung spielst dann würd ich mir den artikel mal genau angucken

http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/

VooDoo7mx
2003-12-11, 00:11:23
Also ich spiele nur in 1024x768.

Als Qualitätsfeature möchte ich 4xAA mit 8xAF nutzen.Mehr brauch ich gar nicht ;)

Asuka
2003-12-11, 00:17:51
Original geschrieben von VooDoo7mx
Also ich spiele nur in 1024x768.

Als Qualitätsfeature möchte ich 4xAA mit 8xAF nutzen.Mehr brauch ich gar nicht ;) Wenn du 4xAA nutzen willst, würde ich dringend zur Ati-Karte raten =)

Sumpfmolch
2003-12-11, 00:31:34
Original geschrieben von VooDoo7mx
Also ich spiele nur in 1024x768.

Als Qualitätsfeature möchte ich 4xAA mit 8xAF nutzen.Mehr brauch ich gar nicht ;)

dann eher ati....mehr als 2xaa ist bei nvidia nicht mehr konkurrenzfähig

Szilard
2003-12-11, 00:54:22
Das Thema hatten wir schon so oft ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=91645
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=110970
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=108291
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=91645
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=106781
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=100532

VooDoo7mx
2003-12-11, 01:00:41
Original geschrieben von Asuka
Wenn du 4xAA nutzen willst, würde ich dringend zur Ati-Karte raten =)

Wieso eigentlich?
Ich blick bei den 3DCenter Artikel sowieso nicht so recht durch...
Gibt es beim neusten Nvidia Treiber wirklich so viele AA Modi?

Original geschrieben von Szilard
Das Thema hatten wir schon so oft ;)


Kann ich mir gut vortstellen nur ist die Suche schons eit einer halben Ewigkeit tot aber besten dank für die Threads!

Mr. Lolman
2003-12-11, 01:06:02
Original geschrieben von VooDoo7mx
Wieso eigentlich?
Ich blick bei den 3DCenter Artikel sowieso nicht so recht durch...
Gibt es beim neusten Nvidia Treiber wirklich so viele AA Modi?


Ja schon. Aber relevant für den Praxiseinsatz ist diese Tabelle:

(mit aktiviertem max.AF):

aths
2003-12-11, 05:40:36
Original geschrieben von VooDoo7mx
Wieso eigentlich?
Ich blick bei den 3DCenter Artikel sowieso nicht so recht durch...
Gibt es beim neusten Nvidia Treiber wirklich so viele AA Modi?Es gibt (inoffiziell) sogar noch mehr. Leo hat aber die ohnehin ganz unsinnigen gleich weggelassen.

Gast
2003-12-11, 10:41:46
Original geschrieben von VooDoo7mx
Wieso eigentlich?
Ich blick bei den 3DCenter Artikel sowieso nicht so recht durch...
Gibt es beim neusten Nvidia Treiber wirklich so viele AA Modi?
Ja, das ist ja der einzige Lichtblick an nVs AA-Implementation, daß sie einem recht viele Wahlmöglichkeiten läßt. :)

Original geschrieben von Mr. Lolman
Ja schon. Aber relevant für den Praxiseinsatz ist diese Tabelle:

(mit aktiviertem max.AF):
Relevant nach Leos Meinung. Relevanz endet und beginnt immer beim Individuum. :)




Ich spiele z.B. nicht nur die neuesten High-End Kracher, sondern gern auch mal das eine oder andere ältere Game und da nutzt es mir, daß ich nicht auf drei Multi-Sampling-Modi beschränkt bin, sondern die Wahl habe.

Q

StefanV
2003-12-11, 11:30:07
Original geschrieben von VooDoo7mx
Moin Leute also ich möcht mir eine neue Graka kaufen da mir meine 9500 besonders mit Qualitätsfeatures langsam zu lahm wird.

Ich würde maximal so um die 250€ ausgeben.Am besten so wenig wie möglich.

In Frage kommt erst einmal die 9800 nonPro die ist aber mit 260€+(Sapphire) doch recht teuer.
Auf der Gegenseite stehen jedoch die Leadtek A350 TDH LX Retail und die Asus V9950 Bulk.
Nach vielen Benchmarks zu urteilen, müsste die 5900 ja schneller als eine 9800 sein außer es werden massiv 2.0 Shader eingesetzt.

Was ist nun die richtige Wahl?
Also ich tendiere eher zur FX5900 da ich nach ATi wieder mal was neues haben möchte(hört sich dumm an ist aber so).Vom Speed scheint sie auch nicht schlecht zu sein. Dazu kommt noch der günstigere Preis.

Was haben denn beide Karten für Vor- und Nachteile die ich beachten sollte?WIe ist eigentlich die Qualität und Bedienung das Nvidia TV-Out? Genauso gut wie bei ATi oder schlechter?
Und bitte kein Flamewar über irgendwelche Treiber Optimierungen und so Blazeugs. Das machen beide Entwickler! Nur versteckt das der eine besser...

1. och nöö, nicht noch ein Flammen Thread :)

2. meinereiner würd eher zur ATI Karte raten, da sie das rundere Produkt der beiden ist.

3. och, da gibts bei der FX z.B. das Macrovision TV Out Problem...
Die Dual View Einstellungen sind bei nV IMO leicht durcheinander geraten, bei ATI ists deutlich einfacher gestaltet.

Allerdings scheinen die Treiber der Radeon momentan 'etwas' besser zu funzen und weniger Probleme zu bereiten als die FX Treiber, welche in letzter Zeit doch das eine oder andere Problem haben...

Nujo und bei FSAA schauts bei den FX IMO ganz duster aus, da sie entweder nicht die Qualität einer ATI (und teilweise auch Voodoo5 *duckundwegrenn*) bieten oder aber 'etwas' langsam sind...

Radeonator
2003-12-11, 11:45:22
Liegt wie immer in Praxis, am Auge des Betrachters.

Die FX bietet die 9800er liegen in etwa auf einem Niveau.
Bei der ATi ist das FSAA schöner, bei der FX das AF.

Kauf dir was du günstiger bekommst. Hatte mit TV-Out und Nview 0 Probs , einzelne Anwender spiegeln nie das gesammt wieder! Könnte sonst ja auch einen beliebigen Titel aus dem ATi Forum heraus fischen und dann erzählen, das es sich um ein allgemeines ATi Prob handeln würde...

Riptor
2003-12-11, 12:11:33
Original geschrieben von Radeonator
Die FX bietet die 9800er liegen in etwa auf einem Niveau.
Bei der ATi ist das FSAA schöner, bei der FX das AF.

Echt (http://www.computerbase.de/news.php?id=6770)? :naughty: ;)

@ VooDoo7mx: IMO ist eine Radeon einfach das "komplettere" Paket, mit weniger Kompromissen und kaum Patzern. Wenn du nicht unbedingt einen guten Linux-Support brauchst, dann spricht nicht wirklich viel gegen eine Radeon.

nagus
2003-12-11, 12:41:18
Original geschrieben von Mr. Lolman
Ja schon. Aber relevant für den Praxiseinsatz ist diese Tabelle:

(mit aktiviertem max.AF):


das sagt wohl alles... Radeon 9800 RULZ

VooDoo7mx
2003-12-11, 13:02:10
@Nagus

ich bin jetzt schon 1 Jahr hier dabei aber du bist mir immer am lustigsten aufgefallen ;)
Ich glaube es gibt keinen größeren ATi Fanboy weit und breit. Ist nicht böse gemeint ;) .
Aber wenn ich mir dein Avatar und dazu noch die Signatur anschaue könnte man glatt denken das du mit deiner Grafikkarte ins Bett steigst und das du dich immer zu Vollmond in einen blutrünstigen Ferengi-Werwolf verwandelst der Jagd auf Nvidia-User macht und sie dann mit Pro Ati Reviews und Artikeln zu Nvidias Treiber-Gemeinheiten quälst :schlag:

Aber nichts für ungut, wir sind ja alle ein bisschen ATi :balla:

@Rest
Eigentlich hätte ich es wissen sollen bevor ich den Thread hier starte. Fast jeder ist schon ATi infiziert und versucht mir sein Produkt aufzubinden was er sich geleistet.
Aber
Ihr habt schon recht die 9800 ist wirklich das rundere Gesamtpaket.
Nur was mich bei ATi immer noch stört sind die schlechten Retail Bundles(z.B. im Vergleich zur Leadtek 5900LX) . Und es kommt mir immer noch so vor als ob nur Billighersteller ATi Grakas bauen und falls doch mal welche von Markenherstellern kommen sollten dann extrem teuer sind. (siehe Hercules,Asus)

StefanV
2003-12-11, 14:17:01
Original geschrieben von VooDoo7mx
Nur was mich bei ATi immer noch stört sind die schlechten Retail Bundles(z.B. im Vergleich zur Leadtek 5900LX) . Und es kommt mir immer noch so vor als ob nur Billighersteller ATi Grakas bauen und falls doch mal welche von Markenherstellern kommen sollten dann extrem teuer sind. (siehe Hercules,Asus)

Hm, Gigabyte?? :|

Nagut, die sind meist 'etwas' teurer, dafür liegt da auch allerhand dabei.
Leider haben die auf die SPeicherkühler, welche sie noch auf den 9700 Modellen verbauten, verzichtet.
Ebenso liegen jene Karten preislich etwas höher und auch die Verfügbarkeit ist schlecht bis sehr schlecht.

PS: ja, ich hab 'ne teure Gigabyte, welche auch noch einen IMO nicht so schönen Kühler verbauten.

Gast
2003-12-11, 14:17:28
Original geschrieben von VooDoo7mx
Eigentlich hätte ich es wissen sollen bevor ich den Thread hier starte. Fast jeder ist schon ATi infiziert und versucht mir sein Produkt aufzubinden was er sich geleistet.


Das liegt in der Natur des Menschen, das Beste zu haben. Die schönsten Mädchen, die schnellsten Autos, die größten Häuser. Du scheinst wohl die Aushahme von dem Regelfall zu sein. Mich stört es nicht, beleidigen kannst mich auch nicht, ich habe zwar zum ersten Mal eine ATI gekauft, aber ich werde weiterhin die besten Produkte erwerben.

Original geschrieben von VooDoo7mx
Ihr habt schon recht die 9800 ist wirklich das rundere Gesamtpaket.
Nur was mich bei ATi immer noch stört sind die schlechten Retail Bundles(z.B. im Vergleich zur Leadtek 5900LX) . Und es kommt mir immer noch so vor als ob nur Billighersteller ATi Grakas bauen und falls doch mal welche von Markenherstellern kommen sollten dann extrem teuer sind. (siehe Hercules,Asus)

In Hannover bekomme ich die BBA, wo hier eine mangelhafte Qualität vorliegen soll, ist mir schleiehaft. Deweiteren Ati-Software, Kabel, DVI-Wandler, was fehlt denn hier?

Mr. Lolman
2003-12-11, 15:30:35
Gerade die "Billighersteller" leisten sich kein eigenes Design bei den Karten. Die sind fast alle BBAs.

Radeonator
2003-12-11, 15:51:30
Original geschrieben von Mr. Lolman
Gerade die "Billighersteller" leisten sich kein eigenes Design bei den Karten. Die sind fast alle BBAs.

Ausser Xelo ... ;D

Riptor
2003-12-11, 16:17:18
Original geschrieben von Radeonator
Ausser Xelo ... ;D

Die XELO R9600 Pro (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=86751) ist EXCELLENT, oder was meinst du?

StefanV
2003-12-11, 17:18:52
Original geschrieben von Radeonator
Ausser Xelo ... ;D

...nur bei den älteren und kleineren Karten wie 9000 und 8500...

Die 9600 sind idR BBA Karten, ebenso 9500, 9700 und 9800...

Ausnahmen sind da z.B. GBT, Tyan und ASUS, welche wirklich vom Referenzdesign abweichende Designs verwenden...

SamLombardo
2003-12-11, 17:20:23
Nein ich sag heut mal nichts dazu:) sondern verweise mal auf mein

Statement (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1401550#post1401550) vom letzten mal als es um dieses Thema ging. (glaube das war vorgestern:D )

Riptor
2003-12-11, 18:37:12
Zum Glück wird das hier nicht noch mal gepostet, weil es ziemlich "tendenziös" ist (btw: nete Sig, ja nicht ändern *eg*), man hat ja auch die Folge gesehen, die wie so oft dadurch entsteht... :naughty: Denn: Man kann auch die Außenpolitik der USA zum "Guten" drehen, ändert trotzdem nix an den Tatsachen, die nun einmal gegeben sind, also einfach mal ein wenig objektiver bleiben. ;)

klick (http://www.computerbase.de/article.php?id=297) + klick (http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/) treffen es IMO ziemlich genau, wie es derzeit ausschaut. Insgesamt überwiegen die Vorteile für ATI-Karten, was nicht heißen soll, dass nVidia-Karten grundsätzlich als "schlechter" zu betrachten sind. Bitte jetzt nicht weiter schwarz-weiß malen, es gibt noch genug Graustufen zwischendrin. ;)

SamLombardo
2003-12-11, 20:40:11
Original geschrieben von Riptor
btw: nete Sig, ja nicht ändern *eg*)

Danke:)

Colin MacLaren
2003-12-12, 00:12:03
Ohne jetzt den ganzen Thread nochmal durchlesen zu wollen geb ich auch nochmal meinen Senf dazu :).

Auf Unterschiede in DX8-Spielen würd ich erstmal nix geben, denn die laufen auf beiden Karten mit AA und AF eigentlich alle flüssig.

In DX9-Spielen mit massiven Shadereinsatz ist Ati klar die bessere Wahl, ABER fast alle Titel liefern mittlerweile auch ordentliche Performance auf NV-Karten, sei es durch die Forceware-Treiber oder weil die Spiele auf NVIDIAs entwickel und optimiert werden, meist im Rahmen des "The way it's meant to be played"-Programm (Wobei ich es bei letzterem zwar extremst zum Kotzen finde, sich die Spieleherstleller zu kaufen, aber so sieht nunmal leider die Realität aus.) Trotzdem seh ich hier immer noch leichte Vorteile bei Ati.

In Sachen Bildqualität kann man sicherlich stundenlang debattieren, aber wenn man jezt mal von zimperlichen Screenshotvergleichen absieht, und die Ingame-Situation als Maßstab nimmt, sind bei beiden Herstellern die AF-"Optimierungen" erkennbar, aber keiner von beiden ist wesentlich besser oder schlechter. In sachen AA sieht es bei Ati ab 4x wieder deutlich besser aus. Also der Puntk geht ebenfalls an die Radeon 9800.

Die große Schwäche der Atis liegt sicherlich in OpenGL, denn hier ist die Performance einfach nur grottig. Wo in DX9 manchmal die Ati Mainstreamkarten die 5900 schlagen können, sieht es in OGL genau andersrum aus. Meine GF4 Ti4200 lieferte in OGL deutlich bessere Ergebnisse als meine Radeon9800Pro (vor allem Jedi Academy, auf der Radoen muß ich Dynamisches Leuchten und komplexe Schatten ausstellen, auf der GF4 kein PRoblem). Und das ist nicht nur bei Quake3-Engine-Tteln so, bie Bioware-RPGs, der SeriousSam-Reihe und dem, was von Doom3 bekannt ist, sieht es ähnlich aus.
Ein Punkt für NVIDIA.

Treiber und Bugs: Hier liefern eigentlich beide Hersteller mittlweile sehr gute Arbeit ab, allerdings scheinen viele Spielehersteller ihre Titel auf Ati-Karten nciht richtig zu testen oder es schleichen sich doch mal Bugs in den Catalyst ein. Beispiele aus jüngster Vergangenheit wären z.B. BF1942- und Empires-Menuprobleme, Abstürze in Call of Duty, AA funzt nicht in Spellforce oder keine Softshadows in Star Wars KotoR. Alles entweder schon behoben oder nicht dramatisch, aber wer keine Lust hat, immer den neusten Treiber und/oder Patch zu warten und aufzuspielen KANN mit einer Ati eher mal mit Bugs zu tun bekommen. Das erkennt man auch daran, daß im NV-Forum hier deutlich weniger Problem-Threads als im Ati-Forum gibt, was allerdings z.T, auch an dem derzeitigem Überschuß an Ati-Nutzen liegen kann. Trotzdem imho ein, wenn auch mittlerweile nicht mehr so bedeutender und oft auch von den Spieleherstellern verschuldeter, Faktor für die FX5900.

Nebenbei sei noch erwähnt, daß Ati-Treiber in Windwos 2003 Server nicht ordentlich funzen, NVIDIAs dagegen problemlos und meist sogar noch einen Tick schneller. Ist aber nur relevant, wenn Du dieses OS nutzen willst.

Endstand: 2:2 :)

Nun mut Du selbst Prioritäten setzen und schauen, was Dir wichtiger ist. In Sachen DX9, AA und Firmenpolitik die Ati 9800 (fangt mir ja nicht mit HL an, das hat einen extra NV-Mode), in Sachen OGL, Problemlosigkeit und Win2k3 die FX5900.

[dzp]Viper
2003-12-12, 00:28:06
Original geschrieben von Colin MacLaren
Die große Schwäche der Atis liegt sicherlich in OpenGL, denn hier ist die Performance einfach nur grottig. Wo in DX9 manchmal die Ati Mainstreamkarten die 5900 schlagen können, sieht es in OGL genau andersrum aus. Meine GF4 Ti4200 lieferte in OGL deutlich bessere Ergebnisse als meine Radeon9800Pro (vor allem Jedi Academy, auf der Radoen muß ich Dynamisches Leuchten und komplexe Schatten ausstellen, auf der GF4 kein PRoblem). Und das ist nicht nur bei Quake3-Engine-Tteln so, bie Bioware-RPGs, der SeriousSam-Reihe und dem, was von Doom3 bekannt ist, sieht es ähnlich aus.
Ein Punkt für NVIDIA.



sorry aber das ist humbug....(beziehe mich vor allem auf das Fettgeschrieben was ich so markiert habe in deinem Text)

ATI karten sind etwas langsamer als NV karten unter OpenGL

aber eben nur ETWAS

unter "grotten schlecht" verstehe ich etwas GANZ anderes! Dazu kommt, dass die ATI karten dann in OpenGL gewinnen sobald AA+AF hinzukommen - und das fast überall!

Und jetzt frage ich dich, die leute die eine 9700 (oder höher) haben, spielen sicher nicht in 1024x768 ohne AA und AF irgendwelche OpenGL spiele...
Jeder der so eine Grafikkarte sein eigenen nennt, spielt COD und co. mit AA und AF (wenn man dies nicht tun würde, wäre das rausgeworfenes geld..)

Also benutze den begriff "grottig" woanders - den so wie du ihn benutzt, ist er VOLLKOMMEN fehl am platz!

Szilard
2003-12-12, 00:40:42
Original geschrieben von Colin MacLaren
Die große Schwäche der Atis liegt sicherlich in OpenGL, denn hier ist die Performance einfach nur grottig. Wo in DX9 manchmal die Ati Mainstreamkarten die 5900 schlagen können, sieht es in OGL genau andersrum aus. Meine GF4 Ti4200 lieferte in OGL deutlich bessere Ergebnisse als meine Radeon9800Pro (vor allem Jedi Academy, auf der Radoen muß ich Dynamisches Leuchten und komplexe Schatten ausstellen, auf der GF4 kein PRoblem). Und das ist nicht nur bei Quake3-Engine-Tteln so, bie Bioware-RPGs, der SeriousSam-Reihe und dem, was von Doom3 bekannt ist, sieht es ähnlich aus.
Ein Punkt für NVIDIA.

Ich habe Jedi Academy mit einer 9800 Pro und einer FX5900nu mit 4xAA/8xAF verglichen (gleich am Anfang im Spiel).

FX5900nu - 17FPS
R9800 Pro - 20FPS

Alle Grafikdetails auf höchste!

von daher :o

Hamster
2003-12-12, 00:47:20
Original geschrieben von [dzp]Viper
sorry aber das ist humbug....(beziehe mich vor allem auf das Fettgeschrieben was ich so markiert habe in deinem Text)

ATI karten sind etwas langsamer als NV karten unter OpenGL

aber eben nur ETWAS

unter "grotten schlecht" verstehe ich etwas GANZ anderes! Dazu kommt, dass die ATI karten dann in OpenGL gewinnen sobald AA+AF hinzukommen - und das fast überall!



auf dieses statement könnten wir uns einigen, wenn endlich alle fanATIker dasselbe für die fx'en in bezug auf dx9 eingestehen. dann wäre endlich ruhe hier im forum, und die flamerei vorbei....

Colin MacLaren
2003-12-12, 00:50:03
Wenn ich z.B. in ET mit AA und AF bessere FPS mit einer übertakteten 64MB GF4 Ti4200 hatte, oder in Jedi Academy problemlos mit Dynamischem Leuchten und Komplexen Schatten spielen konnte, was auf der 9800Pro performancemäßig nicht geht, so bezeichne ich das schon als grottig.

In SW Kotor wurden sogar die SoftShadows für Ati ganz deaktiviert, weil die Performance dafür zu schlecht war, obwohl jede GF2 damit keine Probs hat. Und mit AA und AF kommt es schon hart an die Grenze der Spielbarkeit (stellenweise unter 25fps).

Gut, ist vielleicht auch ein etwas subjektiver Eindruck, aber nachdem ich von einer GF4 Ti4200 auf eine Radeon9800Pro umgestiegen war, da man ja nur ach so tollesdrüber gehört hatte, waren leider die ersten drei Dinge, die ich getestet hatte, Jedi Academy, NWN und ET, anschließend noch die Win2k3-Performance.

Ich überleg mir schon, zu versuchen, meine Radeon zu tauschen, da die guten Titel, mit denen ich mich auch mal länger befasse, nun mal alle OGL sind (ET, NWN- vor allem die AddOns, SW: KotoR, Jedi Academy, Doom3 ect.), wohingegen mich die meisten D3D-Titel weniger interessieren oder fesseln können. Liegt logischerweise nicht an der Schnittstelle, sondern, daß meine Lieblingstiteln nun mal unter diese API fallen.

Hamster
2003-12-12, 01:01:10
Original geschrieben von Colin MacLaren
Wenn ich z.B. in ET mit AA und AF bessere FPS mit einer übertakteten 64MB GF4 Ti4200 hatte, oder in Jedi Academy problemlos mit Dynamischem Leuchten und Komplexen Schatten spielen konnte, was auf der 9800Pro performancemäßig nicht geht, so bezeichne ich das schon als grottig.

In SW Kotor wurden sogar die SoftShadows für Ati ganz deaktiviert, weil die Performance dafür zu schlecht war, obwohl jede GF2 damit keine Probs hat. Und mit AA und AF kommt es schon hart an die Grenze der Spielbarkeit (stellenweise unter 25fps).

Gut, ist vielleicht auch ein etwas subjektiver Eindruck, aber nachdem ich von einer GF4 Ti4200 auf eine Radeon9800Pro umgestiegen war, da man ja nur ach so tollesdrüber gehört hatte, waren leider die ersten drei Dinge, die ich getestet hatte, Jedi Academy, NWN und ET, anschließend noch die Win2k3-Performance.

Ich überleg mir schon, zu versuchen, meine Radeon zu tauschen, da die guten Titel, mit denen ich mich auch mal länger befasse, nun mal alle OGL sind (ET, NWN- vor allem die AddOns, SW: KotoR, Jedi Academy, Doom3 ect.), wohingegen mich die meisten D3D-Titel weniger interessieren oder fesseln können. Liegt logischerweise nicht an der Schnittstelle, sondern, daß meine Lieblingstiteln nun mal unter diese API fallen.

wenn du willst, könntest du deine karte gegen meine tauschen (s. sig).

nicht weil ich unzufrieden wäre, sondern weil ich auch gerne mal wieder eine ari karte testen möchte.

meine letzte war eine 7500...

Szilard
2003-12-12, 01:09:33
Original geschrieben von Colin MacLaren
Wenn ich z.B. in ET mit AA und AF bessere FPS mit einer übertakteten 64MB GF4 Ti4200 hatte, oder in Jedi Academy problemlos mit Dynamischem Leuchten und Komplexen Schatten spielen konnte, was auf der 9800Pro performancemäßig nicht geht, so bezeichne ich das schon als grottig.

Sorry aber das glaub ich Dir nicht. Mit AA und AF kackt jede GF4 ab. Kannst Du Screenshots mit FPS Anzeige machen?

Schau Dir mal meinen Vergleich an, was sagst Du dazu? Wie sind Deine Frames gleich am Anfang im Spiel?


Original geschrieben von Szilard
Ich habe Jedi Academy mit einer 9800 Pro und einer FX5900nu mit 4xAA/8xAF verglichen (gleich am Anfang im Spiel).

FX5900nu - 17FPS
R9800 Pro - 20FPS

Alle Grafikdetails auf höchste!

von daher :o

Colin MacLaren
2003-12-12, 01:16:26
In JA ist mit DL und Komplexen Schatten auf der Radeon mit oder ohne AA und AF kein Land zu sehen. AA/Af hat dort auf der Radeon fast keinen Einfluß auf die fps gehabt. Ich hab auch nie behauptet, daß die AA/AF-Performance unter OGL schlecht ist, aber mit einigen Effekten haben die Atis unter dieser API erhebliche Probleme, siehe auch die Bioware-Statements zu SoftShadows in SW:KotoR.

Screenshot-Vergleich kann ich leider nicht mehr machen, da ich die GF schon längst verkauft habe.

Ich finds ziemlich lsutig, daß hier jemand mit einer Radeon seine Karte schlecht macht und einer mit einer FX selbige Radeon verteidigt :) Villeicht hat sich die Flamewar-Spamflut doch langsam gebessert :)

Ich bin schon zeimlich zufrieden mit der Karte, bloß unter OGL haperts halt noch etwas. Und eine inoffizielle Win2k3-Unterstützung wär nicht schlecht, zumal der "Bug" anscheinend nur darin besteht, daß der Catayst das OS nicht erkennt und daher irgendwelche AGP-Einstellungen verhunzt.

Szilard
2003-12-12, 01:27:38
Original geschrieben von Colin MacLaren
In JA ist mit DL und Komplexen Schatten auf der Radeon mit oder ohne AA und AF kein Land zu sehen. AA/Af hat dort auf der Radeon fast keinen Einfluß auf die fps gehabt. Ich hab auch nie behauptet, daß die AA/AF-Performance unter OGL schlecht ist, aber mit einigen Effekten haben die Atis unter dieser API erhebliche Probleme, siehe auch die Bioware-Statements zu SoftShadows in SW:KotoR.

Ändert trotzdem überhaupt nichts daran:

FX5900nu - 17FPS
R9800 Pro - 20FPS

wieso sollte dann eine GF4 schneller sein, als die beiden Grafikkarten (R9800 Pro und FX5900)? :o
Vielleicht wird irgend etwas mit der GF4 in schlechterer Qualität dargestellt :kratz2:

knallebumm
2003-12-12, 01:27:39
http://firingsquad.com/hardware/call_of_duty_nvidia/default.asp

nvidia roundup

http://firingsquad.com/hardware/call_of_duty_ati/

ati roundup

call of duty (opengl, modifizierte q3 engine) scheint auf den atis besser zu laufen.

Colin MacLaren
2003-12-12, 01:45:29
Original geschrieben von Szilard
Ändert trotzdem überhaupt nichts daran:

FX5900nu - 17FPS
R9800 Pro - 20FPS

wieso sollte dann eine GF4 schneller sein, als die beiden Grafikkarten (R9800 Pro und FX5900)? :o
Vielleicht wird irgend etwas mit der GF4 in schlechterer Qualität dargestellt :kratz2:

Dann laß mal AA und AF weg und schau dann nochmal, wenn Du meine Behauptung bezüglich der Effekte überprüfen willst.

In diesem Beispiel wird die hervorragende AA/AF-Performance durch die Probleme mit o.g. Effekte auf 20fps heruntergezogen. Die GF könnte die zwar deutlich schneller darstellen, aber deren schelchtere AA/AF-Performacne zieht das Ergebnis tiefer in den Keller. Relevant sind beide Ergebnisse nicht, da es beides keine spielbaren Framerates sind. außerdem hat das Speil ne Timedemofunktion, bench lieber mal damit, das sind zuverlässigere Ergebnisse.

Ich hab ja oben schon geschrieben, daß die AA/AF-Peformance der Radeon auch unter OGL hervorragend ist, aber es mit einigen Extensions wohl Probleme gibt, sonst könnte bei der Radeon imho eine 40+ stehen. Die GF 4 lief mit AA/AF natürlich langsamer als die Radeon, aber mit Dynamischen Leuchten und Komplexen Schatten ohne AA/AF war die Frametrate im Gegensatz zur Radeon problemlos spielbar, wobei bei letztere die fps-Werte mit AA/AF nahezu identlisch bleiben, was meine Vermutung mit den Extensions noch untermauert. Ähnliches zeigt sich bei NWN oder SW:KotoR.

Szilard
2003-12-12, 01:53:44
Original geschrieben von Colin MacLaren
Dann laß mal AA und AF weg und schau dann nochmal, wenn Du meine Behauptung bezüglich der Effekte überprüfen willst.

In diesem Beispiel wird die hervorragende AA/AF-Performance durch die Probleme mit o.g. Effekte auf 20fps heruntergezogen. Die GF könnte die zwar deutlich schneller darstellen, aber deren schelchtere AA/AF-Performacne zieht das Ergebnis tiefer in den Keller. Relevant sind beide Ergebnisse nicht, da es beides keine spielbaren Framerates sind. außerdem hat das Speil ne Timedemofunktion, bench lieber mal damit, das sind zuverlässigere Ergebnisse.

Ich hab ja oben schon geschrieben, daß die AA/AF-Peformance der Radeon auch unter OGL hervorragend ist, aber es mit einigen Extensions wohl Probleme gibt, sonst könnte bei der Radeon imho eine 40+ stehen. Die GF 4 lief mit AA/AF natürlich langsamer als die Radeon, aber mit Dynamischen Leuchten und Komplexen Schatten ohne AA/AF war die Frametrate im Gegensatz zur Radeon problemlos spielbar, wobei bei letztere die fps-Werte mit AA/AF nahezu identlisch bleiben, was meine Vermutung mit den Extensions noch untermauert. Ähnliches zeigt sich bei NWN oder SW:KotoR.

Ich habe leider das Spiel und die FX5900nu nicht mehr hier um zu benchen aber wenn ich mich noch richtig erinnere:

FX5900nu - 26FPS
R9800 Pro - 30FPS

ohne AA/AF, wie sieht es bei Dir aus mit der R9800 Pro (wieviel FPS)?

SKYNET
2003-12-12, 02:33:27
Original geschrieben von Szilard
Ich habe leider das Spiel und die FX5900nu nicht mehr hier um zu benchen aber wenn ich mich noch richtig erinnere:

FX5900nu - 26FPS
R9800 Pro - 30FPS

ohne AA/AF, wie sieht es bei Dir aus mit der R9800 Pro (wieviel FPS)?

guckmal, und wenn es ne 5900U währe währe sie bei dem game schneller ;)

vergleiche wenn bitte so:

9800 vs. 5900
9800 pro vs. 5900U
9800XT vs. 5950U

;) ;)

ansonsten vergleiche in in zukunft meine 4200er mit ner 8500er ;D

Szilard
2003-12-12, 02:48:02
Original geschrieben von SKYNET
guckmal, und wenn es ne 5900U währe währe sie bei dem game schneller ;)

vergleiche wenn bitte so:

9800 vs. 5900
9800 pro vs. 5900U
9800XT vs. 5950U

;) ;)

ansonsten vergleiche in in zukunft meine 4200er mit ner 8500er ;D

Wenn man keine Ahnung hat einfach mal die :psst: halten.

Hier ging es in keinster Weise um Vergleiche, zwischen der 9800 Pro und der FX5900!

ow@work
2003-12-12, 12:54:36
Original geschrieben von Szilard
Wenn man keine Ahnung hat einfach mal die :psst: halten.




*MOD*
Nur weiter so, deinem Punktestand ist das sehr zutraeglich!

Szilard
2003-12-12, 13:08:19
Original geschrieben von ow@work
*MOD*
Nur weiter so, deinem Punktestand ist das sehr zutraeglich!

Ich habe niemanden beleidigt und wenn dieser :psst: Smilie eine Beleidigung bedeuten sollte, dann entfernt diese aus der Smilie-Liste! :down:

Ausserdem ist der angedeutete Satz überhaupt nichts schlimmes, aber wenn Du etwas gegen mich hast und mich schnellstens Bannen willst...

'edit1' Wenn ich dafür Punkte kriegen sollte, dann nur, weil Du etwas gegen mich hast aber das Skynet's Beitrag hier fehl am Platze ist, ist ja völlig egal oder?!

'edit2' in Zukunft poste ich auch öffters als Gast, wie schon Razor und Quasar, wird ja immer schöner hier, aus einer Maus -> einen Elefanten machen.

Radeonator
2003-12-12, 13:29:54
Ob du vergleichen willst oder nicht ist irrelevant, da du vergleichst und zwar Äpfel mit Birnen ;D

Ehm, Welche Auflösung btw?
Ich hatte selbst mit meiner 5800nu mehr frames als du gemessen haben willst (spiele normal auf 1024x768 oder 1152x864 @ 32Bit)

Auch und gerade unter voller OGL Nutzung (z.B. mit professionellen Anwendungen) verweisst die FX, ATi s Radeon deutlich in die Schranken.

Bei einigen spielen ist dann wieder die ATi weiter vorne, es bleibt immer 2 zu 2

[dzp]Viper
2003-12-12, 13:41:46
Original geschrieben von Radeonator

Auch und gerade unter voller OGL Nutzung (z.B. mit professionellen Anwendungen) verweisst die FX, ATi s Radeon deutlich in die Schranken.



super und? Er will die karte zum spielen habe und nicht für CAD anwendungen oder so ;)

Szilard
2003-12-12, 13:44:14
Original geschrieben von Radeonator
Ob du vergleichen willst oder nicht ist irrelevant, da du vergleichst und zwar Äpfel mit Birnen ;D

Ehm, Welche Auflösung btw?
Ich hatte selbst mit meiner 5800nu mehr frames als du gemessen haben willst (spiele normal auf 1024x768 oder 1152x864 @ 32Bit)

Auch und gerade unter voller OGL Nutzung (z.B. mit professionellen Anwendungen) verweisst die FX, ATi s Radeon deutlich in die Schranken.

Bei einigen spielen ist dann wieder die ATi weiter vorne, es bleibt immer 2 zu 2

Alles bezog sich auf die Aussage von Colin "GF4TI 4200 schneller als 9800 Pro blablabla" ist das denn so schwer zu kapieren?

Entweder war es 1024x768 oder 1280x1024/960 aber mit >>> 4xAA/8xAF <<< und nicht ohne (Deto 45.23)!

*genervtseiweilhierpaarwasnichtverstehenabertrotzdemihrensenfabgeben* *eg*

Gast
2003-12-12, 14:13:08
Original geschrieben von Radeonator
Ob du vergleichen willst oder nicht ist irrelevant, da du vergleichst und zwar Äpfel mit Birnen ;D

Ehm, Welche Auflösung btw?
Ich hatte selbst mit meiner 5800nu mehr frames als du gemessen haben willst (spiele normal auf 1024x768 oder 1152x864 @ 32Bit)

Auch und gerade unter voller OGL Nutzung (z.B. mit professionellen Anwendungen) verweisst die FX, ATi s Radeon deutlich in die Schranken.

Bei einigen spielen ist dann wieder die ATi weiter vorne, es bleibt immer 2 zu 2

Die OGL-API ist bisschen anders "aufgebaut" als DX9. Hier zählt viel Mhz mehr, wogegen DX9 eine "besondere" Architektur benötigt, und die von ATI auch besser mit DX9 harmoniert.
Würdest Du Nvidia und ATI gleich schnell takten wären in OGL(ohne Qualimodus) Beide etwa gleich schnell.
Von DX9 kann man das nicht behaupten. Und hier ist die Achillesferse von Nvidia. Ihre Architektur möge aus technischer Sicht ja sogar überlegen sein, nur ist diese nicht auf DX9(PS2.0) ausgelegt. Da kann man nichts machen. Da helfen keine Treiber oder sonst was.(wenn es so wäre, würde schon längst was passieren, denn die FXe sind ja soo neu nicht(FX5800). Der 52.xx ist das Ende der Fahnenstange, mehr Leistung wird es nicht geben.
Und wenn ich schon höre 60% bei FP32-Shadern durch DX9.1.
Wenn das so einfach möglich wäre hätten sie es ja wenigstens mit Cg demonstrieren sollen.
Ich glaube kein Wort mehr was Nvidia von sich gibt.Ende.
Aber spätestens in einem halben bis einem Jahr "wissen" wir es auch

MikBach
2003-12-12, 14:32:12
Der Gast war ich.

Wollte noch anfügen:

OGL-Spiele<10% Marktanteil, ja noch viel weniger
DX-Spiele>90%

Also OGL als eine "besondere" Stärke zu loben entspricht nicht der "Realität".

Gast
2003-12-12, 14:42:12
Ich hab zwar eine Ati, aber im Shooterbereich ist es fast anders rum.

MikBach
2003-12-12, 14:46:43
Original geschrieben von Gast
Ich hab zwar eine Ati, aber im Shooterbereich ist es fast anders rum.

Wenn wir uns auf die Shooter beschränken, ist es vielleicht halbe/halbe, aber nicht wie Du ansprichst "andersrum".

Gast
2003-12-12, 15:14:27
MikBach,

Deine Ausführungen zu OpenGL vs. DX kann man auch anders formulieren:

Unter OpenGL ist durch die herstellerspezifischen Extensionen sichergestellt, daß die jeweilige Hardware nahezu optimal ausgenutzt wird, was im DX9-Modell nicht so ist. Dort wird vielmehr belohnt, wie dicht man sich mit der Hardware an ein bestimmtes Schema gehalten hat.

MHz sind hüben wie drüben ziemlich wurscht. Es zählen Bandbreite, Füllrate und SIPS. Von letzterem ist unter OpenGL eher davon auszugehen, daß die Chips ihrem Maximum nahekommen, wie oben schon angesprochen.

Der Marktanteil ist (mir zumindest) ebenso wurscht. Viel wichtiger ist es, zu differenzieren. Jeder mag nunmal andere Games lieber (und wohl auch andere BQ-Settings) und davon ausgehend sollte man urteilen, was relevant ist und was nicht.

So kann es sein, daß für den einen eine passive R9600 das Optimum darstellt, für einen anderen mag eine Ti4200 optimal sein, wieder andere mögen eine Parhelia bevorzugen.

Q

Demirug
2003-12-12, 15:29:45
Original geschrieben von Gast
Unter OpenGL ist durch die herstellerspezifischen Extensionen sichergestellt, daß die jeweilige Hardware nahezu optimal ausgenutzt wird, was im DX9-Modell nicht so ist. Dort wird vielmehr belohnt, wie dicht man sich mit der Hardware an ein bestimmtes Schema gehalten hat.

Ich würde es noch ein wenig anders formulieren.

Unter OpenGL kann jeder seine eigene Suppe kochen und daher die möglichkeiten zur optimalen Ausnutzung zur Verfügung stellen. Bei DX ist man darauf angewiesen wie gut die eigenen Ideen MS gefallen. Die Hardware ist ja schon meist vor der Spec fertig geplant.

Oder um es ganz provokant zu sagen:

MS hat die DX Strasse für die FXen zu schmall gebaut. ATI kommt mit iherer Hayabusa da gut durch. nVidia muss aber den Ferrari nur auf 2 Rädern stehend durch die enge Strasse steuern.

MikBach
2003-12-12, 15:34:28
Original geschrieben von Gast


MHz sind hüben wie drüben ziemlich wurscht. Es zählen Bandbreite, Füllrate und SIPS. Von letzterem ist unter OpenGL eher davon auszugehen, daß die Chips ihrem Maximum nahekommen, wie oben schon angesprochen.



Bandbreite, Füllrate?

Was meinst Du wo das her kommt? bestimmt nicht von Mhz.

Scherz bei Seite, Piplines x Mhz = Pixelfüllrate.

Radeonator
2003-12-12, 15:46:48
Woher hast du das mit OGL nur 10 % ?(

Also das ist wohl ein "wenig" mehr...

z.B.:MoHAA , JK Reihe, SS Reihe , ST EF reihe etc.

Würde mal eher auf 70-30 für D3D tippen

MikBach
2003-12-12, 15:48:31
Original geschrieben von Demirug

MS hat die DX Strasse für die FXen zu schmall gebaut. ATI kommt mit iherer Hayabusa da gut durch. nVidia muss aber den Ferrari nur auf 2 Rädern stehend durch die enge Strasse steuern.

Stimme voll zu, nur wird die Strasse nicht breiter werden, und die FXe werden weiter auf "halbe" Kraft fahren.

Mich regt halt auf, das NVidiots behaupten, dass sich das ändern wird, wüsste aber selber nicht wie. Einzige Lösung neues DX9- aber unmöglich. Erst die NV40 wird in DX9 was reissen können. Die heutigen FXe werden nie die ATIs unter DX9 schlagen.

MikBach
2003-12-12, 15:51:16
Original geschrieben von Radeonator
Woher hast du das mit OGL nur 10 % ?(

Also das ist wohl ein "wenig" mehr...

z.B.:MoHAA , JK Reihe, SS Reihe , ST EF reihe etc.

Würde mal eher auf 70-30 für D3D tippen

Leute, Leute, es kommen jährlich etwa 300 Spiele heraus, wenn davon 30 in OGL sind musst Du viel Glück haben.

Gast
2003-12-12, 15:55:22
Original geschrieben von MikBach
Bandbreite, Füllrate?
Was meinst Du wo das her kommt? bestimmt nicht von Mhz.
Scherz bei Seite, Piplines x Mhz = Pixelfüllrate.

:rofl:
Ja, und dann kommst du und taktest ATi und nVidia 'gleich'.


Original geschrieben von Gast
Würdest Du Nvidia und ATI gleich schnell takten wären in OGL(ohne Qualimodus)[...]

Scheint wohl ein kleines Mißverständnis zu sein.
Das klang irgendwie so, als wolltest du eine nV30 auf 300MHz gegen eine R300 auf 300MHz stellen, ohne dabei eben auf die wesentlicheren Eckpunkte zu schauen.

BTW, mehr MHz bringen auch unter DX 'was'.

LovesuckZ
2003-12-12, 15:55:30
Original geschrieben von Gast
Von DX9 kann man das nicht behaupten. Und hier ist die Achillesferse von Nvidia. Ihre Architektur möge aus technischer Sicht ja sogar überlegen sein, nur ist diese nicht auf DX9(PS2.0) ausgelegt.

Auf was sonst? Kuchenbacken?

Demirug
2003-12-12, 15:57:21
Original geschrieben von MikBach
Stimme voll zu, nur wird die Strasse nicht breiter werden, und die FXe werden weiter auf "halbe" Kraft fahren.

Mich regt halt auf, das NVidiots behaupten, dass sich das ändern wird, wüsste aber selber nicht wie. Einzige Lösung neues DX9- aber unmöglich. Erst die NV40 wird in DX9 was reissen können. Die heutigen FXe werden nie die ATIs unter DX9 schlagen.

um mal bei dem Model zu bleiben. nVidia kann lernen besser auf 2 Rädern zu fahren und ein paar Stellen auf der Strasse suchen wo man unter Ausnutzung der Randsteine doch mal alle 4 Räder nutzen kann. Aber all das wird am Ende nur den Abstad weiter verkürzen können verbeiziehen ist nicht drin. Die Shader die dazu notwendig wären benutzt derzeit kein Spiel.

MikBach
2003-12-12, 16:11:05
Original geschrieben von LovesuckZ
Auf was sonst? Kuchenbacken?

Keine Ahnung, frag` Nvidia.
Wenn die voll auf DX9 ausgerichtet wären, müssten die an ATI vorbeiziehen, weil Nvidia ja die "fortschrittlichere"(laut vielen Nvidia-Anhängern) Architektur und mehr Mhz hat.
Alles andere wäre eigentlich unlogisch.

Gast
2003-12-12, 16:13:22
Dann scheint es doch kein Mißverständnis gewesen zu sein. :(
Du kommst hier schon wieder mit "mehr MHz".

ATi hat mehr Pipelines. *shrug*

LovesuckZ
2003-12-12, 16:13:46
Original geschrieben von MikBach
Keine Ahnung, frag` Nvidia.
Wenn die voll auf DX9 ausgerichtet wären[...]

Was fehlt denn, um voll auf DX9 ausgerichtet zu sein?

StefanV
2003-12-12, 17:05:41
Original geschrieben von LovesuckZ
Was fehlt denn, um voll auf DX9 ausgerichtet zu sein?

4 Pipelines, würd ich mal vermuten...

Quasar
2003-12-12, 17:09:51
Original geschrieben von Stefan Payne
4 Pipelines, würd ich mal vermuten...

? Meinst du, die R9600 und die ganzen SE's sind nicht auf DX9 ausgerichtet?

VooDoo7mx
2003-12-13, 16:10:44
Ich will eure interessante Dikussion jetzt nicht stören...

ABer ich hab noch mal eine kleine Frage.
Bezüglich des schlechteren AA bei NV Karten, es ist doch eigentlich theoretisch möglich das Nvidia bessere AA Modi per Treiber implementiert oder sind diese im Chip Design festgelegt?

reunion
2003-12-13, 16:17:06
Original geschrieben von VooDoo7mx
Ich will eure interessante Dikussion jetzt nicht stören...

ABer ich hab noch mal eine kleine Frage.
Bezüglich des schlechteren AA bei NV Karten, es ist doch eigentlich theoretisch möglich das Nvidia bessere AA Modi per Treiber implementiert oder sind diese im Chip Design festgelegt?

Die AA Modi werden in Hardware bereichnet, das heißt besseres AA wird man frühestens mit dem nächsten Chip erreichen...

StefanV
2003-12-13, 16:26:03
Original geschrieben von VooDoo7mx
Ich will eure interessante Dikussion jetzt nicht stören...

ABer ich hab noch mal eine kleine Frage.
Bezüglich des schlechteren AA bei NV Karten, es ist doch eigentlich theoretisch möglich das Nvidia bessere AA Modi per Treiber implementiert oder sind diese im Chip Design festgelegt?

Das tun sie doch schon seit geraumer Zeit, mit ihren Hybrid Modis...

MikBach
2003-12-13, 16:55:39
Original geschrieben von VooDoo7mx
Ich will eure interessante Dikussion jetzt nicht stören...

ABer ich hab noch mal eine kleine Frage.
Bezüglich des schlechteren AA bei NV Karten, es ist doch eigentlich theoretisch möglich das Nvidia bessere AA Modi per Treiber implementiert oder sind diese im Chip Design festgelegt?

Du kannst bei Nvidia die gleiche Qualität beim FSAA erreichen wie bei ATI 4xFSAA, nur ist die ATI dann bestimmt doppelt so schnell.

aths
2003-12-13, 17:19:22
Original geschrieben von Gast
Ihre Architektur möge aus technischer Sicht ja sogar überlegen sein, nur ist diese nicht auf DX9(PS2.0) ausgelegt. ... sondern auf PS2.X. Da sehe ich keinen großen Nachteil jetzt.

Original geschrieben von MikBach
Du kannst bei Nvidia die gleiche Qualität beim FSAA erreichen wie bei ATI 4xFSAA, nur ist die ATI dann bestimmt doppelt so schnell. Wirklich gleiche Qualität kann man nicht bekommen.
Original geschrieben von Stefan Payne
4 Pipelines, würd ich mal vermuten... Genauso, wie Texelfüllrate wichtiger als Pixelfüllrate ist, ist arithmetische Gesamtleistung wichtiger als die Zahl der Pipes. Bei der Gesamtleistung ist ATI im Vorteil, aber nicht um Faktor 2.

StefanV
2003-12-13, 18:47:56
Original geschrieben von aths
Genauso, wie Texelfüllrate wichtiger als Pixelfüllrate ist, ist arithmetische Gesamtleistung wichtiger als die Zahl der Pipes. Bei der Gesamtleistung ist ATI im Vorteil, aber nicht um Faktor 2.

1. genau, da scheint ATI die Latenzen wohl etwas besser im Griff zu haben als nV...

2. ja, es kann auch niemals etwas mit doppelter theoretischer Leistung doppelt so schnell sein, da man ja auch noch diverse Verluste irgendwo im Design hat.
Theoretisch müsste eine Radeon 9600 mit 275/270MHz exakt 1/4 (wenn ich mich nicht verschätzt hab) so schnell sein wie eine Radeon 9700.

Tatsächlich ist der Unterschied aber weit geringer, da die Radeon 9700 nicht so effizient rechnet wie eine 9600 (auf alle EInheiten gesehen)...

aths
2003-12-13, 18:55:23
Original geschrieben von Stefan Payne
1. genau, da scheint ATI die Latenzen wohl etwas besser im Griff zu haben als nV...Nee. Mit Latenzen hat das wenig zu tun.
Original geschrieben von Stefan Payne
2. ja, es kann auch niemals etwas mit doppelter theoretischer Leistung doppelt so schnell sein, da man ja auch noch diverse Verluste irgendwo im Design hat.
Theoretisch müsste eine Radeon 9600 mit 275/270MHz exakt 1/4 (wenn ich mich nicht verschätzt hab) so schnell sein wie eine Radeon 9700.

Tatsächlich ist der Unterschied aber weit geringer, da die Radeon 9700 nicht so effizient rechnet wie eine 9600 (auf alle EInheiten gesehen)... Stark vereinfacht: R300 hat 8 Pipes à 1 "voller" PS-Alu, NV35 hat 4 Pipes à 2 "vollen" Alus. Die ganze Wahrheit ist etwas komplizierter, so hat R300 zusätzlich eine "Mini-Alu" pro Pipe, und NV35 nutzt für 2 Texture Ops eine volle PS-Alu. Aber vereinfacht gesagt steht es wie 8x1 vs. 4x2, insgesamt also gleich.

MikBach
2003-12-13, 19:29:13
Original geschrieben von aths
... sondern auf PS2.X. Da sehe ich keinen großen Nachteil jetzt.
Was soll den hier "X" bedeuten? Eigener Standard von Nvidia?-Scherz,weiss, was Du meinst.
Zum Nachteil: Da wir PS2.0 haben, werden die Spieleentwickler das ausnutzen. Und eben hier ist Nvidia nicht gerade rasend schnell.


Wirklich gleiche Qualität kann man nicht bekommen.


Wenn wir uns auf die rechnerische Ebene unter Betrachtung der Abtastmuster usw. beschränken, dann mit Sicherheit nicht.
Aber, wenn wir des Empfinden des menschlichen Auges in Betracht ziehen, wäre eine "gleiche" Qualität machbar.

Demirug
2003-12-13, 19:46:11
Original geschrieben von MikBach
Was soll den hier "X" bedeuten? Eigener Standard von Nvidia?-Scherz,weiss, was Du meinst.
Zum Nachteil: Da wir PS2.0 haben, werden die Spieleentwickler das ausnutzen. Und eben hier ist Nvidia nicht gerade rasend schnell.

Derzeit wird noch nicht mal 2.0 ausgenutzt. Wurde man das gandenloss tun könnte man auf allen Karten nur Slideshows bewundern.

2.0 erlaubt 96 Ops (32 Tex + 64 Arithmetik) und 4 dependent Levels. Genutzt werden derzeit im Mittel 15-25 Ops und 1-2 dependent Levels.

Schreibt man seine Shader in HLSL ist es ein leichtes diese wahlweise für R3XX oder NV3X zu kompilieren. Ausser den gesparten Temps und der besseren Reihenfolge bringt das aber den FXen meist reichlich wenig da die derzeit benutzten Shader nicht viel enthalten was der Compiler für die FXen zusätzlich optimieren könnte.

Bei Shadern die an den 2.0 Limits kratzen hat nVidia sogar eine gewisse Gewinnmöglichkeit aber was nutzt das schon wenn man sich sowieso schon im unbenutzbar bereich befindet.

MikBach
2003-12-13, 20:08:24
Original geschrieben von Demirug
Derzeit wird noch nicht mal 2.0 ausgenutzt. Wurde man das gandenloss tun könnte man auf allen Karten nur Slideshows bewundern.
2.0 erlaubt 96 Ops (32 Tex + 64 Arithmetik) und 4 dependent Levels. Genutzt werden derzeit im Mittel 15-25 Ops und 1-2 dependent Levels.

Schreibt man seine Shader in HLSL ist es ein leichtes diese wahlweise für R3XX oder NV3X zu kompilieren. Ausser den gesparten Temps und der besseren Reihenfolge bringt das aber den FXen meist reichlich wenig da die derzeit benutzten Shader nicht viel enthalten was der Compiler für die FXen zusätzlich optimieren könnte.

Bei Shadern die an den 2.0 Limits kratzen hat nVidia sogar eine gewisse Gewinnmöglichkeit aber was nutzt das schon wenn man sich sowieso schon im unbenutzbar bereich befindet.

Ist mir schon klar, nur wenn wir über vertretbare Geschwindigkeiten reden (40 fps), dann werden die Shader "automatisch" auf ATI besser harmonieren.

Die meisten Enwickler dürften unter HLSL arbeiten, und auch die Shader für ATI und Nvidia optimieren - Nur wie Du schon sagtest bei den FXen bringt es wenig, bei ATI mehr, also kann man doch die Folgerung daraus ziehen, dass die nächsten PS/VS2.0-Spiele auf ATI "automatisch" besser laufen werden, denn die derzeit benutzten Shader dürften für die 1.Generation von PS2.0-Spielen recht aussagekräftig sein. Oder hat Nvidia noch irgendwelche "Zaubertricks" auf Lager? Wie z.B. spezieller Compiler oder o.ä.?

Demirug
2003-12-13, 20:32:08
Original geschrieben von MikBach
Die meisten Enwickler dürften unter HLSL arbeiten, und auch die Shader für ATI und Nvidia optimieren

Bezüglich HLSL bin ich mir nicht so sicher. Da gibt es immer noch Wiederstände.

Nur wie Du schon sagtest bei den FXen bringt es wenig, bei ATI mehr, also kann man doch die Folgerung daraus ziehen, dass die nächsten PS/VS2.0-Spiele auf ATI "automatisch" besser laufen werden, denn die derzeit benutzten Shader dürften für die 1.Generation von PS2.0-Spielen recht aussagekräftig sein.

Die 1. Generation von Spielen die PS 2.0 nutzen ist aussagekräftig für Spiele welche primär auf ATI-Hardware mit der Unterstüzung von ATI entwickelt wurden.

Oder hat Nvidia noch irgendwelche "Zaubertricks" auf Lager? Wie z.B. spezieller Compiler oder o.ä.?

nVidia arbeitet ja an mehreren Fronten.

1. Man versucht die Entwickler davon zu überzeugen das man PS 2.0 nur für Stellen benutzten soll wo es sich auch wirklich lohnt. Im Gegensatz zu ATI die predigen das man für jeden kleinen Shader 2.0 benutzen soll.

2. Man macht Vorschläge wie man übliche notwendige mathematische Operationen vereinfachen kann. Dabei reicht das Spectrum von mathematisch Gleichwertigen Varianten bis hin zu Verfahren die etwas ungenauer sind aber dafür viel Rechenlast einsparen.

3. Der automatische Shadercompiler arbeitet laut jemandem von nVidia derzeit durchgehend ohne Reduktion der Genauigkeit. Man hält sich aber offenen diesen so zu erweitern das er für einzelne Ops auch mal auf das FX12 zurückgreift.

Ist aber schwer zu sagen wann sich welche Massnahme wie auswirken wird.

MikBach
2003-12-13, 20:52:00
Original geschrieben von Demirug

nVidia arbeitet ja an mehreren Fronten.

1. Man versucht die Entwickler davon zu überzeugen das man PS 2.0 nur für Stellen benutzten soll wo es sich auch wirklich lohnt. Im Gegensatz zu ATI die predigen das man für jeden kleinen Shader 2.0 benutzen soll.

2. Man macht Vorschläge wie man übliche notwendige mathematische Operationen vereinfachen kann. Dabei reicht das Spectrum von mathematisch Gleichwertigen Varianten bis hin zu Verfahren die etwas ungenauer sind aber dafür viel Rechenlast einsparen.

3. Der automatische Shadercompiler arbeitet laut jemandem von nVidia derzeit durchgehend ohne Reduktion der Genauigkeit. Man hält sich aber offenen diesen so zu erweitern das er für einzelne Ops auch mal auf das FX12 zurückgreift.

Ist aber schwer zu sagen wann sich welche Massnahme wie auswirken wird.

1. Man kann ja bei einigen Shadern auf 1.4 ausweichen(DX 8.1- siehe MP2 und DeusEx2- und viele DX8.1-Spiele werden sicher folgen), nur ist das nichts für die Zukunft. Ausserdem werden 1.4Shader auch von ATI schneller abgearbeitet(siehe MP2). Das Problem beim PS1.4 ist es, dass er alle Nvidias ausser FX diskriminiert, und somit eine Breite Masse bestimmte "atmosphärische" Effekte(wie z.B. Spiegelungen in MP2) nicht zu Gesicht bekommt. Traurig, wenn man mit einer GF4TI4600(damals High-End) weniger sieht als mit einer r9000.
1.0-1.3 sind zu begrenzt- also für heute schon zu wenig, fur die Zukunft sowieso.

3. Ich dachte immer DX9 lässt nur FP laut Spezifikation zu. Will Nvidia eine Neue basteln?

Demirug
2003-12-13, 21:14:49
Original geschrieben von MikBach
1. Man kann ja bei einigen Shadern auf 1.4 ausweichen(DX 8.1- siehe MP2 und DeusEx2- und viele DX8.1-Spiele werden sicher folgen), nur ist das nichts für die Zukunft. Ausserdem werden 1.4Shader auch von ATI schneller abgearbeitet(siehe MP2). Das Problem beim PS1.4 ist es, dass er alle Nvidias ausser FX diskriminiert, und somit eine Breite Masse bestimmte "atmosphärische" Effekte(wie z.B. Spiegelungen in MP2) nicht zu Gesicht bekommt. Traurig, wenn man mit einer GF4TI4600(damals High-End) weniger sieht als mit einer r9000.
1.0-1.3 sind zu begrenzt- also für heute schon zu wenig, fur die Zukunft sowieso.

Man kann auch auf 1.1 ausweichen. Und als technisch zu schwach würde ich sie nicht bezeichnen. Bei HL2 reichen sie für das meiste noch gut aus.

Man sieht auf einer FX5200 auch mehr als auf einer R9000. :D

3. Ich dachte immer DX9 lässt nur FP laut Spezifikation zu. Will Nvidia eine Neue basteln?

Sagen wir es einmal so. In der Spec steht das die Werte im FP Format gespeichert werden müssen. Es gibt da aber noch einen schönen Zusatz bezüglich der Rechengenauigkeit.

Implementations vary precision automatically based on precision of inputs to a given op for optimal performance.

MikBach
2003-12-13, 21:27:19
Original geschrieben von Demirug
Man kann auch auf 1.1 ausweichen. Und als technisch zu schwach würde ich sie nicht bezeichnen. Bei HL2 reichen sie für das meiste noch gut aus.

HL2 macht regen Gebrauch von PS2.0- Shadern, und das zurecht.- Siehe Demos
So schönes Wasser kriegst Du selbst mit PS1.4Shadern nicht hin, und die ganzen Alu- und Kupferreflexionen die da auf dem Dach abgehen ebenso nicht.

Man sieht auf einer FX5200 auch mehr als auf einer R9000. :D
Nicht gut drauf heute?:(




Sagen wir es einmal so. In der Spec steht das die Werte im FP Format gespeichert werden müssen. Es gibt da aber noch einen schönen Zusatz bezüglich der Rechengenauigkeit.

Bei den Spezifikationen ist es genauso wie mit dem Recht, man kann es einfach "dehnen":(

aths
2003-12-13, 21:38:35
Original geschrieben von MikBach
Was soll den hier "X" bedeuten? Eigener Standard von Nvidia?-Scherz,weiss, was Du meinst.
Zum Nachteil: Da wir PS2.0 haben, werden die Spieleentwickler das ausnutzen. Und eben hier ist Nvidia nicht gerade rasend schnell.Bei 2.X ist ATI derzeit stärker im Nachteil — Radeons beherrschen das gar nicht — quasi 0 fps :)

Man braucht heute für vieles nicht unbedingt PS.2.0. Dank FX12 (ggü. FX9) hat NV in den FXen die 1.3-er Shader etwas aufgewertet.
Original geschrieben von MikBach
Wenn wir uns auf die rechnerische Ebene unter Betrachtung der Abtastmuster usw. beschränken, dann mit Sicherheit nicht.
Aber, wenn wir des Empfinden des menschlichen Auges in Betracht ziehen, wäre eine "gleiche" Qualität machbar. Eine GF kann die Gamma-Gegenkorrektur nicht nachbilden, eine Radeon kann Supersampling nicht nachbilden.

Exxtreme
2003-12-13, 21:40:57
Ohhhmann, jetzt geht das schon wieder los mit HW auf DX9 optimiert etc. Und Demirugs Vergleich ist auch IMHO z.T. die halbe Wahrheit da im Wesentlichen der Programmierer eines Spiels festlegt wie breit die Strasse sein darf. Wird es eine breite und kurvige Strasse dann kann die Hayabusa ihre Vorteile nicht ausspielen etc. und hier kann ein Ferrari vorbeiziehen wegen der besseren Straßenlage. Das Problem, welches NV hat, ist daß es auf dem derzeitigen Spielemarkt relativ wenig Spiele mit kurvigen und breiten Strassen gibt und die Nachteile des NV-Ferraris ggü. einer ATi-Hayabusa wesentlich stärker wiegen.

MikBach
2003-12-13, 21:42:36
Original geschrieben von aths
Bei 2.X ist ATI derzeit stärker im Nachteil — Radeons beherrschen das gar nicht — quasi 0 fps :)


2.X ist kein Standard, also reichen auch 0 fps, weil keiner damit programmiert.

Demirug
2003-12-13, 21:43:30
Original geschrieben von MikBach
HL2 macht regen Gebrauch von PS2.0- Shadern, und das zurecht.- Siehe Demos
So schönes Wasser kriegst Du selbst mit PS1.4Shadern nicht hin, und die ganzen Alu- und Kupferreflexionen die da auf dem Dach abgehen ebenso nicht.

Es sind genau 3 Effekte die wirklich von PS 2.0 profitieren. Wasser, Refraktion, Glas. Der Rest ist ganz gewöhnliches Vertex-Light und Light-Mapping. Nur weil im DX9 Modus alles mit 2.0 Shader gemacht wird muss das nichts heisen.

Nicht gut drauf heute?:(
Wieso? Der :D sollte doch klar machen wie das gemeint war.

Bei den Spezifikationen ist es genauso wie mit dem Recht, man kann es einfach "dehnen":(

Viel dehnen muss man da nicht. Zudem gibt es genügend Fälle wo es wirklich egal ist ob man nun FX12, FP16 oder gar FP32 rechnet weil das Ergebniss sowieso identisch ist.

Quasar
2003-12-13, 21:46:07
Original geschrieben von MikBach
2.X ist kein Standard, also reichen auch 0 fps, weil keiner damit programmiert.

Wie kommst du darauf, daß das kein Standard ist? Nur weil er derzeit nicht von allen unterstützt wird?

Exxtreme
2003-12-13, 21:49:19
Original geschrieben von Quasar
Wie kommst du darauf, daß das kein Standard ist? Nur weil er derzeit nicht von allen unterstützt wird?
AFAIK gibt es keinen PS2.x-Standard. PS2.x kann alles mögliche zw. PS2.0 und PS3.0 sein. Man kann aber die "erweiterten" Funktionen abfragen.

MikBach
2003-12-13, 21:49:34
Original geschrieben von Quasar
Wie kommst du darauf, daß das kein Standard ist? Nur weil er derzeit nicht von allen unterstützt wird?

Weil "X"=unbekannt.
Wenn da stehen würde 2.3, von Microsoft abgesegnet, dann ist es ein Standard von DX9, sonst Standard von Nvidia.

Demirug
2003-12-13, 21:51:02
Original geschrieben von MikBach
2.X ist kein Standard, also reichen auch 0 fps, weil keiner damit programmiert.

Also in meiner DX-Spec gibt es ein eigenes Kapitel zum 2.x Standard.

Sobald ich meinem Shadercompiler sage das er das 2.A Profil nutzen soll kommt ein 2.X Shader heraus. Es gibt also durchaus schon Anwendungen die 2.X Shader einsetzen.

Demirug
2003-12-13, 21:54:29
Original geschrieben von Exxtreme
Ohhhmann, jetzt geht das schon wieder los mit HW auf DX9 optimiert etc. Und Demirugs Vergleich ist auch IMHO z.T. die halbe Wahrheit da im Wesentlichen der Programmierer eines Spiels festlegt wie breit die Strasse sein darf. Wird es eine breite und kurvige Strasse dann kann die Hayabusa ihre Vorteile nicht ausspielen etc. und hier kann ein Ferrari vorbeiziehen wegen der besseren Straßenlage. Das Problem, welches NV hat, ist daß es auf dem derzeitigen Spielemarkt relativ wenig Spiele mit kurvigen und breiten Strassen gibt und die Nachteile des NV-Ferraris ggü. einer ATi-Hayabusa wesentlich stärker wiegen.

Ich weiss das er nicht perfekt war. Mir ging es darum das durch die Art wie MS die PS >= 2.0 spezifiziert hat es den Entwicklern nicht möglich macht die Leistung der FXen auch nur annähernd voll zu nutzen.

aths
2003-12-13, 21:55:39
Original geschrieben von MikBach
2.X ist kein Standard, also reichen auch 0 fps, weil keiner damit programmiert. 2.X ist genauso standardisiert (wie jedes DX-Feature) wie 2.0.

Demirug
2003-12-13, 21:59:12
Original geschrieben von Exxtreme
AFAIK gibt es keinen PS2.x-Standard. PS2.x kann alles mögliche zw. PS2.0 und PS3.0 sein. Man kann aber die "erweiterten" Funktionen abfragen.

Ja, aber es ist alles genau spezifiziert und damit auch ein standard.

Aufgrund desen was man in einen 2.x Shader reinpackt kann man genau sagen welche Caps man braucht und jede Karte die die entsprechenden Caps hat muss den Shader ausführen.

Zudem gilt das jede 3.0 Karte jeden beliebigen 2.x Schader ausführen können muss. Schreibt man also jetzt einen 2.x Shader welcher bestimmte Caps der FXen braucht muss dieser Shader auf einer ATI-Karte welche PS 3.0 beherscht laufen.

Exxtreme
2003-12-13, 22:01:17
Original geschrieben von aths
2.X ist genauso standardisiert (wie jedes DX-Feature) wie 2.0.
Nein, ist es AFAIK nicht, siehe mein voriges Posting. Es ist definiert, daß man einige PS3.0-Funktionen nutzen darf ohne volle PS3.0-Compliance erreicht zu haben. Wenn ein IHV eine eigene PS2.x-HW + Treiber veröffentlicht, kannst du nicht garantieren, daß NVs PS2.x-Shadercode auf der PS2.x-HW des anderen IHVs läuft.

Exxtreme
2003-12-13, 22:03:18
Original geschrieben von Demirug
Ja, aber es ist alles genau spezifiziert und damit auch ein standard.

Aufgrund desen was man in einen 2.x Shader reinpackt kann man genau sagen welche Caps man braucht und jede Karte die die entsprechenden Caps hat muss den Shader ausführen.

Zudem gilt das jede 3.0 Karte jeden beliebigen 2.x Schader ausführen können muss. Schreibt man also jetzt einen 2.x Shader welcher bestimmte Caps der FXen braucht muss dieser Shader auf einer ATI-Karte welche PS 3.0 beherscht laufen.
OK, dann sehe ich in der Bedeutung des Wortes "Standard" etwas anderes als andere Leute. :) Für mich ist PS2.x eher eine Art "Schwebezustand" zw. PS2.0 und PS3.0.

MikBach
2003-12-13, 22:03:22
Original geschrieben von Demirug
Also in meiner DX-Spec gibt es ein eigenes Kapitel zum 2.x Standard.

Sobald ich meinem Shadercompiler sage das er das 2.A Profil nutzen soll kommt ein 2.X Shader heraus. Es gibt also durchaus schon Anwendungen die 2.X Shader einsetzen.

Wenn Du hier mit "Anwendungen" Spiele meinst, dann kenne ich keins, auch eine Profianwendung ist mir nicht bekannt, aber vielleicht mienst Du einzelne Shader, ja das ist kein Problem. Mit 2.0Compiler kommen 2.0-Shader heraus, mit 2.ACompiler 2.X Shader ist auch klar, nur warum den PS2.0-Standard erweitern, wenn

Derzeit wird noch nicht mal 2.0 ausgenutzt. Wurde man das gandenloss tun könnte man auf allen Karten nur Slideshows bewundern.

2.0 erlaubt 96 Ops (32 Tex + 64 Arithmetik) und 4 dependent Levels. Genutzt werden derzeit im Mittel 15-25 Ops und 1-2 dependent Levels.

aths
2003-12-13, 22:04:36
Original geschrieben von Exxtreme
Nein, ist es AFAIK nicht, siehe mein voriges Posting. Es ist definiert, daß man einige PS3.0-Funktionen nutzen darf ohne volle PS3.0-Compliance erreicht zu haben. Wenn ein IHV eine eigene PS2.x-HW + Treiber veröffentlicht, kannst du nicht garantieren, daß NVs PS2.x-Shadercode auf der PS2.x-HW des anderen IHVs läuft. 2.X ist 2.0 mit Caps, die einzeln abgeprüft werden müssen. Trotzdem ist 2.X ein Standard. Beim PS baut alles aufeinander auf. Warum darf die FX in DX nur 512 (statt 1024) Instruktionen anbieten, 2.X hin oder her? Weil 3.0 alle 2.X-Caps mit einschließt.

aths
2003-12-13, 22:06:59
Original geschrieben von MikBach
nur warum den PS2.0-Standard erweitern, wenn Ist Fortschritt jetzt plötzlich Unsinn? Werden überhaupt schon 1.4-er Shader überall ausgenutzt? Oder anders, hätte NV ihre Shadertechnik rückschrittlicher machen sollen, nur damit ATI featuremäßig nicht im Nachteil ist?

Demirug
2003-12-13, 22:10:51
Original geschrieben von Exxtreme
OK, dann sehe ich in der Bedeutung des Wortes "Standard" etwas anderes als andere Leute. :) Für mich ist PS2.x eher eine Art "Schwebezustand" zw. PS2.0 und PS3.0.

Die ganze Fixed-Funktion Pipeline (DX7) ist ein noch schlimmerer "Schwebezustand". Es speicht also nicht dagegen 2.X Shader zu nutzen.

Letzten Endes ist aber (fast) alles was man mit DX machen kann standarisiert.

MikBach
2003-12-13, 22:12:18
Original geschrieben von aths
Ist Fortschritt jetzt plötzlich Unsinn? Werden überhaupt schon 1.4-er Shader überall ausgenutzt?

Genau, deswegen sage ich ja, erstmal auf PS/VS2.0 konzentrieren bevor man weiter mit 2.X experimentiert(denn dafür soll woll das "X" stehen).
"Überall" wird nie etwas ausgenutzt. Es kommen heute noch Spiele auf dem Stand von DX7 heraus.

aths
2003-12-13, 22:13:43
Original geschrieben von MikBach
Genau, deswegen sage ich ja, erstmal auf PS/VS2.0 konzentrieren bevor man weiter mit 2.X experimentiert(denn dafür soll woll das "X" stehen).
"Überall" wird nie etwas ausgenutzt. Es kommen heute noch Spiele auf dem Stand von DX7 heraus. Wieso auf 2.0 konzentrieren, wenn für vieles 1.4 oder gar noch 1.1 reicht?

MikBach
2003-12-13, 22:15:44
Original geschrieben von aths
Wieso auf 2.0 konzentrieren, wenn für vieles 1.4 oder gar noch 1.1 reicht?

Ich meinte, bevor man mit 2.X anfängt, sollte man erstmal 2.0 ausreizen, und natürlich wo es geht 1.4 oder< benutzen

Demirug
2003-12-13, 22:16:25
Original geschrieben von MikBach
Wenn Du hier mit "Anwendungen" Spiele meinst, dann kenne ich keins, auch eine Profianwendung ist mir nicht bekannt, aber vielleicht mienst Du einzelne Shader, ja das ist kein Problem.

-Shadermark benutzt in der Vollversion auch 2.X Shader

-3d Studio Max benutzt 2.X Shader wenn man das Cg Plugin benutzt.

-HL2 wird 2.X Shader benutzten.

-Bei Halo war es zumindestens vorgesehen.

Mit 2.0Compiler kommen 2.0-Shader heraus, mit 2.ACompiler 2.X Shader ist auch klar, nur warum den PS2.0-Standard erweitern, wenn

Mit 2.X kann man sich bei so manchem Shadern ein paar Anweisungen sparen. Das ist doch Grund genug, oder?

aths
2003-12-13, 22:17:01
Original geschrieben von MikBach
Ich meinte, bevor man mit 2.X anfängt, sollte man erstmal 2.0 ausreizen, und natürlich wo es geht 1.4 oder< benutzen Ich sehe keine Anzeichen, dass "überflüssigerweise" 2.X verwendet wird. Allerdings hat 2.0 ggü. 2.X mit den Caps die CineFX supportet eben Limits, die den einen oder anderen einschränken. Mit CineFX kannste beliebig swizzlen und bis zum Instructioncount-Limit Dependend Reads machen.

MikBach
2003-12-13, 22:22:45
Original geschrieben von aths
Ich sehe keine Anzeichen, dass "überflüssigerweise" 2.X verwendet wird. Allerdings hat 2.0 ggü. 2.X mit den Caps die CineFX supportet eben Limits, die den einen oder anderen einschränken. Mit CineFX kannste beliebig swizzlen und bis zum Instructioncount-Limit Dependend Reads machen.

Also, wenn Du schon fragst

Wieso auf 2.0 konzentrieren, wenn für vieles 1.4 oder gar noch 1.1 reicht?

kann ich Deinem Gedankengang nicht folgen.

MikBach
2003-12-13, 22:26:09
Original geschrieben von Demirug
-Shadermark benutzt in der Vollversion auch 2.X Shader


Habe aber gelesen, dass Nvidia nicht alle Shader im Shadermark darstellen kann, und das obwohl sie 2.X forcieren? Da stimmt etwas nicht.

Demirug
2003-12-13, 22:30:25
Original geschrieben von MikBach
Habe aber gelesen, dass Nvidia nicht alle Shader im Shadermark darstellen kann, und das obwohl sie 2.X forcieren? Da stimmt etwas nicht.

Das liegt nicht an den Shadern sondern daran das die Effekte die nicht funktionieren FP-Texturen brauchen welche der Treiber der FXen aufgrund eines WHQL-Problems nicht zur Verfügung stellen kann.

Die Shader würde schon laufen.

MikBach
2003-12-13, 22:34:56
Original geschrieben von Demirug
Das liegt nicht an den Shadern sondern daran das die Effekte die nicht funktionieren FP-Texturen brauchen welche der Treiber der FXen aufgrund eines WHQL-Problems nicht zur Verfügung stellen kann.

Die Shader würde schon laufen.

Wäre langsam Zeit solche WHQLProbleme zu lösen, damit später auch alle Spiele richtig funktionieren.

aths
2003-12-13, 22:36:03
Original geschrieben von MikBach
Also, wenn Du schon fragst

kann ich Deinem Gedankengang nicht folgen. Dieser Sprung sollte eigentlich ein imo vorhandene Inkonsequenz in deinen Gedanken aufzeigen :)

Demirug
2003-12-13, 22:38:07
Original geschrieben von MikBach
Wäre langsam Zeit solche WHQLProbleme zu lösen, damit später auch alle Spiele richtig funktionieren.

Dazu müssten sich MS und nVidia mal in dem Punkt eben mal einig werden. AFAIK wird aber gerade deswegen der entsprechenden WHQL-test geändert.

MikBach
2003-12-13, 22:40:53
Original geschrieben von aths
Dieser Sprung sollte eigentlich ein imo vorhandene Inkonsequenz in deinen Gedanken aufzeigen :)

Wenn Du das hier schreibst:
Original geschrieben von aths
Wieso auf 2.0 konzentrieren, wenn für vieles 1.4 oder gar noch 1.1 reicht?

Und dann den 2.0-Standard erweitern willst, bist Du imo inkonsequent.

aths
2003-12-13, 22:46:07
Original geschrieben von MikBach
Wenn Du das hier schreibst:


Und dann den 2.0-Standard erweitern willst, bist Du imo inkonsequent. Hm? Sollten die Features von CineFX in DX nicht ansprechbar sein, nur weil sie derzeit von nur wenigen Spielen "gebraucht" würden?

ow
2003-12-13, 22:47:22
Original geschrieben von MikBach
Wenn Du das hier schreibst:


Und dann den 2.0-Standard erweitern willst, bist Du imo inkonsequent.


Du schreibst doch die ganze Zeit selbst nur so inkonsequentes Zeugs? Da hat aths schon recht.

Also, wieso rein auf 2.0 konzentrieren und den 2.x ihre Existenzberechtigung absprechen?

MikBach
2003-12-13, 22:51:02
Original geschrieben von aths
Hm? Sollten die Features von CineFX in DX nicht ansprechbar sein, nur weil sie derzeit von nur wenigen Spielen "gebraucht" würden?

Was heisst "gebraucht" würden?

Wir haben doch festgestellt, dass V2.0 schon die heutigen Grakas bei Maximalspezifikationen hoffnungslos überfordern würde.

aths
2003-12-13, 22:54:03
Original geschrieben von MikBach
Was heisst "gebraucht" würden?

Wir haben doch festgestellt, dass V2.0 schon die heutigen Grakas bei Maximalspezifikationen hoffnungslos überfordern würde. Ich stelle nur fest, dass du versuchst, ATIs HW als "Standard" zu definieren. (Sicher hat ATI mit R300 den 2.0-Standard entscheidend geprägt, aber die Entwicklung geht eben weiter.) Würde man den vollen Instructioncount ausschöpfen, würde man Grakas schon mit 2.0 überfordern, ja. 2.X erlaubt aber etwas mehr, als mehr Instruktionen. Dank beliebigen Swizzles lassen sich z.B. Instruktionen einsparen. Ebenso kann man dank fehlendem Dependend-Read-Limit auf teure Multipass-Lösungen verzichten, wenn man mehr als 4 Abhängigkeits-Ebenen hat. 2.X kann bei aufwändigen Effekten für Performance-Steigerungen eingesetzt werden.

MikBach
2003-12-13, 22:56:26
Original geschrieben von ow
Du schreibst doch die ganze Zeit selbst nur so inkonsequentes Zeugs? Da hat aths schon recht.

Also, wieso rein auf 2.0 konzentrieren und den 2.x ihre Existenzberechtigung absprechen?

Weil ich es einfach nicht verstehe, dass, wenn für die meisten Sachen PS1.1-1.4 ausreichen, 2.0 genug "Reserven" hat, da noch ein 2.x reinzuwürgen.
Warum?
Um es den Spieleprogrammierern noch komplizierter zu machen?

aths
2003-12-13, 22:58:04
Original geschrieben von MikBach
Weil ich es einfach nicht verstehe, dass, wenn für die meisten Sachen PS1.1-1.4 ausreichen, 2.0 genug "Reserven" hat, da noch ein 2.x reinzuwürgen.
Warum?
Um es den Spieleprogrammierern noch komplizierter zu machen? Sollte lieber die Entwicklung gestoppt werden?? Und wieso "reinwürgen"?? Das ist ein zusätzliches Angebot, was da gemacht wird. Kluge Spieleprogrammierer verwenden Hochsprachen und Compiler, die haben nur wenig Mehraufwand.

ow
2003-12-13, 22:59:01
Original geschrieben von MikBach
Weil ich es einfach nicht verstehe, dass, wenn für die meisten Sachen PS1.1-1.4 ausreichen, 2.0 genug "Reserven" hat, da noch ein 2.x reinzuwürgen.
Warum?
Um es den Spieleprogrammierern noch komplizierter zu machen?

Es wird doch gar nicht komplizierter, das macht doch der Compiler der HLSL.

MikBach
2003-12-13, 23:03:50
Original geschrieben von aths
Sollte lieber die Entwicklung gestoppt werden??? Und wieso "reinwürgen"??? Das ist ein zusätzliches Angebot, was da gemacht wird. Kluge Spieleprogrammierer verwenden Hochsprachen und Compiler, die haben nur wenig Mehraufwand.

Natürlich darf die Enwicklung nicht gestoppt werden, aber dafür wurden ja auch schon V3.0-Shader in DX9 spezifiziert, damit die Entwickler bisschen planen können.
Wenn man jetzt den 2.0-Standard erweitert, gibt das doch nur ein durcheinander, und es bremst die Entwicklung, also genau das Gegenteil.

aths
2003-12-13, 23:06:53
Original geschrieben von MikBach
Natürlich darf die Enwicklung nicht gestoppt werden, aber dafür wurden ja auch schon V3.0-Shader in DX9 spezifiziert, damit die Entwickler bisschen planen können.
Wenn man jetzt den 2.0-Standard erweitert, gibt das doch nur ein durcheinander, und es bremst die Entwicklung, also genau das Gegenteil. Das halte ich doch für sehr gewagt konstruiert. Mit 2.X lassen sich einige Dinge schon jetzt nutzen, die später auch mit 3.0 verwendbar sind. Entwickler können schon heute "halbe" 3.0-er Shader schreiben — auf richtiger Hardware. Das befördert die Entwicklung natürlich. Dass es da ein großes Durcheinander gäbe, das bremsen würde, sehe ich nicht. Im Gegenteil, so mancher wird froh sein, dass er nicht auf 2.0 limitiert ist.

SamLombardo
2003-12-13, 23:13:32
Original geschrieben von MikBach
Natürlich darf die Enwicklung nicht gestoppt werden, aber dafür wurden ja auch schon V3.0-Shader in DX9 spezifiziert, damit die Entwickler bisschen planen können.
Wenn man jetzt den 2.0-Standard erweitert, gibt das doch nur ein durcheinander, und es bremst die Entwicklung, also genau das Gegenteil.

Mit PS 1.4 war es doch damals genau ds selbe. Wurde kaum benutzt, war eingentlich ein reines Werbefeature und hat dennoch keineswegs die Entwicklung blokiert.

StefanV
2003-12-13, 23:13:40
Original geschrieben von aths
Nee. Mit Latenzen hat das wenig zu tun.
Mit Latenz meine ich die Zeit/Takte, die die Pipeline braucht, zum Ausführung einer Anweisung, nur sicherheitshalber erwähnt, nicht daß wir aneinander vorbeireden...

Wobei das Temp File der FX irgendwie etwas zu klein geraten zu sein scheint, wodurch jene Karten beim Einsatz mehrerer Tempregister recht schnell in die Knie gehen...

Original geschrieben von aths
Stark vereinfacht: R300 hat 8 Pipes à 1 "voller" PS-Alu, NV35 hat 4 Pipes à 2 "vollen" Alus. Die ganze Wahrheit ist etwas komplizierter, so hat R300 zusätzlich eine "Mini-Alu" pro Pipe, und NV35 nutzt für 2 Texture Ops eine volle PS-Alu. Aber vereinfacht gesagt steht es wie 8x1 vs. 4x2, insgesamt also gleich.

Öhm, aths, ehrlich gesagt ist obige Erklärung irgendwie etwas verwirrend ?-)

Aber was du sagen wolltest:

R300 -> 8x1 ganze PS-ALUs + 8x1 teil ALUs
NV35 -> 4x2 PS Alus

MikBach
2003-12-13, 23:17:52
Original geschrieben von aths
Im Gegenteil, so mancher wird froh sein, dass er nicht auf 2.0 limitiert ist.

Wer und Wieso, und die wichtigste Frage "Wann"?
In 1,5 Jahren?

MikBach
2003-12-13, 23:21:32
Original geschrieben von SamLombardo
Mit PS 1.4 war es doch damals genau ds selbe. Wurde kaum benutzt, war eingentlich ein reines Werbefeature und hat dennoch keineswegs die Entwicklung blokiert.

PS1.4 kam mit der R8500, also lange her. Erst jetzt nutzen es Spiele wie MP2 oder DeuEx2.
Wenn das mit Shader2.X genauso geht, kann Nvidia aber laaaange warten.

Demirug
2003-12-13, 23:27:25
Original geschrieben von MikBach
Wer und Wieso, und die wichtigste Frage "Wann"?
In 1,5 Jahren?

Vor ein paar Monaten haben sich JC und ein paar Entwickler von STALKER schon beschwert das die R300 bei den Pixelshader immer noch so beschränkt sein. Für Spiele/Engines die in 2-3 Jahren auf den Markt kommen sollen muss jetzt die Grundlagenarbeit getan werden.

Der Punkt bei den 2.X Shadern ist das wenn man seine Shader in HLSL schreibt man einen Teil Verbesserungen von 2.X gegenüber 2.0 ohne jeden Mehraufwand nutzen kann. Das war bei den Shadern bisher so nicht der Fall.

MikBach
2003-12-13, 23:35:44
Original geschrieben von Demirug
Vor ein paar Monaten haben sich JC und ein paar Entwickler von STALKER schon beschwert das die R300 bei den Pixelshader immer noch so beschränkt sein. Für Spiele/Engines die in 2-3 Jahren auf den Markt kommen sollen muss jetzt die Grundlagenarbeit getan werden.

Der Punkt bei den 2.X Shadern ist das wenn man seine Shader in HLSL schreibt man einen Teil Verbesserungen von 2.X gegenüber 2.0 ohne jeden Mehraufwand nutzen kann. Das war bei den Shadern bisher so nicht der Fall.

1. Wundert mich ein bisschen, da ich noch eine Aussage von JC im Kopf habe, wo er behauptet, dass bei Doom3 ATI volle Qualität anbietet, Nvidia um auf die Leistung zu kommen jedoch reduzierte Genauigkeit braucht.
Grundlagenarbeit muss sein.

2. Das heisst ich kann einen Shader nehmen und durch Compiler2.0 und 2.x schicken, und ich kriege das gleiche Ergebnis, nur bei 2.X schneller ?

Demirug
2003-12-13, 23:36:32
Original geschrieben von MikBach
PS1.4 kam mit der R8500, also lange her. Erst jetzt nutzen es Spiele wie MP2 oder DeuEx2.
Wenn das mit Shader2.X genauso geht, kann Nvidia aber laaaange warten.

Auf der einen Seite ist die Situation nicht vergleichbar auf der anderen werden PS 1.4 schon länger eingesetzt. Da es aber nur Passreduktion war hat es keiner gemerkt.

Aber das gelbe von Ei sind die 1.4 Shader für Passreduktion sowieso nicht. Man kann 3 DX7 Passes automatsich reinpressen aber 2 PS 1.1 Passes schon nicht mehr. Und wenn man aus 2 PS 1.1 Passes dann 2 PS 1.4 Passes macht ist ja keinen geholfen. Aber selbst wenn man per Hand auf einen Pass herunter gekommen wäre hätte sich der Arbeitsaufwand nicht gelohnt.

Demirug
2003-12-13, 23:42:17
Original geschrieben von MikBach
1. Wundert mich ein bisschen, da ich noch eine Aussage von JC im Kopf habe, wo er behauptet, dass bei Doom3 ATI volle Qualität anbietet, Nvidia um auf die Leistung zu kommen jedoch reduzierte Genauigkeit braucht.
Grundlagenarbeit muss sein.

Die Aussage bezüglich der Beschränkung bezog sich bei JC auf Dinge nach DOOM III.

2. Das heisst ich kann einen Shader nehmen und durch Compiler2.0 und 2.x schicken, und ich kriege das gleiche Ergebnis, nur bei 2.X schneller ?

Der gleiche HLSL Shader kann nach dem compilieren mit 2.A (was einen 2.X Shader für NV3X Chips erzeugt) durchaus weniger Anweisungen brauchen als mit 2.0. Auf jeden Fall benutzt der Shader aber dann eine für NV3X Chips vorteilhafteren Anweisungsfolge und in der Regel auch weniger Temp-Register als beim 2.0 Shader.

PS: Es gibt nur einen Compiler dem man beim Aufruf sagt welches Profil man haben möchte.

MikBach
2003-12-13, 23:45:05
Original geschrieben von MikBach
1. Wundert mich ein bisschen, da ich noch eine Aussage von JC im Kopf habe, wo er behauptet, dass bei Doom3 ATI volle Qualität anbietet, Nvidia um auf die Leistung zu kommen jedoch reduzierte Genauigkeit braucht.


Link gefunden: http://www.pcgames.de/?article_id=224260

Edit: Also nach Doom3, aber meint er die nächste engine oder die nächsten Spiele(Quake4)

MikBach
2003-12-13, 23:51:29
Original geschrieben von Demirug

Der gleiche HLSL Shader kann nach dem compilieren mit 2.A (was einen 2.X Shader für NV3X Chips erzeugt) durchaus weniger Anweisungen brauchen als mit 2.0. Auf jeden Fall benutzt der Shader aber dann eine für NV3X Chips vorteilhafteren Anweisungsfolge und in der Regel auch weniger Temp-Register als beim 2.0 Shader.

PS: Es gibt nur einen Compiler dem man beim Aufruf sagt welches Profil man haben möchte.

Mit dem Compiler ist schon klar, sorry für die Ausdrucksweise.
Wo liegt denn dann das Problem 2.X statt 2.0 zu benutzen?
Benachteiligt es ATI?
Oder anders gefragt, um volle Leistung zu erhalten: ATI-2.0, Nvidia- 2.X?
Das wäre Mehraufwand für die Entwickler.

Demirug
2003-12-14, 00:03:28
Original geschrieben von MikBach
Edit: Also nach Doom3, aber meint er die nächste engine oder die nächsten Spiele(Quake4)

Er bezog sich auf Experimente mit der aktuellen DOOM III Engine. Ob diese aber in zukünfige Spiele mit dem aktuellen stand der Engine oder erst in die nächste grosse Revision der Engine (die werbewirksam als neue Engine verkauft wird) einflissen hat er offen gelassen.

Demirug
2003-12-14, 00:09:55
Original geschrieben von MikBach
Mit dem Compiler ist schon klar, sorry für die Ausdrucksweise.
Wo liegt denn dann das Problem 2.X statt 2.0 zu benutzen?
Benachteiligt es ATI?
Oder anders gefragt, um volle Leistung zu erhalten: ATI-2.0, Nvidia- 2.X?
Das wäre Mehraufwand für die Entwickler.

Ein 2.X Shader wird sobald er von den zusätzlichen 2.x Features gebrauch macht auf einem R300 Chips einfach nicht mehr laufen.

Ja, es ist vorteilhaft für ATI 2.0 und für nV 2.X Shader zu nutzen.

Wo ist der Mehraufwand wenn man einen Shader einmal als 2.0 und einmal als 2.X compiliert und dann den richtigen einlädt? Shadermanagment braucht man in einer Engine sowieso wegen der DX8 Shader für ältere Karten. Das 2 fache compilern der Shader lässt man vom Buildtool ebenfalls automatisch erledigen.

MikBach
2003-12-14, 00:20:05
Original geschrieben von Demirug

Wo ist der Mehraufwand wenn man einen Shader einmal als 2.0 und einmal als 2.X compiliert und dann den richtigen einlädt? Shadermanagment braucht man in einer Engine sowieso wegen der DX8 Shader für ältere Karten. Das 2 fache compilern der Shader lässt man vom Buildtool ebenfalls automatisch erledigen.

Also wenn das so einfach ist, dann spricht ja nichts gegen diese Variante. Die meisten Entwickler werden es so machen, wenn es echt so einfach ist.

Wenn Nvidia dadurch schneller wird(knapp ATI-performance), ist ja prima, denn dann haben wir 2 starke IHVs am Markt und (Preis-)konkurrenz, was natürlich besser für die User ist.

In der Praxis wird das aber wahrscheinlich nicht so rosig aussehen.

reunion
2003-12-14, 11:34:18
Original geschrieben von Demirug
-Shadermark benutzt in der Vollversion auch 2.X Shader


Was??
Warum kackt die FX dann speziell im Shadermark derartig ab, sollten die 2.X Shader für die FX nicht deutlich Vorteile bringen??

Demirug
2003-12-14, 12:01:24
Original geschrieben von reunion
Was??

Ja, aber nur in der Vollversion und man muss es einschalten.

Warum kackt die FX dann speziell im Shadermark derartig ab, sollten die 2.X Shader für die FX nicht deutlich Vorteile bringen??

Wegen maximal ein paar eingesparten Ops pro Shader springt eine FX nicht plötzlich viel höher. Das Umsortieren können ja notfalls auch die neuen Treiber. BTW 2.X Shader bringen auch erst wirklich etwas ab 5X.XX Treibern älteren Treiber haben da offentsichlich ein paar Probleme damit.

VooDoo7mx
2003-12-14, 12:48:40
Nun haben sich mir aber ein paar Fragen aufgeworfen...

Was ist denn genau FX12?

Wenn ein Programmierer ein Spiel auf DX9 mit 2.0 Shadern für ATi Hardware programmiert und im Gegenzug auch speziell auf die erweiterten FX-Shader, müsste doch die Shader Performance annähernd gleich sein oder?

Ich hab mal irgendwo was über DirectX 9.1 gelesen. Diese DX Version soll den Nvidia Karten extremst auf die Sprünge helfen und sie enorm beschleunigen.
Soweit ich weiß ist/war diese DX Version nur ein WUnschdenken von NV-Fans.

Aber nun lese ich auf COmputerbase.de in ihren aktuellen FX5950vs9800XT Review folgende Phrasen:
Betrachtet man zusätzlich die Shaderleistung, so können wir explizit der ATi Radeon 9800 XT eine wirkliche Empfehlung aussprechen. Die GeForce FX 5950 Ultra wird gegenüber der Konkurrenz von ATi wohl erst wieder unter einem bis jetzt noch nicht veröffentlichten DirectX 9.1 in diesem Bereich aufschließen können. Bis dahin muss man sich bei nVidia in der Shaderleistung einer ATi Radeon 9600 XT geschlagen geben.

Ist da nun doch was dran?

Ich hab mir jetzt allen Unkenrufen zu trotz doch eine FX5900 bestellt. Eine Albatron 5900PV Retail mit Vivo für 230€. Für eine Radeon muss ich laut Geizhals 260€ hinlegen und bekomme weder ViVo noch ein ordentliches Retail Bundle...
Kommt mir fast so vor als ob sich die FX5900 langsam zur Ti4200 entwickelt.
Preislich ist die FX5900 einfach unschlagbar.

LovesuckZ
2003-12-14, 12:51:41
Original geschrieben von VooDoo7mx
[I]Betrachtet man zusätzlich die Shaderleistung, so können wir explizit der ATi Radeon 9800 XT eine wirkliche Empfehlung aussprechen.

Interessant, ist doch die 5950 in Halo gleichschnell. Eventuell sollte de Redaktur sein geschreibsel einmal überfliegen...

Demirug
2003-12-14, 13:04:31
Original geschrieben von VooDoo7mx
Nun haben sich mir aber ein paar Fragen aufgeworfen...

Was ist denn genau FX12?

Ein Zahlenformat für Festpunktzahlen (Fixed Point). Die NV3X Architektur hat bei der Verwendung diese Formats in etwas die gleiche pro Takt PS-Leistung wie die NV2X Architektur.

Wenn ein Programmierer ein Spiel auf DX9 mit 2.0 Shadern für ATi Hardware programmiert und im Gegenzug auch speziell auf die erweiterten FX-Shader, müsste doch die Shader Performance annähernd gleich sein oder?

Ganz so einfach ist es leider nicht da man als Entwickler unter DX eben die volle PS-Rechenpower der NV3X Chips nicht nutzen kann.

Ich hab mal irgendwo was über DirectX 9.1 gelesen. Diese DX Version soll den Nvidia Karten extremst auf die Sprünge helfen und sie enorm beschleunigen.
Soweit ich weiß ist/war diese DX Version nur ein WUnschdenken von NV-Fans.

Aber nun lese ich auf COmputerbase.de in ihren aktuellen FX5950vs9800XT Review folgende Phrasen:
Betrachtet man zusätzlich die Shaderleistung, so können wir explizit der ATi Radeon 9800 XT eine wirkliche Empfehlung aussprechen. Die GeForce FX 5950 Ultra wird gegenüber der Konkurrenz von ATi wohl erst wieder unter einem bis jetzt noch nicht veröffentlichten DirectX 9.1 in diesem Bereich aufschließen können. Bis dahin muss man sich bei nVidia in der Shaderleistung einer ATi Radeon 9600 XT geschlagen geben.

Ist da nun doch was dran?

Computerbase erzählt hier Mist. Könnte daher ein hier anwesender Computerbase mitarbeiter den Kollegen bitte auf seinen Irtum hinweisen?

MikBach
2003-12-14, 13:04:53
Original geschrieben von VooDoo7mx
Nun haben sich mir aber ein paar Fragen aufgeworfen...

Was ist denn genau FX12?

Etwas, was in DX9 nichts zu suchen hat laut Spezifikation.


Ich hab mal irgendwo was über DirectX 9.1 gelesen. Diese DX Version soll den Nvidia Karten extremst auf die Sprünge helfen und sie enorm beschleunigen.
Soweit ich weiß ist/war diese DX Version nur ein WUnschdenken von NV-Fans.

Aber nun lese ich auf COmputerbase.de in ihren aktuellen FX5950vs9800XT Review folgende Phrasen:
Betrachtet man zusätzlich die Shaderleistung, so können wir explizit der ATi Radeon 9800 XT eine wirkliche Empfehlung aussprechen. Die GeForce FX 5950 Ultra wird gegenüber der Konkurrenz von ATi wohl erst wieder unter einem bis jetzt noch nicht veröffentlichten DirectX 9.1 in diesem Bereich aufschließen können. Bis dahin muss man sich bei nVidia in der Shaderleistung einer ATi Radeon 9600 XT geschlagen geben.

Ist da nun doch was dran?



Ich habe auch gelesen, dass durch DX9.1(welches es wahrscheinlich nie geben wird) die FP32-Einheiten um 60% schneller laufen sollen.
Das ist einfach nur ein Witz.
Die Abarbeitungsgeschwindigkeit einer FP-Einheit kann man nicht einfach so steigern.

MikBach
2003-12-14, 13:09:39
Sorry Doppelpost.

Demirug
2003-12-14, 13:12:04
Original geschrieben von MikBach
Etwas, was in DX9 nichts zu suchen hat laut Spezifikation.

Das stimmt so nicht ganz. DX9 unterstützt ja auch nach wie vor die PS 1.1-1.4 und auch die Fixed-Functions und dort darf man nach wie vor auch Fixed Point Formate nutzen.

Zudem gibt es ja diesen berüchtigten Satz in der Spec welcher durchaus die Option zur Nutzung von FX12 auch bei PS 2.0 offen lässt.

Ich habe auch gelesen, dass durch DX9.1(welches es wahrscheinlich nie geben wird) die FP32-Einheiten um 60% schneller laufen sollen.
Das ist einfach nur ein Witz.
Die Abarbeitungsgeschwindigkeit einer FP-Einheit kann man nicht einfach so steigern.

Da haben sich ein paar Leute etwas aus verschiedenen Quellen zusammengereimt.

Das ganze setzt sich aus 2 Dingen zusammen.

1. MS hat ein neues DX SDK herausgebracht welches den Shadercompiler für das 2.A Profil enthalten hat. 2.A ist dabei eindeutig für die NV3X Chips bestimmt.

2. nVidia hat einen neuen Treiber (Forceware) herausgebraucht der die Ausführung von PS um bis zu 60% beschleunigen kann.

Jemand hat das vermischt und ein DX 9.1 mit 60% steigerung für nVidia daraus gemacht.

MikBach
2003-12-14, 13:22:15
Original geschrieben von Demirug
Zudem gibt es ja diesen berüchtigten Satz in der Spec welcher durchaus die Option zur Nutzung von FX12 auch bei PS 2.0 offen lässt.


Ja genau:
"Implementations vary precision automatically based on precision of inputs to a given op for optimal performance."

Nur interpretiere ich das so, dass Du z.b FP24 statt FP32 werwenden kannst, aber FP , und nicht von FP24 auf FX12.

Demirug
2003-12-14, 13:31:12
Original geschrieben von MikBach
Ja genau:
"Implementations vary precision automatically based on precision of inputs to a given op for optimal performance."

Nur interpretiere ich das so, dass Du z.b FP24 statt FP32 werwenden kannst, aber FP , und nicht von FP24 auf FX12.

FP32 ist nirgends in der Spec vorgeschrieben.

Das Standardformat ist FP24 oder mehr.
Das reduzierte Format (PP) ist FP16 oder mehr.

Aus diesem Grund braucht man für die Verwendung von FP24 keine zusätzliche Regel. Auch die verwendung von FP16 ist ja durch das PP genau geregelt. Daher kann diese Regel nur Dinge betreffen die darüber hinaus gehen. Zudem ist ein übergang von FP16 auf FX12 solange man keinen grösseren zahlenraum als [-2,2) braucht optisch sowieso nicht sichtbar. Maximal 1/256 Fehlerrate.

VooDoo7mx
2003-12-14, 13:35:33
Original geschrieben von LovesuckZ
Interessant, ist doch die 5950 in Halo gleichschnell. Eventuell sollte de Redaktur sein geschreibsel einmal überfliegen...

Was vielleicht sogar daran liegt, dass dieses Game doch die erwiterteten FX Shader nutzt.
Vor dem erscheinen wurde Halo ja auch als Cg spiel tituliert.

Falls dieses Spiel diese Shader wirklich nutzt, dann wäre das ein kleiner Vorgeschmack, auf das Potential was die FX Shader leisten könnten.
Wie shaderlastig Halo ist was ja so ziemlich jeder. In diesen Spiel werden sie an jeder Ecke einegsetzt wo es jeder normale Spieleprogrammierer für unsinnig halten würde.

Was mich auch interessieren würde wie sich die Shader 2.X auf das Gesamtergebnis im Shadermark 2.0 auswirken. Also wie hoch der Leistungsgewinn przentual ist. Gibt es da vielleicht einen Artikel zu?

MikBach
2003-12-14, 13:42:58
Original geschrieben von Demirug
FP32 ist nirgends in der Spec vorgeschrieben.

Das Standardformat ist FP24 oder mehr.
Das reduzierte Format (PP) ist FP16 oder mehr.

Aus diesem Grund braucht man für die Verwendung von FP24 keine zusätzliche Regel. Auch die verwendung von FP16 ist ja durch das PP genau geregelt. Daher kann diese Regel nur Dinge betreffen die darüber hinaus gehen. Zudem ist ein übergang von FP16 auf FX12 solange man keinen grösseren zahlenraum als [-2,2) braucht optisch sowieso nicht sichtbar. Maximal 1/256 Fehlerrate.

Scheiss Vergleich habe ich da gewählt.
Meinte eigentlich: statt Standard-also FP24, kann man FP16(reduziertes Format) verwenden. Aber an Fixpoint hat der Autor dieses berühmten Satzes bestimmt nicht gedacht.
Aber das ist halt Interpretationssache, weiter werden wir wohl mit unseren "Überlegungen" nicht kommen.

MikBach
2003-12-14, 13:52:33
Original geschrieben von LovesuckZ
Interessant, ist doch die 5950 in Halo gleichschnell. Eventuell sollte de Redaktur sein geschreibsel einmal überfliegen...

Lasst doch endlich mal Halo in Ruhe.
Es ist ein schlecht programmiertes "aufgebohtes" Konsolenspiel, wo die engine doch auf DX8 basiert und um DX9 erweitert wurde. Nicht gerade representativ für den PC.
Dann kan man ja auch mit TR6 kommen, und da ergeht es Nvidia nicht so gut.

Demirug
2003-12-14, 13:52:50
Original geschrieben von VooDoo7mx
Was vielleicht sogar daran liegt, dass dieses Game doch die erwiterteten FX Shader nutzt.
Vor dem erscheinen wurde Halo ja auch als Cg spiel tituliert.

Falls dieses Spiel diese Shader wirklich nutzt, dann wäre das ein kleiner Vorgeschmack, auf das Potential was die FX Shader leisten könnten.
Wie shaderlastig Halo ist was ja so ziemlich jeder. In diesen Spiel werden sie an jeder Ecke einegsetzt wo es jeder normale Spieleprogrammierer für unsinnig halten würde.

Streich Halo mal ganz schnell von deiner Liste der 2.X Spiele. Derzeit enthält das Spiel nur 2.0 Schader welche zudem noch alle äusert ungünstig für die NV3X Chips aufgebaut sind. Das was man also derzeit an Performance der FXen unter Halo sieht geht auf die Kappe der Treiberentwickler.

Mit einem Patch wird Halo unter umständen auch 2.X Shader nutzen aber das ist ungewiss.

Was mich auch interessieren würde wie sich die Shader 2.X auf das Gesamtergebnis im Shadermark 2.0 auswirken. Also wie hoch der Leistungsgewinn przentual ist. Gibt es da vielleicht einen Artikel zu?

Shadermark dürfte inzwischen vom Treiber erkannt werden wodurch das ganze witzloss ist.

Demirug
2003-12-14, 13:57:29
Original geschrieben von MikBach
Scheiss Vergleich habe ich da gewählt.
Meinte eigentlich: statt Standard-also FP24, kann man FP16(reduziertes Format) verwenden. Aber an Fixpoint hat der Autor dieses berühmten Satzes bestimmt nicht gedacht.
Aber das ist halt Interpretationssache, weiter werden wir wohl mit unseren "Überlegungen" nicht kommen.

Sicher lässt die Sache Interpretationsspielraum.

Aber ein automatischer Wechsel von FP24 auf FP16 macht eben wenig sinn weil die Entwickler hier ja die Möglichkeit haben dies selbst zu veranlassen. Von FP16 auf FX12 kann man aber leidern nicht erzwingen auch wenn es oft Sinn macht.

Demirug
2003-12-14, 14:03:09
Original geschrieben von MikBach
Lasst doch endlich mal Halo in Ruhe.
Es ist ein schlecht programmiertes "aufgebohtes" Konsolenspiel, wo die engine doch auf DX8 basiert und um DX9 erweitert wurde. Nicht gerade representativ für den PC.
Dann kan man ja auch mit TR6 kommen, und da ergeht es Nvidia nicht so gut.

Es ist derzeit schwer ein wirklich representatives Spiel zu finden. Aber war es das nicht schon immer?

Was ist der Unterschied zwischen einer DX8 und DX9 Engine? Die eine kann PS/VS >= 2.0 die andere nicht. Halo unterstützt Shader >= 2.0 benutzt also eine DX9 Engine.

Ob sie nun gut oder schlecht programmiert ist oder die Designer für die mässige Leistung vernatwortlich sind lässt sich schwer sagen ohne einen Editor.

Gast
2003-12-14, 14:49:04
Moin Leutz,
ich will euch bei eurem ausführlichen Thread ja nicht stören, aber das ist mir doch zuviel alles zu lesen. Könnt ihr mal gerade ein kleines Fazit zur ÜBerschrift (Radeon 9800 oder Fx5900g) schreiben.

Thx
Gast

aths
2003-12-14, 15:14:34
Original geschrieben von MikBach
Wer und Wieso, und die wichtigste Frage "Wann"?
In 1,5 Jahren? _Jetzt_. Siehe Demirugs Liste, wo es bereits eingesetzt wird.

Original geschrieben von MikBach
PS1.4 kam mit der R8500, also lange her. Erst jetzt nutzen es Spiele wie MP2 oder DeuEx2.
Wenn das mit Shader2.X genauso geht, kann Nvidia aber laaaange warten. Von DX7-Multitexturing zu DX8-Shadern hat es ziemlich lange gedauert. Von DX8-Shadern zu DX9-Shadern schon nicht mehr ganz so lange. Die Entwicklung beschleunigt sich. Ich glaube nicht, dass Nvidia so "laaange" warten muss.

aths
2003-12-14, 15:20:30
Original geschrieben von MikBach
Mit dem Compiler ist schon klar, sorry für die Ausdrucksweise.
Wo liegt denn dann das Problem 2.X statt 2.0 zu benutzen?
Benachteiligt es ATI?
Oder anders gefragt, um volle Leistung zu erhalten: ATI-2.0, Nvidia- 2.X?
Das wäre Mehraufwand für die Entwickler. Ein wenig schon. Aber, na und? Was ist daran schlimm?


Original geschrieben von VooDoo7mx
Nun haben sich mir aber ein paar Fragen aufgeworfen...

Was ist denn genau FX12?Das wird ein zukünftiger Artikel ganz genau erklären :)

Original geschrieben von VooDoo7mx
Ist da nun doch was dran?Nein, dem Autoren von CB habe ich auch schon 'ne Mail zukommen lassen (bislang leider keine Antwort erhalten.)

MikBach
2003-12-14, 15:49:07
Original geschrieben von aths
Ein wenig schon. Aber, na und? Was ist daran schlimm?


Du hast Dir wahrscheinlich nicht die Mühe gemacht alle Posts von Demirug und mir durchzulesen, denn dann wüsstest Du, dass die Frage von Demirug für mich hinreichend erklärt wurde.
Ausserdem musst ja nicht direkt so gereizt reagiern.

VooDoo7mx
2003-12-14, 15:53:06
Original geschrieben von aths
Das wird ein zukünftiger Artikel ganz genau erklären :)


Wovon ich wieder mal ansatzweise 5% verstehe.

:schlag: :schlag: :schlag:

aths
2003-12-14, 16:02:25
Original geschrieben von MikBach
Du hast Dir wahrscheinlich nicht die Mühe gemacht alle Posts von Demirug und mir durchzulesen, denn dann wüsstest Du, dass die Frage von Demirug für mich hinreichend erklärt wurde.
Ausserdem musst ja nicht direkt so gereizt reagiern. Das ist eigentlich gar nicht gereizt gemeint gewesen.