PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 16-Bit-Schwäche bei R300


Unregistered
2002-07-18, 23:19:33
Von Extremetech (http://www.extremetech.com/print_article/0,3998,a=29247,00.asp):
It turns out that something (that ATI declined to get into detail about) prevents their SmoothVision AA from working correctly on games with 16-bit artwork. This could be quite troubling for gamers who still play a lot of older games. Of course, given the reduced fill-rate requirements to push 16-bit pixels around, you could simply crank the resolution to the game's max (in NHL 2002's case, 1600x1200) and rid yourself of much of the visible aliasing, but it's still useful to point out to gamers who are still playing older titles that support only 16-bit color rendering modes.
Ich weiß nicht, welche Spiele nur 16-Bit-Texturen haben. NHL 2002 ist sicher kein sehr altes Spiel, und trotzdem macht die R300 im Vergleich zur GF4 nur den zweiten Preis.
Es wäre interessant, wenn Reviewer diese 16-Bit-Schwäche genauer analysieren können.
Es gibt alte Spiele, die ich schon seit langer Zeit besitze, aber die auf einer GF3 mit Optionen wie hoher Auflösung, AA und AF wirklich unspielbar langsam sind, weswegen ich auf eine neue Grafiklösung warte. Möglicherweise wird auch die R300 daran scheitern.

ow
2002-07-18, 23:26:22
a) falls da überhaupt was dran ist, dann geht es nicht um 16Bit Texturen, sondern 16Bit rendering-Fartiefe (16Bit Framebuffer).

b) fällt mir im Moment nichts ein, warum das AA der Radeon bei 16Bit scheitern sollte. AA ist ja nicht von der Farbtiefe abhängig.

Unregistered
2002-07-19, 00:03:12
Originally posted by ow
a) falls da überhaupt was dran ist, dann geht es nicht um 16Bit Texturen, sondern 16Bit rendering-Fartiefe (16Bit Framebuffer).

b) fällt mir im Moment nichts ein, warum das AA der Radeon bei 16Bit scheitern sollte. AA ist ja nicht von der Farbtiefe abhängig.
Zu a) Weswegen sollte Extremetech so etwas erfinden, und auch noch dazu erfinden, dass ATi sich nicht dazu äußern wollte?

Zu b) s. zu a)

ow
2002-07-19, 00:12:26
zu a) u. b)

Vielleicht nur einer der öfter mal auftretenden Treiberprobleme bei ATi.

Ansonsten: hab keine Ahnung.:)

askibo
2002-07-19, 00:37:57
Here you see that on two of these four titles, Radeon is ahead, but not by the dramatic gaps we saw with 3DMark 2001SE. On UT 2003, however, ATI is just about 2X faster. We ran into an odd glitch with NHL 2002 here. As it turns out, not only is the game's artwork 16-bit, but the engine is locked down at 16-bit, and there's no way to even have it run supposedly at 32-bit, which each 32-bit word carrying 16 dead bits

Vielleicht rendert der R300 Kyro-like alles in 32 bit. Ist aber unwahrscheinlich da es einem der Previewer sicher schon aufgefallen wäre oder ATI es erwähnt hätte.



Ich tippe auch auf einen Treiberbug.

ow
2002-07-19, 00:46:35
@askibo


Äh... also intern rechnen die Chips alle mit min. 32Bit, nicht nur der Kyro.

Salvee
2002-07-19, 00:47:55
Also besteht das Problem darin, dass bei NHL2002 der 32Bit-Modus nicht funktioniert?
Haben die EA-Games eigentlich immer noch dieses 3D-Setup, das versucht, die Graka zu identifizieren um dann entsprechende Settings vorzunehmen?
War ja schon zu Voodoo3-Zeiten ein reiner Quell der Freude, diese Games überhaupt zum laufen zu kriegen...

GloomY
2002-07-19, 00:48:59
Originally posted by askibo
Vielleicht rendert der R300 Kyro-like alles in 32 bit. Ist aber unwahrscheinlich da es einem der Previewer sicher schon aufgefallen wäre oder ATI es erwähnt hätte.Unmöglich für einen Immediate Renderer.

Ausserdem hätte das nichts mit AA zu tun.

edit:
Originally posted by ow
@askibo


Äh... also intern rechnen die Chips alle mit min. 32Bit, nicht nur der Kyro. Bei Transparenzeffekten aber auf 16 Bit runtergerechnet, wieder mit 32 Bit geblendet und dann wieder auf 16 Bit runtergerechnet.

askibo
2002-07-19, 01:18:52
Originally posted by GloomY
Unmöglich für einen Immediate Renderer.

edit:
Bei Transparenzeffekten aber auf 16 Bit runtergerechnet, wieder mit 32 Bit geblendet und dann wieder auf 16 Bit runtergerechnet.

Warum sollte ein IR nicht alles in 32bit rendern können?


Ausserdem hätte das nichts mit AA zu tun.

Stimmt, soll ja nur bei AA auftreten. Hab ich überlesen.

Radeonator
2002-07-19, 01:21:31
Ehm, hallo? Geht noch was??? Wer soll den bitteschön, mit einem Grafikmonster wie diesem, in 16 poppeligen bitchen Farbtiefe daddeln :bonk: das mach jetzt ja schon keiner mehr...:P

LovesuckZ
2002-07-19, 01:25:31
Originally posted by Radeonator
Ehm, hallo? Geht noch was??? Wer soll den bitteschön, mit einem Grafikmonster wie diesem, in 16 poppeligen bitchen Farbtiefe daddeln :bonk: das mach jetzt ja schon keiner mehr...:P

Es soll noch Leute geben, die aeltere Spiele spielen, welche ueber keinen 32bit Modus verfuegen. Diese muessen dann wohl auf 16Bit zurueckgreifen :|
Das steht sogar in den Artikel:
...but it's still useful to point out to gamers who are still playing older titles that support only 16-bit color rendering modes.

Desti
2002-07-19, 10:58:02
Das ist halt der Preis des Fortschritts, alte glide games laufen ja auch nicht richtig auf GeForce4 Karten, obwohl nVidia 3dfx gekauft hat.

Unregistered
2002-07-19, 11:40:05
Originally posted by Radeonator
Ehm, hallo? Geht noch was??? Wer soll den bitteschön, mit einem Grafikmonster wie diesem, in 16 poppeligen bitchen Farbtiefe daddeln :bonk: das mach jetzt ja schon keiner mehr...:P
Ehm, hallo? Geht noch was???
NHL 2002 ist kein altes Spiel. EvilTwin ist auch kein sehr altes Spiel, mit einer GF3 bleibt es aber nur in niedriger Auflösung ohne AA / AF in spielbaren Regionen (weiß aber nicht, ob EvilTwin auch vom 16-Bit-Problem betroffen ist).
:bonk:

Dunkeltier
2002-07-19, 17:23:26
Ich benutze nicht 16 Bit Farbtiefe, und selbst mein einzig altes Spiel (Half-Life) welches ich spiele unterstützt 32 Bit. Also kann die Qualität noch so übel sein, interessiert mich nicht die Bohne.

BTW, wann werden die geforderten 64 Bit endlich mal verfügbar gemacht?

GloomY
2002-07-19, 17:24:41
Originally posted by askibo
Warum sollte ein IR nicht alles in 32bit rendern können?Bei Transparenzeffekten muss ein Immediate Renderer den Zwischenwert immer erst im Framebuffer ablegen und der ist bei 16 Bit Farbtiefe (per Definition) halt nur 16 Bit groß.
Das runtergerechnete Ergebnis wird dann wieder ausgelesen (man bemerke die eigentlich unnötigen zwei Lese/Schreib-Operationen) und im Chip (d.h. mit 32 Bit Genauigkeit (oder mehr)) mit dem nächsten Farbwert geblendet. Danach wird wieder auf 16 Bit reduziert, um dann wieder in den Framebuffer zu schreiben.
Bei einem weiteren Transparenten Dreieck geht das Spiel wieder von vorne los.
Ein Tiler kann dagegen mit einem On-Chip Cache alle Berechnungen in 32 Bit ausführen und erst zu aller Letzt das Ergebnis auf 16 Bit runterrechnen, wenn es in den Framebuffer geschrieben wird.
Ein Immediate Renderer muss bei n transparenten Dreiecken n+1 Mal auf 16 Bit runterrechnen, während ein Tiler das nur ein Mal muss.

Ein Cache wäre bei einem Immediate Renderer zwar theoretisch auch möglich, dann müsste man aber den gesamten Framebuffer als Größe nehmen. Dieser kann schon mal ziemlich groß werden (1600x1200 oder noch größer) und ist nicht konstant groß (32x16 bzw. 32x1 Pixel, je nach Implementation) wie eine einzelne Kachel bei einem Tiler.
Btw: für einen Cache braucht man SRAM, meist mit 6 Transistoren pro Bit. Wie viele das für 1600x1200, 32 Bit sind, kannst du dir selbst ausrechnen... ;)

Premium
2002-07-19, 18:20:48
Ich benutze nicht 16 Bit Farbtiefe, und selbst mein einzig altes Spiel (Half-Life) welches ich spiele unterstützt 32 Bit. Also kann die Qualität noch so übel sein, interessiert mich nicht die Bohne.

genau, außerdem scheit die Zukunft ja 64Bit oder gar 128 Bit zu sein...

HiddenGhost
2002-07-19, 18:35:18
Weswegen könnte 16bit Smoothvision aus dem Takt bringen ???
Zugegeben, für 16bit war die Radeon Architketur wohl nie ausgelegt, aber die Farbtiefe spielt doch keine Rolle ,bei keinem der bisher bekannten FSAA verfahren !!!

ow
2002-07-19, 18:35:44
Bitte nicht interne Rendergenauigkeit (64 oder 128Bit Farbe) mit externer Framebufferfarbtiefe (32Bit) verwechseln.

DrFreaK666
2002-07-19, 22:25:41
ich hätte da ne Idde.
Smoothvision gibts ja auch in zwei Qualitätsstufen.
Vielleicht wird unter 16bit noch Supersampling unterstützt, warum auch immer.
Und die Voodoo5 konnte 32bit-farbtiefe erzwingen!!!!!!
Warum kann es keine der neuen Karten??

Greetz DrFreaK666