PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 16Bit-32Bit fast Gleichschnell????


Gabber
2002-05-31, 16:45:39
Is mir jetzt schon aufgefallen...egal ob Real-Game oder 3dMurks, 16 bit ist fast um nicht schneller.

JK2. in 16 Bit um ~5 frames schneller
MaxPayne(shooter+vga bench)in 16Bit +5fps im average fps bereich

3dmark2001: +400 Punkte bei 16 bit/commpressed textures, 16bitz buffer)

wie kann sowas sein?? bei meiner alten GTS hatte ich zeitweise bis zu 30% einbuße... und die ati is sogut wie gleichschnell?? bitte nen spezialisten um erklärung..

zeckensack
2002-05-31, 16:57:05
16bit ist irrelevant - wir sind die Borg.

Neee, aber stimmt trotzdem. ATi-Grakas ab der Rage128 gewinnen so gut wie nichts im 16bit-Modus.

Wozu auch?
Ich hab' selbst auf meiner ollen Riva TNT alles in 32 bit gespielt ...

StefanV
2002-05-31, 17:02:43
Tja, die Kanadier bauen halt richtige Chips mit einem guten 32bit Modus *eg*

ow
2002-05-31, 18:37:28
Originally posted by zeckensack


Wozu auch?
Ich hab' selbst auf meiner ollen Riva TNT alles in 32 bit gespielt ...


Ich auch =)

ow
2002-05-31, 18:38:41
Originally posted by Stefan Payne
Tja, die Kanadier bauen halt richtige Chips mit einem guten 32bit Modus *eg*


Du meinst sie bauen einen sehr schlechten 16Bit Modus.*eg*

Gabber
2002-05-31, 19:26:41
also mit der tnt 32bit? kann i ma ned vorstelln...wenn i mit meiner tnt2 auf 32 bit gezockt hab, hatte ich nur noch ruckeln..egal welches game..
fast das selbe mit der GTS... freiwillig auf 16bit.... da 30% leistungseinbuße bei 32bit und somit unspielbar...
zugegeben, wenn die ati auc hso viel verlieren würde, würd i a umstelln, weil i no imemr der meinung bin, das man keine 32bit braucht um schön spielen zu können

zeckensack
2002-05-31, 19:32:22
Originally posted by Gabber
also mit der tnt 32bit? kann i ma ned vorstelln...wenn i mit meiner tnt2 auf 32 bit gezockt hab, hatte ich nur noch ruckeln..egal welches game..
fast das selbe mit der GTS... freiwillig auf 16bit.... da 30% leistungseinbuße bei 32bit und somit unspielbar...
zugegeben, wenn die ati auc hso viel verlieren würde, würd i a umstelln, weil i no imemr der meinung bin, das man keine 32bit braucht um schön spielen zu können Bei mir waren es Quake3 und UT in 640x480x32bit. Beides konnte ich damit auf angemessenem Schwierigkeitsgrad durchspielen. (Q3 auf Hardcore, UT auf 'experienced'). 800x600x16 war ungefähr genauso schnell/langsam, sah mir persönlich aber nicht schön genug aus ;)

ah jo, damals hatte ich noch meinen K6-3-400 auf Asus P5A (1MB L3-Cache) und 128MB SDRAM.

Nero
2002-05-31, 19:32:54
Originally posted by Gabber
also mit der tnt 32bit? kann i ma ned vorstelln...wenn i mit meiner tnt2 auf 32 bit gezockt hab, hatte ich nur noch ruckeln..egal welches game..
fast das selbe mit der GTS... freiwillig auf 16bit.... da 30% leistungseinbuße bei 32bit und somit unspielbar...
zugegeben, wenn die ati auc hso viel verlieren würde, würd i a umstelln, weil i no imemr der meinung bin, das man keine 32bit braucht um schön spielen zu können

Ist ja auch eine GeForce. Aber es stimmt schon das ATi im 16bit Modus wenig Performce gewinnt wie z.B. auch die KyroII. Kommt halt von dem internen 32bit Rendering. Außerdem würde ich nie mehr in 16bit Spielen, lieber die Auflösung runter drehen.

CU
Nero

ZilD
2002-05-31, 20:42:08
16 bit gut
24 bit optimal
32 bit eigentlich unnötig (find ich)

Liszca
2002-05-31, 22:23:00
Originally posted by zeckensack
Bei mir waren es Quake3 und UT in 640x480x32bit. Beides konnte ich damit auf angemessenem Schwierigkeitsgrad durchspielen. (Q3 auf Hardcore, UT auf 'experienced'). 800x600x16 war ungefähr genauso schnell/langsam, sah mir persönlich aber nicht schön genug aus ;)

ah jo, damals hatte ich noch meinen K6-3-400 auf Asus P5A (1MB L3-Cache) und 128MB SDRAM.

damals hatte ich nen richtigen 3d beschleuniger: 2x voodoo2 im sli modus, oder wars doch etwas später ??? nein, kann nicht sein in der pc action war die riva 128 auf platz 1 unter den kombi karten, welche ich als 2d karte hatte von diamond!

zeckensack
2002-05-31, 22:28:56
Originally posted by Liszca


damals hatte ich nen richtigen 3d beschleuniger: 2x voodoo2 im sli modus, oder wars doch etwas später ??? nein, kann nicht sein in der pc action war die riva 128 auf platz 1 unter den kombi karten, welche ich als 2d karte hatte von diamond! Jupp, das muß also noch vor Erscheinen des Rendition V2200 gewesen sein. Der hat die Riva 128 nämlich ganz ordentlich abgefegt ...

Liszca
2002-05-31, 22:56:22
Originally posted by zeckensack
Jupp, das muß also noch vor Erscheinen des Rendition V2200 gewesen sein. Der hat die Riva 128 nämlich ganz ordentlich abgefegt ...

auf welchen karten wurde dir redition verbaut ???

StefanV
2002-05-31, 22:59:27
Originally posted by Liszca


auf welchen karten wurde dir redition verbaut ???

z.B. Hercules Thriller.

Iceman346
2002-05-31, 23:57:17
Ich finde man sieht fast in jedem Spiel einen deutlichen Unterschied zwischen 16 und 32bit. Darum bin ich eigentlich froh darüber, daß die Radeon so wenig verliert (und die Kyro 2 davor :))

Exxtreme
2002-06-01, 00:01:02
Originally posted by zeckensack
Jupp, das muß also noch vor Erscheinen des Rendition V2200 gewesen sein. Der hat die Riva 128 nämlich ganz ordentlich abgefegt ...
Sorry, aber IMHO ist der Riva128 der mit Abstand schlechteste Beschleuniger, den ich jemals hatte. Die wenigsten Spiele liefen mit bilinearen Filter, ständige Grafikfehler usw. Da hat die 2 Wochen später dazugekaufte Voodoo2 geruhlt ohne Ende.

Gruß
Alex

HiddenGhost
2002-06-01, 13:02:46
Originally posted by ZilD
16 bit gut
24 bit optimal
32 bit eigentlich unnötig (find ich)

Ähm *räusper*... mit höherer Farbauflösung werden potenzielle Farbfehler durch das Renderings minimiert , oder warum glaubst fordert FPS Guru Carmack seit langem 64bit Rendering (16 bit pro Farbwert (R-G-B) und noch mal 16bit ür den Alphakanal ???

Deshalb ist es ja wohl auch positiv, dass die 32bt Engine fast genauso schnell ist wie die 16bit Lösung, oder umgekehrt, je nach dem wie man das sieht !
ATIsentscheidung rult, weil 32bit mitlerweile Standart ist und darunter tranzparenzen um Lichtquellen einfach nur mies aussehen !

Xmas
2002-06-02, 04:17:55
Originally posted by ZilD
16 bit gut
24 bit optimal
32 bit eigentlich unnötig (find ich)
Um einen Unterschied zwischen 24 und 32 Bit zu sehen, muss man schon eine blühende Fantasie haben... ;)
Es gibt nämlich keinen sichtbaren, die acht zusätzlichen Bits gehen für einen Destination Alpha Kanal drauf, was jedoch nur selten verwendet wird (oder werden schlicht verschenkt).
Aber 32 Bit ist besser für das Speicheralignment als 24 Bit. Und kaum ein Chip unterstützt überhaupt 24-Bit Framebuffer...

Matrox Parhelia wird einen speziellen 32-Bit-Modus mit 10 Bit pro Farbkanal und 2 Bit Alpha bringen. Das sieht dann wiederum besser aus als RGB888.

Übrigens sind eigentlich alle aktuellen Chips unter 16 Bit kaum schneller als unter 32 Bit, teilweise sogar langsamer!