PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATIs erste Radeon (R100)


Raff
2006-09-01, 14:46:27
Ist ein interessantes Teil, wie ich finde. Da wäre zum einen, dass das Ding gleich drei TMUs hat, die allerdings nur bei 32 Bit alle ausgelastet zu werden scheinen. Jedenfalls ist 16 Bit im Vergleich zur 2000-er Konkurrenz eher langsam, der Einbruch beim Wechsel auf 32 Bit dafür aber beeindruckend winzig (ähnlich Kyro). GeForce2 und Voodoo5 zieht das deutlich übler herunter, immerhin brauchen sie zwei Takte für 32 Bit. Erklärt mir jemand, wie das mit den TMUs beim R100 gelöst ist? Liegt Nr. 3 bei 16 Bit wirklich still? Dann wäre die Füllrate bei 183 MHz auch ziemlich gering. Apropos Füllrate: Das Ding skaliert hervorragend bei Chip-Übertaktung, praktisch 1:1! Ganz im Gegenteil der NV15, bei dem fast nur Speicher-OC etwas bringt. War das erste Hyper-Z damals wirklich schon so gut?

Paar Infos zur Ur-Radeon wären ganz nett. :)

MfG,
Raff

AnarchX
2006-09-01, 14:56:33
Hatte sie nicht eigentlich 6 TMUs?
wikipedia meint das auch:
http://de.wikipedia.org/wiki/Radeon
edit: ach du meinst 2x3

btw:
http://www.3dcenter.org/artikel/radeon64ddr/
;)

Gast
2006-09-01, 15:49:38
Apropos Füllrate: Das Ding skaliert hervorragend bei Chip-Übertaktung, praktisch 1:1! Ganz im Gegenteil der NV15, bei dem fast nur Speicher-OC etwas bringt. War das erste Hyper-Z damals wirklich schon so gut?



ich nehme an das liegt hauptsächlich daran dass nur 2 pipelines vorhanden waren, und damit nur 2 pixel/takt in den framebuffer geschrieben werden können. dadurch braucht man relativ gesehen natürlich deutlich weniger bandbreite. angeblich hat das design auch noch recht häufig mit pipeline-stalls zu kämpfen, so dass die GPU ihre leistung eigentlich nie auf den boden bringt, und damit natürlich sehr gut auf die übertaktung reagiert.

die 3. TMU lag ja in der praxis meistens brach, da damals kaum ein spiel mehr als 2 texturschichten verwendet hat. (und selbst wenn es mehrer texturschichten hat wäre afaik ein eigener renderpfad notwendig um diese auch anzusprechen)

dass die 3.TMU nur bei 32bit-rendering zum einsatz kommt kann ich mir ehrlich gesagt nicht vorstellen, den TMUs sollte es eigentlich egal sein mit welcher genauigkeit in den framebuffer geschrieben wird, diese rechnen immer mit der (in hardware) vorgegebenen internen genauigkeit.

wie gesagt denke ich dass der geringe einbruch in 32bit größtenteils daran liegt dass die rechenleistung der GPU deutlich schwächer als jene der damaligen geforce-konkurrenz war hyper-z brachte sicher gegenüber einem reinen bruteforce-renderer auch was.

urbi
2006-09-01, 16:01:23
Zur Technik kann ich nicht viel sagen. Ich weiß nurnoch aus dem praktischen Umgang mit dem Teil, dass es quasi für hohe Auflösungen wie geschaffen war. Damals hat man das in den Benchmarks eher negativ bewertet ("wenig Tuningpotenzial durch 16Bit und Co") heute wollen alle eher in die Richtung.
In Sachen günstige Grafikkarte mit ViVo ist die Radeon 64MB DDR oder auch Radeon 7000(oder war es 7200?) heute noch wirklich empfehlenswert.

Gaestle
2006-09-01, 16:02:30
btw:
http://www.3dcenter.org/artikel/radeon64ddr/
;)


Oh....



Mein ....


Gott ...

So 'ne Radeon wollte ich immer haben. Am Ende wurde es doch eine Kyro1. Das war glaube ich einer der ersten Artikel - die hier gelesen habe. Leonidas Schreibstil hat sich kaum geändert und der Drang, sich einen eigenen Kopf zu machen, auch nicht.


[Edit:] Um wenigstens ein bißchen was zum Thema beizutragen:

http://www.3dcenter.org/artikel/r7500_vs_gf2ti/

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=22705&highlight=Radeon64

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=4612&highlight=Radeon64

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=22190&highlight=radeon1

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=14919&highlight=radeon1

und noch ein paar andere Threads hier (Suchbegriffe Radeon64, Radeon32 , Radeon1, und Radeon7200)

Schade, dass ow weg ist ...

zeckensack
2006-09-01, 16:18:42
Da wäre zum einen, dass das Ding gleich drei TMUs hat, die allerdings nur bei 32 Bit alle ausgelastet zu werden scheinen. Jedenfalls ist 16 Bit im Vergleich zur 2000-er Konkurrenz eher langsam, der Einbruch beim Wechsel auf 32 Bit dafür aber beeindruckend winzig (ähnlich Kyro).Die Karte hat einfach nur relativ wenig Füllrate für die vorhandene Bandbreite. Die Deutung mit der TMU-Auslastung ist falsch, ebenso ist der "geringe Einbruch bei 32 Bit" nichts weiter als ein Euphemismus für die niedrige Füllrate.

GeForce2 und Voodoo5 zieht das deutlich übler herunter, immerhin brauchen sie zwei Takte für 32 Bit.Nein, tun sie nicht. Wenn diese Karten einbrechen, dann deswegen weil die Bandbreite nicht mehr ausreicht.Erklärt mir jemand, wie das mit den TMUs beim R100 gelöst ist? Liegt Nr. 3 bei 16 Bit wirklich still?Nein.<...>
Ganz im Gegenteil der NV15, bei dem fast nur Speicher-OC etwas bringt.Siehste. NV15 hat so viel Füllrate, dass er mit mehr Bandbreite auch tatsächlich noch etwas anfangen kann. Bei der Radeon ist das nicht gegeben.
Das ist das ganze Mysterium.

Gast
2006-09-01, 19:18:33
2x3 ist auch gehirntot. Noch hirntoter war nur die Matrox Parhelia mit 4x4. Flache Designs sind auf jedenfall immer effizienter.

Selbst 4x1 wäre bei der Radeon wohl sinnvoller gewesen.

sklave_gottes
2006-09-01, 22:46:54
2x3 ist auch gehirntot. Noch hirntoter war nur die Matrox Parhelia mit 4x4. Flache Designs sind auf jedenfall immer effizienter.

Selbst 4x1 wäre bei der Radeon wohl sinnvoller gewesen.

wieso ist den das gehirntot? kannst du mir mal den vorteil von 4x1 gegenüber 2x3 nennen?

Ich dachte immer Texel leistung war früher immer so wichtig.

Gummikuh
2006-09-01, 22:56:07
Die 3.TMU war doch, wenn ich mich net täusche, für sogenanntes 3D Texturing...

Habe auch noch ne schöne R100 mit OVP und allem.Momentan nutzt sie mein Vater noch, aber bald ists wieder meine :biggrin: .

Gast
2006-09-01, 22:58:46
wieso ist den das gehirntot? kannst du mir mal den vorteil von 4x1 gegenüber 2x3 nennen?

Ganz einfach: Es laufen TMUs immer leer wenn man keine multiplen von 3 (bei R100) oder 4 (Parhelia) an Texturlayern verwendet. Der Extremfall ist eine Textur, dann füllst du mit der Radeon nur 2*Takt während du mit 4x1 eben in jedem Fall 4*Takt füllst.

Bei der Parhelia ist es noch schlimmer, das Ding wäre mit 12x1 oder sogar 8x1 bei ähnlichem Transistoraufwand deutlich schneller gewesen (gut der Speichercontroller wäre dafür zu scheiße ;))

Gast
2006-09-01, 22:59:24
Die 3.TMU war doch, wenn ich mich net täusche, für sogenanntes 3D Texturing...

Nein, das ist Blödsinn. 3D-Texturing muss jede TMU können wenn die Karte es unterstützt.

Banshee18
2006-09-01, 23:08:14
Die Karte hat einfach nur relativ wenig Füllrate für die vorhandene Bandbreite. Die Deutung mit der TMU-Auslastung ist falsch, ebenso ist der "geringe Einbruch bei 32 Bit" nichts weiter als ein Euphemismus für die niedrige Füllrate.
*auf dem Schlauch steh*
Wenn die Karte zu wenig Füllrate hat, müsste sie doch gerade deswegen einbrechen?!
2x3 ist auch gehirntot. Noch hirntoter war nur die Matrox Parhelia mit 4x4. Flache Designs sind auf jedenfall immer effizienter.

Selbst 4x1 wäre bei der Radeon wohl sinnvoller gewesen.
Was denken sich die Entwickler dann bei diesen Designs? Kann man das als "Jugendsünde" abstempeln?

Wie hat man eigentlich früher Pipelines definiert? 2x3 heißt ja z.B. 2 Pipelines mit jeweils 3 TMUs. Heute nimmt man die Anzahl der TMUs und sagt, die Karte hat eben so viele Pipelines. Bei der Radeon würde man heute wahrscheinlich sagen, sie hat 6 Pipelines (2x3).
Es wird Zeit, dass man sich vom Begriff "Pipelines" trennt und die Dinge beim Namen nennt.

Xmas
2006-09-01, 23:20:14
*auf dem Schlauch steh*
Wenn die Karte zu wenig Füllrate hat, müsste sie doch gerade deswegen einbrechen?!
Wieso, die Füllrate ändert sich doch von 16 zu 32 Bit nicht. Wohl aber die benötigte Bandbreite dafür.

Raff
2006-09-01, 23:24:15
What? Soweit ich informiert bin, haben zumindest die TMUs bis NV15 und VSA-100 kein 32 Bit pro Takt drauf. Warum stimmt das plötzlich nicht mehr? ;) Bandbreite kostet's natürlich auch massig.

MfG,
Raff

Pirx
2006-09-01, 23:24:26
Ist die 3. TMU des R100 vom Leistungsumfang her identisch mit den anderen beiden?

StefanV
2006-09-01, 23:30:21
Nicht ganz aber ansonsten so ziemlich.

Zecke kanns dir näher erleutern, er hat mal was gemacht, was der 3. TMU der R100 nicht passte ;)

Gast
2006-09-02, 11:29:42
*auf dem Schlauch steh*
Wenn die Karte zu wenig Füllrate hat, müsste sie doch gerade deswegen einbrechen?!Nö wieso? Sie kann auch einfach immer ein Niveau halten.
Du kannst nicht einfach "einbrechen" sagen ohne die Pointe wegzulassen. Es geht um einen Einbruch beim Wechsel vom 16bit-Modus zum 32bit-Modus. Und da ergibt es überhaupt keinen Sinn anzunehmen dass geringe absolute Füllrate diesen Einbruch verstärken soll.
Was denken sich die Entwickler dann bei diesen Designs? Kann man das als "Jugendsünde" abstempeln?Muss man wohl. Evtl spart's irgendwie noch ein paar Transistoren ggü einer Architektur mit gleich vielen TMUs aber mehr, kürzeren Pixelpipes. Das Problem ist nur dass die Alternative eben auch effizienter ist, und man deswegen gar nicht so viele TMUs bauen müsste, um die gleiche mittlere Leistung rauszuholen ... oder so.
Es wird Zeit, dass man sich vom Begriff "Pipelines" trennt und die Dinge beim Namen nennt.Ach nö, muss man eigentlich nicht. Der Begriff ist immer noch sehr nützlich.

zeckensack
2006-09-02, 11:30:43
*gnarf*
Der letzte Beitrag war meiner. Und es sollte natürlich nicht "ohne die Pointe wegzulassen" heißen, sondern so ähnlich, aber ganz anders.

Gast
2006-09-02, 15:10:33
What? Soweit ich informiert bin, haben zumindest die TMUs bis NV15 und VSA-100 kein 32 Bit pro Takt drauf. Warum stimmt das plötzlich nicht mehr? ;) Bandbreite kostet's natürlich auch massig.

MfG,
Raff
Vielleicht bist du einfach falsch informiert - und es hat noch nie gestimmt? Welches ist denn deine Quelle für deine Info?

RavenTS
2006-09-02, 18:03:01
Ist ein interessantes Teil, wie ich finde. Da wäre zum einen, dass das Ding gleich drei TMUs hat, die allerdings nur bei 32 Bit alle ausgelastet zu werden scheinen. Jedenfalls ist 16 Bit im Vergleich zur 2000-er Konkurrenz eher langsam, der Einbruch beim Wechsel auf 32 Bit dafür aber beeindruckend winzig (ähnlich Kyro). GeForce2 und Voodoo5 zieht das deutlich übler herunter, immerhin brauchen sie zwei Takte für 32 Bit. Erklärt mir jemand, wie das mit den TMUs beim R100 gelöst ist? Liegt Nr. 3 bei 16 Bit wirklich still? Dann wäre die Füllrate bei 183 MHz auch ziemlich gering. Apropos Füllrate: Das Ding skaliert hervorragend bei Chip-Übertaktung, praktisch 1:1! Ganz im Gegenteil der NV15, bei dem fast nur Speicher-OC etwas bringt. War das erste Hyper-Z damals wirklich schon so gut?

Paar Infos zur Ur-Radeon wären ganz nett. :)

MfG,
Raff

Wie kommst du plötzlich darauf, hastdu irgendwas geheimes in Planung?

Nebenbei: Die frühen ATi-Kühler waren doch grauenhaft ineffektiv wenn ich mir die heute wieder angucke. Quasi nur ein Blech, am Rand etwas gebogen und dann ein Minilüfter drauf. Bei der Maxx sah es ja wenigstens noch cool aus...

J0ph33
2006-09-02, 19:10:02
die geforcekühler sahen auch nicht viel anders aus....und scheinbar haben die ati-dinger ja gereicht

robbitop
2006-09-02, 20:39:41
Vielleicht bist du einfach falsch informiert - und es hat noch nie gestimmt? Welches ist denn deine Quelle für deine Info?
Für alle die behaupten, es sein "Quatsch". Ich habe es nachgemessen mit meiner alten GF2MX. Die läuft mit 226MHz oder so (nett übertaktet).


NV11
16 Bit
SingleTexturing: 388 MT/s
MultiTexturing: 764 MT/s

32 Bit
SingleTexturing: 226MT/s
MultiTexturing: 437MT/s



ST ist immer Bandbreitenlimitiert, MT hingegen nur wenig bei 32 Bit (ich habe den RAM von 166 auf 226 hochgetaktet).
Bei 16 Bit hingegen skallieren ST so wie auch MT (da hier das Füllraten/Bandbreitenverhältnis ein anderes ist!)
Auf der VSA sieht es hier genauso aus. Auf der Rage128 und auf der R100 hingegen nicht. IMO: quod erat demonstrandum

Archmark behauptet übrigens, das Teil hat effektiv 400MTex/s in 32 Bit (in 16 Bit sind es 800MTex/sek).

---
Im R100 sind wohl nur 2 Pipelines um Transistoren zu sparen. Ein 6x1 Setup wäre von der Granularität klar besser aber auch deutlich teurer (ganze Pipes kosten natürlich mehr als nur ein paar TMUs).
Die 3 TMUs hat man IIRC eingebaut, um EMBM in einem Pass rendern zu können, ohne zu loopen.

Raff
2006-09-02, 20:48:56
Danke, robbi. :)

MfG,
Raff

mapel110
2006-09-02, 20:50:43
Die 3 TMUs hat man IIRC eingebaut, um EMBM in einem Pass rendern zu können, ohne zu loopen.
Das hab ich auch schon mehrfach hier gelesen, aber bislang immer ohne Beleg iirc.

robbitop
2006-09-02, 20:58:12
Das hab ich auch schon mehrfach hier gelesen, aber bislang immer ohne Beleg iirc.
3dconcept lesen macht schlauer. IIRC kam das dort von ram und wenn der das so behauptet, wird es auch so stimmen.

Banshee18
2006-09-03, 01:09:20
Ach nö, muss man eigentlich nicht. Der Begriff ist immer noch sehr nützlich.
Bei einer unified-Architektur, wie zumindest der R600 eine werden soll, ist der Begriff doch eh hinfällig, oder?
Und danke für die Erläuterungen, auch an Xmas.
3dconcept lesen macht schlauer.
Kann man eigentlich irgendwie noch an die nicht mehr verfügbaren Artikel kommen?
Es heißt "quod" mit "d" am Ende.

robbitop
2006-09-03, 09:09:59
Kann man eigentlich irgendwie noch an die nicht mehr verfügbaren Artikel kommen?
Da müßtest du ram fragen.
Und ja mein Latein ist sehr eingerostet (6 Jahre schon kein Latein mehr JUHU!!)

@Raff
HyperZ bringt der Radeon64 eine Z-Kompression. Das spart schonmal ordentlich Bandbreite. Weiterhin ist hauptsächlich noch ein HirZ Buffer an Board (HSR), welcher nochmals Leistung spart. Und zu guter Letzt noch Z-fast clear, der den Z-Buffer in quasi 0-Zeit löscht und unnötige Wartetakte verhindert.

Blutmaul
2006-09-03, 09:22:26
Die Ur-Radeon war meine erste Graka, wo ich tatsächlich 32-Bit-Farbtiefe eingestellt habe und es auch dabei beließ.
Hab der vorhergehenden GF2 immer nur 16-Bit zugemutet...

gleicher Gast
2006-09-03, 10:44:18
Robbi,

Lief deine GF2MX durchgehend bei all deinen Ergebnissen mit 226/226 MHz oder waren Chip und RAM unterschiedlich getaktet - so 100% schlau bin ich aus deiner (doppelten) Aussage nicht geworden.

Auf jeden Fall läuft du wahrscheinlich bereits in 16 Bit massiv am Bandbreiten-Limit. Eigentlich solltest du hier deutlich näher an den theoretischen 904 MTex/s dran sein, als du mit deinen 764 (~85% des th. Max.; GPUs mit mehr Bandbreite erreichen hier Werte über 98%) real bist.

robbitop
2006-09-03, 11:51:38
226/226. Über den RAM Takt habe ich von 175MHz bis hin zu 226MHz skalliert (die letzten Ergebnisse sind mit 226/226).
16 Bit ist natürlich Bandbreitenlimitiert, da hier die doppelte Füllrate vorhanden ist.

edit: um die Bandbreitenlimitierung zu entschärfen

NV11 mit 2xAF
16 Bit
SingleTexturing: 340 MT/s
MultiTexturing: 761 MT/s

32 Bit
SingleTexturing: 227 MT/s
MultiTexturing: 436 MT/s



edit2: Versuch gescheitert, der Füllratentest reagiert anscheinend nicht auf AF.

Raff
2006-09-03, 12:19:21
Die Ur-Radeon war meine erste Graka, wo ich tatsächlich 32-Bit-Farbtiefe eingestellt habe und es auch dabei beließ.
Hab der vorhergehenden GF2 immer nur 16-Bit zugemutet...

Das 16 Bit war/ist ja auch zum Brechen hässlich. Daher kommt es genau richtig, dass 32 Bit kaum langsamer ist.

MfG,
Raff

robbitop
2006-09-03, 12:33:33
Ok nächster Versuch:
Ich habe die GF2MX jetzt mit 100/210 getaktet, um die Bandbreitenlimitierung herauszunehmen, so gut es geht.


NV11
16 Bit
SingleTexturing: 193 MT/s
MultiTexturing: 387 MT/s

32 Bit
SingleTexturing: 185,6 MT/s
MultiTexturing: 364,7 MT/s



BAMS! Das Ding ist tatsächlich irre bandbreitenlimitiert. Sowas habe ich noch nie gesehen, dass MT synthies immernoch von der Bandbreite entscheident abhängen. Ihr hattet Recht! Die NV1x kann 32 Bit in einem Takt filtern! Ich nehme alles zurück!

Jetzt hätte ich gern von VSA (Voodoo4/5) Besitzern sowas (16 bit vs 32 bit ..das geht schon mit dem 3DMark 2000)!
Wahnsinn, wie extrem bandbreitenlimitiert NV1x doch war. Und wahnsinn, was die NV20 durch bessere Caches, den Crossbar Memcontroller, EarlyZ und Z-Komprimierung anrichten konnte!

Raff
2006-09-03, 12:38:43
Ui. :eek:
So schnell kommt man durch vermurkstes Design zu falschen Schlüssen. :D

robbi, ich teste es gleich mal mit meiner V5 6000, optional im Single-Chip-Modus.

MfG,
Raff

Gast
2006-09-03, 12:41:44
Die NV1x kann 32 Bit in einem Takt filtern!

Hä? Wenn dann müssten die ROPs nicht in einem Takt rausschreiben können, was hat denn der Texturfilter bitte mit der Framebufferfarbtiefe zu tun? X-D

robbitop
2006-09-03, 12:45:16
Hä? Wenn dann müssten die ROPs nicht in einem Takt rausschreiben können, was hat denn der Texturfilter bitte mit der Framebufferfarbtiefe zu tun? X-D
Eine ganze Menge. Schau dir die TMUs vom NV40 an. Laut aths (siehe NV40 Techartikel) brauchen die für ein bilineares FP16 Sample 2x Takte, für ein bilineares 32 Bit Samle nur einen Takt.
Etwas ähnliches hätte ich mir beim NV1x auch vorstellen können. ;-)

Sonyfreak
2006-09-03, 12:48:42
Wenn es von Interesse ist, kann ich nachher auch mal einen Durchlauf mit einem NV20 machen.

mfg.

Sonyfreak

Gast
2006-09-03, 12:49:59
Etwas ähnliches hätte ich mir beim NV1x auch vorstellen können. ;-)

Die Texturfarbtiefe hat trotzdem nix mit der Framebufferfarbtiefe zu tun.

robbitop
2006-09-03, 13:03:43
Die Texturfarbtiefe hat trotzdem nix mit der Framebufferfarbtiefe zu tun.
Achso meintest du das. Jaha, das ist klar. Ich habe bei den Untersuchungen natürlich 16 Bit Texturen und 32 Bit Texturen jeweils eingestellt und mir ging es um die Kombination.

Raff
2006-09-03, 13:21:17
V56k @ 183/183 MHz (1,46 MTex/s)

kein AA:

16 Bit
SingleTexturing: 720,2 MT/s
MultiTexturing: 1068,8 MT/s

32 Bit
SingleTexturing: 690,2 MT/s
MultiTexturing: 1055,3 MT/s

+ 8x SGSSAA:

16 Bit
SingleTexturing: 123,1 MT/s
MultiTexturing: 173,2 MT/s

32 Bit
SingleTexturing: 146,0 MT/s
MultiTexturing: 278,4 MT/s
Bei MT ohne AA schlägt grob die Füllrate von drei der vier VSA-100s durch, mit ST etwa 98%. Interessant ist der Wert mit 8x AA, denn er zeigt, warum die Karte bei hohen Auflösungen und 32 Bit so wenig verliert. Eventuell arbeitet das SLI in 32 Bit effizienter? Mal sehen, ob ich in der Spielepraxis einen Fall kreieren kann, wo 32 Bit schneller als 16 Bit ist ...

Aber klar ist: Auch der VSA-100 macht 32 Bit in einem Schwung. :|

MfG,
Raff

robbitop
2006-09-03, 13:36:15
Damit wissen wir nun, was Zecki und der Gast (wäre ein tolles neues Member für das Forum!) schon vorher wussten X-D

Raff
2006-09-03, 14:06:54
Man lernt eben nie aus. ;)

MfG,
Raff

immernochgleicherGast
2006-09-03, 23:50:30
Vielleicht hat der Gast ja bereits ein Konto hier?

Wie dem auch sei - danke für's Nachmessen, robbi. Damit ersparst du mir, meine GF2MX zu dieser nachtschlafenden Zeit noch in meinen P3 einzubauen. Hab' die extra mitgebracht. :)

aths
2006-09-04, 00:00:44
Ist ein interessantes Teil, wie ich finde. Da wäre zum einen, dass das Ding gleich drei TMUs hat, die allerdings nur bei 32 Bit alle ausgelastet zu werden scheinen. Jedenfalls ist 16 Bit im Vergleich zur 2000-er Konkurrenz eher langsam, der Einbruch beim Wechsel auf 32 Bit dafür aber beeindruckend winzig (ähnlich Kyro).Es werden alle zwei TMUs ausgelastet, die dritte TMUs ist keine vollwertige (iirc kann sie zum Beispiel nicht trilinear filtern.) Die TMU-Auslastung ist aber bei 32 Bit und 16 Bit pro Pixel gleich. Die GeForce 2 GTS hingegen kann im 32-Bit-Modus ihre TMUs nicht auslasten (Bandbreiten-Problem.) Gerade weil die GF2 einbricht, die Radeon aber nicht, ist doch klar, dass die GeForce ein Problem hat – und nicht die Radeon. (Schließlich ist es kein Gesetz, dass die Geschwindigkeit bei 32 bbp einen erheblichen fps-Einbruch bedeuten muss.) Dass die GF2 die Radeon im 16-Bit-Modus deutlich überholt liegt an der deutlich höheren Grundleistung, die sich bei 32 bpp eben nicht entfalten kann.

gammelsess
2006-09-04, 21:04:58
ehrlich gesagt isses ja auch egal es wird sich ja wohl keiner mehr die grafikakrte holen will ch doch meinen :cool:

ioder doch =?:biggrin:

AlfredENeumann
2006-09-04, 23:28:59
ehrlich gesagt isses ja auch egal es wird sich ja wohl keiner mehr die grafikakrte holen will ch doch meinen :cool:

ioder doch =?:biggrin:

Warum denn nicht?
Ich habe die immer noch i.E (Hey Thowe, die hat mal dir gehört)
Ist eine sehr schöne Karte zum Arbeiten und für gelegentliche Spielchen.

Raff
2006-09-04, 23:33:29
Es werden alle zwei TMUs ausgelastet, die dritte TMUs ist keine vollwertige (iirc kann sie zum Beispiel nicht trilinear filtern.) Die TMU-Auslastung ist aber bei 32 Bit und 16 Bit pro Pixel gleich. Die GeForce 2 GTS hingegen kann im 32-Bit-Modus ihre TMUs nicht auslasten (Bandbreiten-Problem.) Gerade weil die GF2 einbricht, die Radeon aber nicht, ist doch klar, dass die GeForce ein Problem hat – und nicht die Radeon. (Schließlich ist es kein Gesetz, dass die Geschwindigkeit bei 32 bbp einen erheblichen fps-Einbruch bedeuten muss.) Dass die GF2 die Radeon im 16-Bit-Modus deutlich überholt liegt an der deutlich höheren Grundleistung, die sich bei 32 bpp eben nicht entfalten kann.

So gesehen ergibt es Sinn. Dass 32 Bit kosten "muss" ergibt sich nur daraus, dass es das im Jahr 2000 idR noch tat.

Praktisch war die extreme Bandbreitenlimitierung der gesamten GF2-Serie aber auch: 2x AF for free. ;)

MfG,
Raff

deekey777
2006-09-04, 23:38:04
ehrlich gesagt isses ja auch egal es wird sich ja wohl keiner mehr die grafikakrte holen will ch doch meinen :cool:

ioder doch =?:biggrin:
Ehrlich gesagt, ist dein Beitrag purer Spam und hat nichts dem Thema beizutragen.
Dennoch will ich wissen, warum es egal ist, in einem Forum wie 3DCF, in dem es um die Technologie der Grafikchips geht), danach zu fragen. Jeder, der sich dafür interessiert, weiß, was dieser Chip an Neuheiten mit sich brachte und was diese Neuheiten für seine Nachfolger bedeuteten.

Etwa ein Meter von mir entfernt liegt eine :massa: Ur-Radeon, eine Sonderanfertigung für Dells Workstation.

aths
2006-09-05, 11:03:19
So gesehen ergibt es Sinn. Dass 32 Bit kosten "muss" ergibt sich nur daraus, dass es das im Jahr 2000 idR noch tat.

Praktisch war die extreme Bandbreitenlimitierung der gesamten GF2-Serie aber auch: 2x AF for free. ;)

MfG,
RaffBandbreitenlimit ist nie praktisch. 2x AF "for free" heißt im Umkehrschluss: Normale Filterung nur mit Verlust. Allerdings kostet AF ja Füllrate und damit auch Bandbreite. Erst mit dem NV20 hat sich Nvidia endlich mal um Effizienz (und vernünftige Qualitäts-Features) gekümmert.

StefanV
2006-09-05, 11:08:03
Warum denn nicht?
Ich habe die immer noch i.E (Hey Thowe, die hat mal dir gehört)
Ist eine sehr schöne Karte zum Arbeiten und für gelegentliche Spielchen.
Ja, aber für den Quirl darauf gehört ATi geteert und gefedert!!
Der ist echt sowas von unnötig...

ATi hätte von Rage 128 Pro (da fing der Quirl schwachsinn an, zumindest Retail) bis einschließlich 7500 alle Karten mit 'nem kleinen 40x10mm Kühlkörper ausstatten können, teilweise hat man auch keinen gebraucht!!

Bei der 8500 kann man sich streiten, ob die aktiv gekühlt werden müsste oder nicht, da kann man geteilter Meinung sein...

Gast
2006-09-05, 14:15:06
Ja, aber für den Quirl darauf gehört ATi geteert und gefedert!!
Der ist echt sowas von unnötig...Da hast du natürlich Recht. Damals war es aber noch so, dass aktive Kühler irgendwie suggerierten, dass die Karte "High-Tech" ist und sehr "aufwändig" gekühlt werden muss.