PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon7500 <-> GeForce2MX-400


Markchen
2004-02-12, 15:42:33
Kurze Frage: Welche ist schneller?

PS: Jetzt fangt nicht an mit FSAA/AF usw.! Rein Polygonmäßig bei UT2k3.

Henry
2004-02-12, 16:21:11
die 7500 sollte klar schneller sein. die G2MX is ja noch lahmer als ne G-DDR. und die 7500 ist auf G4MX niveau. du musst allerdings aufpassen. es gibt verschiedene versionen von der 7500 ich würde ne orginal ATI empfehlen mit 290mhz takt;)

Quasar
2004-02-12, 16:36:31
R7500. In nahezu jeder Lage. Wenn du ein GF-Rating dazu brauchst: Sie liegt in der Region GF2 Ultra.

Tesseract
2004-02-12, 16:45:47
Original geschrieben von Henry
die G2MX is ja noch lahmer als ne G-DDR.

genauer gesagt ist eine MX400 ca. auf dem level einer GF256 SDR

ow
2004-02-12, 16:49:20
.

Markchen
2004-02-12, 16:51:31
thx, das reicht mir.

Tesseract
2004-02-12, 16:58:05
Original geschrieben von ow
Genauer gesag ist das falsch, da zwischen 480Mtex/s und 800Mtex/s doch ein kleiner Unterschied existiert.
Die MX 400 liegt etwa auf GF DDR Niveau, sie hat zwar weniger Bandbreite aber mehr Fuellrate.

ich hab in meinem ehem. GF256 SDR system von einem freund mal eine MX400 probiert und sie war ca. auf dem selben level

mal war sie geringfügig langsamer und mal geringfügig schneller aber immer mit ziemlich geringen unterschied

eine GF256 DDR ist meistens deutlich schneller

BubbleBoy
2004-02-12, 16:58:48
.

StefanV
2004-02-12, 17:02:49
Original geschrieben von BubbleBoy
Eine BBA vielleicht, habe eine PowerColor mit 270MHz und die liegt bei GF2-GTS.

nö, in neueren Spielen ist die 7500 schneller geworden, u.A. dank HyperZ...

ow
2004-02-12, 17:06:01
.

Tesseract
2004-02-12, 17:11:38
Original geschrieben von ow
Ohne Systemangabe sind all diese Aussagen wertlos.

war ein p3-450 auf 558MHz mit 192MB ram auf einem BX-board

getestet habe ich diverse spiele wie UT, q3, HL usw.
alle in 1024x768; selbstverständlich ohne AA

edit: oder war das schon auf dem TB 1400...? weiß ich jetzt ehrlich gesagt nicht mehr, ich hatte die GF256 auf dem auch noch eine zeit lang

StefanV
2004-02-12, 17:17:32
Original geschrieben von ow
Und die 800Mtex/s Fillrate der Gf2MX400 lassen sich nicht wegdiskutieren.

Die GF1/2 war sowieso meist völig Bandbreitenlimitiert, da bringt etwas mehr Füllrate nicht wirklich was...

BubbleBoy
2004-02-12, 17:36:29
.

Henry
2004-02-12, 19:59:14
Original geschrieben von Tesseract
war ein p3-450 auf 558MHz mit 192MB ram auf einem BX-board

getestet habe ich diverse spiele wie UT, q3, HL usw.
alle in 1024x768; selbstverständlich ohne AA

edit: oder war das schon auf dem TB 1400...? weiß ich jetzt ehrlich gesagt nicht mehr, ich hatte die GF256 auf dem auch noch eine zeit lang

wenns mit dem P3 war, dann kannst die vergleiche vergessen;)

Chief o Hara
2004-02-12, 20:05:31
Original geschrieben von ow
Ohne Systemangabe sind all diese Aussagen wertlos.

Und die 800Mtex/s Fillrate der Gf2MX400 lassen sich nicht wegdiskutieren.

Ja und? Die GF256SDR war ja schon extrem bandbreitenlimitiert, da bringt der MX400 ihre höhere Füllrate herzlich wenig. Ne MX400 liegt direkt auf GF256SDR Niveau und ist deren DDR Version weit unterlegen.

Tesseract
2004-02-12, 20:12:26
Original geschrieben von Henry
wenns mit dem P3 war, dann kannst die vergleiche vergessen;)

es dürfte eh der TB gewesen sein
die MX400 hat er sich für sein 2. sys gekauft und das wurde erst zum zweitsys als wir ziemlich zeitgleich aufgerüstet haben

ergo müsste es der (relativ neue) TB gewesen sein

Godmode
2004-02-12, 20:15:40
Original geschrieben von Chief o Hara
Ja und? Die GF256SDR war ja schon extrem bandbreitenlimitiert, da bringt der MX400 ihre höhere Füllrate herzlich wenig. Ne MX400 liegt direkt auf GF256SDR Niveau und ist deren DDR Version weit unterlegen.

Ich hate ne GF256SDR und war saumäßig stolz darauf. In 32 bit ist sie schon verdammt eingebrochen, aber in 16 war sie ungeschlagen. Da hat Quake 3 so richtig gerockt.*eg*

ow
2004-02-12, 20:56:01
.

Chief o Hara
2004-02-12, 21:03:43
Original geschrieben von ow
4xfalsch.
extrem bandbreitenlimitiert ist keine GF.

Nein weder die MX noch die GTs sind stark bandbreitenlimitiert. Die ganzen Artikel die es zu diesem Thema auch hier schon gab sind wohl alle falsch. Laut denen ist ja schon der TNT bei einer Farbtiefe von 32bit bandbreitenlimitiert. Wenn ich mich richtig erinnere schrieb ram in einem seiner Artikel sogar einmal, dass die GTs nur ca 40% ihrer Leistung aufgrund ihrer Bandbreitenlimitierung zeigen kann.

Die Fillrate bringt da schon noch einiges.
Eine MX 400 liegt im Schnitt knapp unter GF DDR Niveau, in Einzelfällen auch drüber, die HWTL ist nämlich durch den höheren Chiptakt leistungsfähiger. Die höhere Fillrate tut das übrige.

Guck dir doch bitte mal die ganzen Benchs an, die gemacht wurden, als die ganzen MX Karten rauskamen. Da hatte die ganzen MX Karten gegebüber einer GF256DDR das Nachsehen.

aths
2004-02-12, 21:22:23
Original geschrieben von ow
4xfalsch.
extrem bandbreitenlimitiert ist keine GF.GF2 MX 200 ist extrem bandbreitenlimitiert.

Lightning
2004-02-12, 21:31:26
*auch mal seinen Senf dazugibt*

Ich hatte mal einen direkten Vergleich zwischen einer GeForce1 SDR und einer GeForce2 MX (nicht 400). Die MX war geringfügig schneller, daher denke ich, dass die MX 400 noch ein wenig schneller ist aber nicht an eine GF1 DDR heranreicht.

StefanV
2004-02-12, 21:47:18
Original geschrieben von ow
4xfalsch.
extrem bandbreitenlimitiert ist keine GF.
Die Fillrate bringt da schon noch einiges.
Eine MX 400 liegt im Schnitt knapp unter GF DDR Niveau, in Einzelfällen auch drüber, die HWTL ist nämlich durch den höheren Chiptakt leistungsfähiger. Die höhere Fillrate tut das übrige.

hm, die MX200, die aths nannte, die Albatron FX5600EP, diverse FX5200, die MX4000, diverse FX5600XTs (mit 64bit BUS)...

bis auf die MX200 2-3GB/sec Bandbreite...

PS: jemand mit 'ner 'echten' GF2 könnte ja mal den Coretakt mal 'etwas' reduzieren, um mal zu sehen, ob das Performance kostet :eyes:

Henry
2004-02-12, 21:56:29
ne G256SDR würd ich auch noch als extrem einordnen;)

Tesseract
2004-02-12, 22:01:43
Original geschrieben von Henry
ne G256SDR würd ich auch noch als extrem einordnen;)

eindeutig wenn man sich den unterschied zur DDR version anschaut - bei selben chiptakt

Chief o Hara
2004-02-12, 22:04:14
Original geschrieben von Stefan Payne
PS: jemand mit 'ner 'echten' GF2 könnte ja mal den Coretakt mal 'etwas' reduzieren, um mal zu sehen, ob das Performance kostet :eyes:

Gabs so nen Test nichtmal bei 3dconcept? Soweit ich mich erinnern kann, ließen die mal ne GTS(default Core Takt 200Mhz) mit halbem Coretakt laufen, wobei diese nur wenige Prozent an Leistung verlor. Da müste man mal dort stöbern, da ich mir nicht mehr sicher bin.

Chief o Hara
2004-02-12, 22:05:49
Original geschrieben von Tesseract
eindeutig wenn man sich den unterschied zur DDR version anschaut - bei selben chiptakt

Genau und wenn man nun bedenkt, dass ne MX über nochmehr Füllrate verfügt, ist diese wohl eindeutig extrem bandbreitenlimitiert.

Riptor
2004-02-12, 22:32:34
Original geschrieben von Lightning
Ich hatte mal einen direkten Vergleich zwischen einer GeForce1 SDR und einer GeForce2 MX (nicht 400). Die MX war geringfügig schneller, daher denke ich, dass die MX 400 noch ein wenig schneller ist aber nicht an eine GF1 DDR heranreicht.

Jep, ne GF256DDR ist schon ein klein wenig schneller als ne GF2MX, so lange die Auflösung hoch genug ist und man in 32-Bit spielt. :naughty:

Henry
2004-02-13, 12:46:41
Original geschrieben von Chief o Hara
Genau und wenn man nun bedenkt, dass ne MX über nochmehr Füllrate verfügt, ist diese wohl eindeutig extrem bandbreitenlimitiert.

aber bei der MX waren doch auch noch die piplines zur hälfte reduziert.


mal was anderes. was ist eigentlich der unterschied zwischen MX-200; -400 & -4000???
hat eine von denen auch DDR?

Quasar
2004-02-13, 13:22:45
Original geschrieben von Henry
mal was anderes. was ist eigentlich der unterschied zwischen MX-200; -400 & -4000???
hat eine von denen auch DDR?

Die MX war mit 175/166 (norm) getaktet, hatte 128Bit-SDR-RAM.

Die MX400 hatte ebenfalls 128Bit-SDR-RAM, aber meist 200MHz Chiptakt.

Die MX200 hatte 175MHz (norm), 166MHz RAM (norm), aber nur einen 64Bit breiten Bus dahin.

MX4000 basiert auf der GeForce4MX 440, wie weit die abgespeckt ist, weiß ich nicht.

Gast
2004-02-13, 13:28:50
Also,

bevor hier wieder mal alle registrierten Fanbobies ausrasten und sich gegenseitig was an den Kopf schmeißen; hier einmal ein schöner Vergleich verschiedenster Karten :

http://www.tomshardware.com/graphic/20020418/

Man kann ja von Tomshardware.com halten was man will, aber die VGA-Charts sind schon ganz gut.

Man sieht deutlich, die MX400 ist geringfügig schneller als eine 256er SDR aber wesentlich langsamer als eine 256er mit DDR-speicher.

StefanV
2004-02-13, 14:05:16
Original geschrieben von Quasar
MX4000 basiert auf der GeForce4MX 440, wie weit die abgespeckt ist, weiß ich nicht.

MX4000 = MX420, dann passts etwa.

Gast
2004-02-13, 14:56:50
Original geschrieben von Gast
Also,

bevor hier wieder mal alle registrierten Fanbobies ausrasten und sich gegenseitig was an den Kopf schmeißen; hier einmal ein schöner Vergleich verschiedenster Karten :

http://www.tomshardware.com/graphic/20020418/

Man kann ja von Tomshardware.com halten was man will, aber die VGA-Charts sind schon ganz gut.

Man sieht deutlich, die MX400 ist geringfügig schneller als eine 256er SDR aber wesentlich langsamer als eine 256er mit DDR-speicher.


Man sieht auch sehr schon, das die R7500 der GF2-Ultra ziemlich dicht auf die Pelle rückt. Da der Benchmark von Anfang 2002 ist, könnten die von anderer Seite angesprochenen Treiberverbesserungen die R7500 vielleicht sogar auf GF2-Ultra Niveau gehievt haben.

Wie geht das überhaupt? Die GF2-Ultra läuft mit 250MHz und hat 4x2 Pipelines. Die R7500 läuft mit 290MHz und hat 2x3 Pipelines, wobei die 3te TMU pro Pipeline, wie hier einmal vor langer Zeit diskutiert wurde eigentlich keine richtige TMU ist, so dass eigentlich ein 2x2 "Array" übrig bleibt.

[edit]
Hier (http://www.tomshardware.com/graphic/20021218/vgacharts-04.html) auf Tomshardware Anfang 2003 ist die R7500 sogar etwas/um einiges schneller als die GF2-Ultra bei UT 2003 und den folgenden Spielen. Nur bei Aquanox ist sie etwas langsamer.

Ergo, trotz der wesentlich geringeren Pixel- und Texelfüllrate erreicht die R7500 GF2-Ultra Niveau. Schon Seltsam.

Tesseract
2004-02-13, 15:08:35
Original geschrieben von Gast
trotz der wesentlich geringeren Pixel- und Texelfüllrate erreicht die R7500 GF2-Ultra Niveau. Schon Seltsam.

vermutlich wegen der bandbreitensparenden technik

wie man weiß ist eine GF2 ja nicht gerade füllratenlimitiert

zeckensack
2004-02-13, 15:17:03
Ich behaupte jetzt einfach mal, dass die GF2Ultra in 16 Bit Farbtiefe schneller ist als die Radeon 7500.
Letztere profitiert kaum von 16 Bit, es ist absolut unsinnig, das zu benutzen (wenn man eine solche Karte besitzt). Die Radeons wurden quasi einzig für 32 Bit Farbtiefe konstruiert. Das gleiche kann man auch noch auf der Radeon 8500 beobachten.

Davon abgesehen ist auch die 16 Bit-Qualität der Radeons relativ schlecht. Das Dithering-Muster ist wirklich nicht als optimal zu bezeichnen. Man kann den Treiber mit ein paar 'Tweaks' auch noch dazu bringen, ein besseres zu benutzen ("error diffusion" statt "ordered"). Letzteres ist aber auch kaum lohnend, weil sich wie gesagt durch den 16 Bit-Modus kein echter Geschwindigkeitsgewinn ggü 32 Bit einstellt.

Dass dagegen Geforce-Chips bis einschliesslich Geforce 3 teils massiv von 16 Bit Farbtiefe profitieren, und damit auch noch akzeptable Qualität liefern, sollte eigentlich bekannt sein.

aths
2004-02-13, 15:33:02
Original geschrieben von zeckensack
Dass dagegen Geforce-Chips bis einschliesslich Geforce 3 teils massiv von 16 Bit Farbtiefe profitieren, und damit auch noch akzeptable Qualität liefern, sollte eigentlich bekannt sein. Soweit ich weiß, nutzt GF3 Teile von LMA im 16-Bit-Modus nicht, so dass der Geschwindigkeitzuwachs selbst in Extremfällen 20% kaum übersteigt.

zeckensack
2004-02-13, 15:58:48
Original geschrieben von aths
Soweit ich weiß, nutzt GF3 Teile von LMA im 16-Bit-Modus nicht, so dass der Geschwindigkeitzuwachs selbst in Extremfällen 20% kaum übersteigt. Schau mal:
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1412649#post1412649

Ist noch ganz frisch :)

aths
2004-02-13, 16:07:33
Original geschrieben von zeckensack
Schau mal:
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1412649#post1412649

Ist noch ganz frisch :) Ja... Anti-Aliasing ist nicht so ganz die Stärke von GF3. Afaik ist bei 2x MSAA bis zu 40% Verlust möglich.

ow
2004-02-13, 16:11:53
.

2ichy
2004-02-13, 17:31:01
Man kann immer Beispiele finden, die nicht speicherlimitiert sind ;). So benutzt Nv bei dem baum nicht wirklich hochauflösende Texturen.

Eine Radeon 8500 ist auch Speicherlimitiert. Theoretisch hat sie eine Texelfüllrate von 2,2GT. Diese kann sie aber nicht auspielen. Speicher übertakten bringt bei der Karte immer mehr, als den Chip zu übertakten. Das hatte ich bei der Geforce 2 Pro auch.

Tesseract
2004-02-13, 17:57:05
Original geschrieben von ow
Klar, das kann man sicher an 5 Benches zeigen :kratz:

es zeigt zumindest eine tendenz

mehr jedenfalls als der treemark ;)

Chief o Hara
2004-02-13, 19:04:41
Original geschrieben von ow
Klar, das kann man sicher an 5 Benches zeigen :kratz:

Ich kann hier auch Beispiele auffuehren wo die Gf2MX eine GF DDR regelrecht versaegt (+50% Mehrleistung), zB. im Viewperf OGL Benchmark. Oder wie waere es mit NVs Treemark?


Dann hoffe ich mal, dass dir Benchmarks mehr Vergnügen bereiten, als richtige Spiele.

Das die MX ihre Füllrate unter 32bit Farbtiefe aufgrund mangelnder Bandbreite nicht ausnutzen kann liegt doch auf der Hand. Bisher hälst du stur dagegen ohne jedoch irgendwelche Belege zu bringen.

Das die GF256SDR bandbreitenlimitiert ist, sieht man ja im Vergleich zur DDR Version. Die MX hat zwar mehr Füllrate, aber keinen Deut mehr Bandbreite, kann also von daher nicht nennenswert schneller sein, als eine GF256SDR. Die zweifellos leistungsfähigere T&L Einheit kann da auch nichts mehr reißen, da soweit ich weiß die auch noch ein bissel was abhaben will.

ow
2004-02-13, 19:07:35
.

aths
2004-02-13, 19:20:11
Original geschrieben von ow
Fillrate und T&L Leistung ankommt eben nicht. T&L, aber noch mehr die Füllrate, sind vom Speicher-Interface abhängig. Siehe GF2 und 32-Bit-Modus: Da nützt die Füllrate gar nüscht. Effektiv hast du nur ca. die halbe Füllrate da (abhängig von der Taktung des RAMs.)

Lightning
2004-02-13, 19:20:32
Original geschrieben von ow
Das Problem ist, das hier so getan wird, als würde jede Applikation das RAM-Interface (die Bandbreite) einer Karte gleichermassen bis zum Anschlag ausreizen. Und das ist falsch.
Wenn dem so wäre, dann müsste ja die GF DDR aufgrund doppelter Bandbreite auch doppelt so schnell sein wie eine GF SDR. Und das ist sie nunmal nicht.
In bandbreiten-hungrigen Applikationen wird die GF DDR gü. der GF2MX einen Vorteil haben. Uns wenn´s mehr auf Fillrate und T&L Leistung ankommt eben nicht.

Die Frage bleibt aber doch, was nun häufiger der Fall ist. Gerade in der Praxis, also in Spielen, dürfte sich die höhere Bandbreite der GF DDR doch meist stärker auswirken als die höhere Füllrate der MX.

Ich glaube auch nicht wirklich, dass hier jemand gemeint hat, die GF DDR wäre in allen Situationen überlegen (auch wenn dies vom reinen Wortlaut vielleicht nicht direkt ersichtlich ist).
Was ich damit sagen will: Sei nicht so haarspalterisch ;)

MadManniMan
2004-02-14, 04:34:06
Original geschrieben von ow
Und die 800Mtex/s Fillrate der Gf2MX400 lassen sich nicht wegdiskutieren.

Und die 480MPix/s der GFDDR und die 400MPix/s der MX? :|

Quasar
2004-02-14, 09:30:50
Original geschrieben von aths
Soweit ich weiß, nutzt GF3 Teile von LMA im 16-Bit-Modus nicht, so dass der Geschwindigkeitzuwachs selbst in Extremfällen 20% kaum übersteigt.

IIRC war es EarlyZ, was in 16Bit, ebenfalls IIRC, in einigen Treibern abgeschaltet war.

Quasar
2004-02-14, 09:36:11
Original geschrieben von MadManniMan
Und die 480MPix/s der GFDDR und die 400MPix/s der MX? :|

Die lassen sich auch nur damit wegdiskutieren, daß bilineares Single-Texturing nur selten genutzt wird.

Gast
2004-02-14, 10:05:27
Original geschrieben von Quasar
Die lassen sich auch nur damit wegdiskutieren, daß bilineares Single-Texturing nur selten genutzt wird.

aber dafür Trilineares Filtern, und dann sieht es genauso aus. GF256 mit 480MPixel trilinear gefiltert und MX-400 mit 400MPixel trilinear gefiltert.

Quasar
2004-02-14, 13:46:29
Original geschrieben von Gast
aber dafür Trilineares Filtern, und dann sieht es genauso aus. GF256 mit 480MPixel trilinear gefiltert und MX-400 mit 400MPixel trilinear gefiltert.
Kannst du mir das einmal plausibel vorrechnen?

Xmas
2004-02-14, 13:51:30
Was gibts da zu rechnen?
GeForce256: 4x1 tri, 120 MHz
GeForce2 MX: 2x2 bi, 200 MHz

MadManniMan
2004-02-14, 13:59:01
Original geschrieben von Quasar
Die lassen sich auch nur damit wegdiskutieren, daß bilineares Single-Texturing nur selten genutzt wird.

Mehr rohe Pixelpower ist mir immernoch lieber als rohere Texelpower ;)

MadManniMan
2004-02-14, 13:59:46
Original geschrieben von Xmas
Was gibts da zu rechnen?
GeForce256: 4x1 tri, 120 MHz
GeForce2 MX: 2x2 bi, 200 MHz

BITTE?!?

Ne GF256 hatte Tripipes?!?

Quasar
2004-02-14, 14:02:53
Original geschrieben von Xmas
Was gibts da zu rechnen?
GeForce256: 4x1 tri, 120 MHz
GeForce2 MX: 2x2 bi, 200 MHz

Stimmt, ich erinnere mich. Da war mal sowas. Ich glaube damals habe ich auch gefragt, ob das zweifelsfrei sei, oder ob man das nur annahme, weil ihre vier Pipes so durch den Speicher beschnitten waren, daß man quasi tri4fri bekam?

Endorphine
2004-02-14, 14:11:24
Ist doch Jacke wie Hose...
NV10: 4x1tri, 120 MHz, 128-Bit 150 MHz DDR-SDRAM, keine Speicherbandbreitenschonung
NV15: 4x2bi = 4x1tri, 200-250 MHz, 128-Bit 166-230 MHz DDR-SDRAM, keine Speicherbandbreitenschonung

Wobei ich mir vorstellen könnte, dass x*1tri insgesamt preiswerter zu fertigen ist und mehr Takt ermöglicht als x*2bi. Warum ist nVidia überhaupt wieder zu nur noch theoretisch (BF) leistungsfähigerem x*2bi übergegangen? :kratz2:

MadManniMan
2004-02-14, 14:24:27
Die Aufspaltung der Tripipes für den GTS(++) würde auch erklären, woher nV diesen riesigen Füllratenschub nahm. Für mich war einfach zu heftig, wie sehr man Architektur und Takt ausbauen konnte.
Im Gegenzug erklärt sich nun noch eher, warum der TnTU so abgefuckt wurde ;)

aths
2004-02-14, 17:07:53
Original geschrieben von MadManniMan
BITTE?!?

Ne GF256 hatte Tripipes?!? Sicher.

Original geschrieben von Quasar
Stimmt, ich erinnere mich. Da war mal sowas. Ich glaube damals habe ich auch gefragt, ob das zweifelsfrei sei, oder ob man das nur annahme, weil ihre vier Pipes so durch den Speicher beschnitten waren, daß man quasi tri4fri bekam? Bei heftiger Bandbreiten-Limitierung kann es "tri4free" nicht geben.

aths
2004-02-14, 17:12:34
Original geschrieben von Endorphine
Ist doch Jacke wie Hose...
NV10: 4x1tri, 120 MHz, 128-Bit 150 MHz DDR-SDRAM, keine Speicherbandbreitenschonung
NV15: 4x2bi = 4x1tri, 200-250 MHz, 128-Bit 166-230 MHz DDR-SDRAM, keine Speicherbandbreitenschonung

Wobei ich mir vorstellen könnte, dass x*1tri insgesamt preiswerter zu fertigen ist und mehr Takt ermöglicht als x*2bi. Warum ist nVidia überhaupt wieder zu nur noch theoretisch (BF) leistungsfähigerem x*2bi übergegangen? :kratz2: So viel mehr Transistoren braucht das nicht, lediglich für jede TMU noch mal eine Koordinaten-Logik.

Außerdem kann man bei 4x2 bi ggü. 4x1 tri auf Pipeline-Combining verzichten. Jede TMU loopt für sich bis tri (oder anisotrop) gefiltert ist. 2 Texture Stages mit einer TMU ginge natürlich auch, erfordert aber auch Extra-Logik. (Siehe GF3/4 mit 4 Stages (afaik eigentlich 8, wobei aber nur die ersten 4 wirklich Texturen sampeln können) bei 2 TMUs.)

zeckensack
2004-02-14, 18:05:11
Original geschrieben von aths
So viel mehr Transistoren braucht das nicht, lediglich für jede TMU noch mal eine Koordinaten-Logik.... die nach meiner Einschätzung nach im NV10 auch vorhanden ist, aber kaputt ist. Das würde dann bedeuten, dass single cycle trilinear von NV überhaupt nicht geplant war.
Außerdem kann man bei 4x2 bi ggü. 4x1 tri auf Pipeline-Combining verzichten. Jede TMU loopt für sich bis tri (oder anisotrop) gefiltert ist. 2 Texture Stages mit einer TMU ginge natürlich auch, erfordert aber auch Extra-Logik. (Siehe GF3/4 mit 4 Stages (afaik eigentlich 8, wobei aber nur die ersten 4 wirklich Texturen sampeln können) bei 2 TMUs.) Wenn die TMU "für sich loopt", ist das nur leider recht ineffizient, und NV20 tut das zumindest schonmal nicht.

Geforce 3 Ti200 (175/200 MHz)

ArchMark 0.22.05
Texturing
Mode RGBA5650 Z0 S0
--Textured fillrate-----------------------------
----Bilinear filter-----------------------------
1 698.822 MPix/s
2 698.830 MPix/s
3 349.833 MPix/s
4 349.823 MPix/s

----Trilinear filter----------------------------
1 698.856 MPix/s
2 349.823 MPix/s
3 233.221 MPix/s
4 174.916 MPix/s
R200 dagegen tut's.
Radeon 8500LE (250/250MHz)
----Bilinear filter-----------------------------
1 983.79 MPix/s
2 983.79 MPix/s
3 497.50 MPix/s
4 496.77 MPix/s
5 331.42 MPix/s
6 331.41 MPix/s

----Trilinear filter----------------------------
1 502.13 MPix/s
2 502.13 MPix/s
3 254.50 MPix/s
4 254.50 MPix/s
5 170.42 MPix/s
6 170.42 MPix/s

Wie man sieht, ist Kandidat #2 bei trilinear single texturing langsamer, obwohl die rohe sog "Texelfüllrate" runde 40% höher ist. Bei triple texturing reicht's noch für einen Gleichstand, wobei man sich auch hier fragen muss, wo denn plötzlich die "1 Gigatexel/s" geblieben sind.

Zusammenschalten zweier serieller TMUs ist immer effizienter als ein lokaler Loop. Nicht nur bei single texturing, sondern auch bei diversen MT-Szenarios in denen trilinear und bilinear gemischt vorkommen.

Btw wäre ich deswegen mit nackten Vergleichen von "Texelfüllrate" sehr vorsichtig. Passt zwar nicht unbedingt hier hinein, wäre aber was für die NV40- und R420-Threads im Speku-Forum.

aths
2004-02-14, 18:44:08
Original geschrieben von zeckensack
... die nach meiner Einschätzung nach im NV10 auch vorhanden ist, aber kaputt ist. Das würde dann bedeuten, dass single cycle trilinear von NV überhaupt nicht geplant war.Gibt es dafür Anhaltspunkte? Von 2x1 auf 4x2 erschiene mir doch etwas zu heftig.

Original geschrieben von zeckensack
Wenn die TMU "für sich loopt", ist das nur leider recht ineffizient, und NV20 tut das zumindest schonmal nicht. Könnte man das auch für den NV15 ermitteln?

Quasar
2004-02-14, 19:15:02
Original geschrieben von aths
Gibt es dafür Anhaltspunkte? Von 2x1 auf 4x2 erschiene mir doch etwas zu heftig.
Wie meinst du "von 2x1 auf 4x2"?

zeckensack
2004-02-14, 19:18:32
Original geschrieben von Quasar
Wie meinst du "von 2x1 auf 4x2"? Vermutlich TNT2 -> Geforce.

Quasar
2004-02-14, 19:22:52
Ah so. Dann macht es ein bißchen Sinn.

aths
2004-02-14, 19:35:04
Original geschrieben von Quasar
Wie meinst du "von 2x1 auf 4x2"? Original geschrieben von zeckensack
Vermutlich TNT2 -> Geforce. Genau. Von NV5 zum NV10 mit taktbereinigt 4-facher Texelfüllrate? So einen Sprung gab es nur von Voodoo1 zu Voodoo2.

Wobei tri-TMUs ja auch nicht schlecht sind, trilinear gesehen hat man die 4-fache Füllrate. Auch pixelfüllratenmäßig, weshalb ich dieses 'doppelte Pixelfüllratenpower' nicht zwangsläufig als 12x1 + Mehrtakt auslege.