PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistungsunterschiede der letzten Generationen //war:R520 schon Anfang 2005?


Annihilator
2005-09-15, 10:56:22
Es entspricht ja eigentlich aich der Tatsache, dass seit der 8500 gegen de GeForce 3 bei Hersteller immer mehr oder weniger nahe beeinnander lagen. ATI hatte Porbleme gege ndie GeForce 4, NV gegen den R300. Absolute KillerGPUs darf man nicht erwarten, wenn nicht einer der beiden einen groben Fehler macht.


naha bei einander lagen? naja, also ne GF2ultra hat die 7500 gekillt, der gf3 ti500 die 8500, und gegen die gf4 kam reichlich spät der r300 an dem sich NV dann, die zähne eine zeitlang ausgebissen hat. =)

xL|Sonic
2005-09-15, 11:07:38
Lag die 8500 von der Leistung her nicht zwischen der GF3 Ti500 und GF4 Ti4200 mit Tendenz zu letzterer?

Matrix316
2005-09-15, 12:19:54
Das Problem bei ATI war schon immer die OpenGL Leistung. Deswegen kann man nie sagen, die Karte wäre schneller oder langsamer als ein gleichwertiges nvidia Produkt, wenns je nach Spiel unterschiedlich ist.

deLuxX`
2005-09-15, 13:49:16
Lag die 8500 von der Leistung her nicht zwischen der GF3 Ti500 und GF4 Ti4200 mit Tendenz zu letzterer?

AFAIR war sie leistungsmäßig sogar leicht unterhalb der Ti-500 anzusiedeln.
Damals waren die Treiber von ATI noch sehr grottig. Kein Vergleich zu heute.

-deLuxX`

MadManniMan
2005-09-15, 13:57:35
Wollen wir doch mal nicht die Tatsachen verdrehen ... wenn irgendjemand für meine jetzt kommenden Behauptungen Beweise möchte, kann er gern das Artikelarchiv vom 3DC durchwühlen.

Der RV200, als der Radeon 7500 kam erst, als es bereits die DX8-Generation auf die Bühne geschafft hatte - dieser jedoch war retrospektiv betrachtet leistungsfähiger, als GF2Ti oder GF2Ultra, vor allem dank HyperZ.
Der R200 hatte eine Rohleistung, gegen die es dei GF3Ti500 schwer hatte und war in diesem Bereich gar der Ti4200 ebenbürtig. Dabei war die 8500 stets gnadenlos günstig - nur hatte nVidia den Vorteil vom nutzbareren AA. Gegen Ti4400 und 4600 hatte ATi nicht wirklich etwas gegenzusetzen.
Der R300 mußte nicht gegen den GF4 bestehen - dessen große Zeit (und er war gut!) war bereits vorbei. Der NV30 hat leider nur ~R300 Leistung erbracht, leider nichtmal ganz das...

Ich verstehe nicht, wie man die Geschichte verdrehen kann :|

Ronny G.
2005-09-15, 13:58:40
naha bei einander lagen? naja, also ne GF2ultra hat die 7500 gekillt, der gf3 ti500 die 8500, und gegen die gf4 kam reichlich spät der r300 an dem sich NV dann, die zähne eine zeitlang ausgebissen hat. =)

oh oh ich weiß jetzt schon wie das hier endet, ring frei, fight.

robbitop
2005-09-15, 13:59:53
Lag die 8500 von der Leistung her nicht zwischen der GF3 Ti500 und GF4 Ti4200 mit Tendenz zu letzterer?
Eher im GF3 Bereich. R200 besaß außerdem kein Multisampling und ein völlig grottiges AF. Somit auch von der nutzbaren Featureseite völlig unterlegen.
Hinzukommt der fehlende Crossbarcontroller und die angeblichen Pipelinestalls.
Ein bisschen abgerundet, hätte sich R200 mit NV25 durchaus anlegen können.
Aber so haben Patzer unnötig Leistung und Features gekostet.

robbitop
2005-09-15, 14:06:15
Wollen wir doch mal nicht die Tatsachen verdrehen ... wenn irgendjemand für meine jetzt kommenden Behauptungen Beweise möchte, kann er gern das Artikelarchiv vom 3DC durchwühlen.

Der RV200, als der Radeon 7500 kam erst, als es bereits die DX8-Generation auf die Bühne geschafft hatte - dieser jedoch war retrospektiv betrachtet leistungsfähiger, als GF2Ti oder GF2Ultra, vor allem dank HyperZ.
Der R200 hatte eine Rohleistung, gegen die es dei GF3Ti500 schwer hatte und war in diesem Bereich gar der Ti4200 ebenbürtig. Dabei war die 8500 stets gnadenlos günstig - nur hatte nVidia den Vorteil vom nutzbareren AA. Gegen Ti4400 und 4600 hatte ATi nicht wirklich etwas gegenzusetzen.
Der R300 mußte nicht gegen den GF4 bestehen - dessen große Zeit (und er war gut!) war bereits vorbei. Der NV30 hat leider nur ~R300 Leistung erbracht, leider nichtmal ganz das...

Ich verstehe nicht, wie man die Geschichte verdrehen kann :|

In Füllratenlimitierten Szenen ist die GF2U der 7500 sicher überlegen dank deutlich mehr Rohfüllrate. Aber meist limitierte damals ja die Bandbreite, wovon Roh und effektiv mehr beim RV200 vorhanden war. Die 7500 war eher GF4MX Gegenpart und dort sehe ich eher ein Pari. Keine Ahnung, wer hier die besseren Treiber bietet. Besseres AA bietet jedenfalls NV17 (MSAA).
Zur R200 s.o.
Die konnte sich nie mit der NV25 anlegen (es sei denn beide Karten hatten AF an ...wenn man das R200 AF so nennen kann).

Annihilator
2005-09-15, 14:09:29
Der R200 hatte eine Rohleistung, gegen die es dei GF3Ti500 schwer hatte und war in diesem Bereich gar der Ti4200 ebenbürtig.



:lol:
sorry, aber ich bin fast vom stuhl gefallen als ich das gelesen habe.

in der reinen rohleistung war sogar ne Ti500 der R8500 überlegen, und ich muss es wissen, hatte ja beide karten. =)

und die Ti4200 bügelte Ti500 und R8500 gnadenlos. ;)

MadManniMan
2005-09-15, 14:09:49
Eher im GF3 Bereich. R200 besaß außerdem kein Multisampling und ein völlig grottiges AF. Somit auch von der nutzbaren Featureseite völlig unterlegen.
Hinzukommt der fehlende Crossbarcontroller und die angeblichen Pipelinestalls.
Ein bisschen abgerundet, hätte sich R200 mit NV25 durchaus anlegen können.
Aber so haben Patzer unnötig Leistung und Features gekostet.

:| Der R200 hatte ein 2*64bit Interface. Klick. (http://www.beyond3d.com/misc/chipcomp/?view=chip&orderby=release_date&order=DESC&n=60)

Ich sprach bewußt von der Rohleistung, da diese für den Markt dereinst noch extrem wichtig war (obwohl blöd, aber die Leute wußten es nicht besser).
Deshalb konnte man gut gegen den GF3 konkurrieren, wie du ja sagtest.
Beim NV25 propagierte nV die AA-Leistung so sehr, daß ATi ins Hintertreffen geriet - das AF wurde kaum betrachtet.
Und die Pipelinestalls fallen unter Internas des Chips, die zwar die Endleistung beeinflussen, aber nicht ... "augenscheinlich" wären.

MadManniMan
2005-09-15, 14:15:30
In Füllratenlimitierten Szenen ist die GF2U der 7500 sicher überlegen dank deutlich mehr Rohfüllrate. Aber meist limitierte damals ja die Bandbreite, wovon Roh und effektiv mehr beim RV200 vorhanden war. Die 7500 war eher GF4MX Gegenpart und dort sehe ich eher ein Pari. Keine Ahnung, wer hier die besseren Treiber bietet. Besseres AA bietet jedenfalls NV17 (MSAA).

...IIRC hatte die GF4MX doch bei 4*AA auch nur 2*2 OGSSAA.
Und die Treibersituation war damals wirklich noch deutlich gen nV, das muß man zugeben.

MadManniMan
2005-09-15, 14:17:08
:lol:
sorry, aber ich bin fast vom stuhl gefallen als ich das gelesen habe.

Sehr "charmante" Diskussionsart :|

in der reinen rohleistung war sogar ne Ti500 der R8500 überlegen, und ich muss es wissen, hatte ja beide karten. =)

Worüber definierst Du "Rohleistung"?

und die Ti4200 bügelte Ti500 und R8500 gnadenlos. ;)

...sobald Qualitätsettings gefahren wurden, ja. Aber diese gewannen erst im Laufe der Zeit für den Markt an Relevanz.

Melbourne, FL
2005-09-15, 14:18:03
Also so wie ich es in Erinnerung habe war die Radeon 8500 in der Praxis leicht oberhalb einer GF3 Ti500 anzusiedeln aber doch recht deutlich unter einer GF4 Ti4200.

Alexander

robbitop
2005-09-15, 14:19:24
[QUOTE=robbitop]In Füllratenlimitierten Szenen ist die GF2U der 7500 sicher überlegen dank deutlich mehr Rohfüllrate. Aber meist limitierte damals ja die Bandbreite, wovon Roh und effektiv mehr beim RV200 vorhanden war. Die 7500 war eher GF4MX Gegenpart und dort sehe ich eher ein Pari. Keine Ahnung, wer hier die besseren Treiber bietet. Besseres AA bietet jedenfalls NV17 (MSAA)./QUOTE]

...IIRC hatte die GF4MX doch bei 4*AA auch nur 2*2 OGSSAA.
Und die Treibersituation war damals wirklich noch deutlich gen nV, das muß man zugeben.
4xMS wäre eh nur OG, somit sinnlos und eh nicht nutzbar von der Performance. Aber 2xRGMS ist eine feine Sache bei so einer kleinen Karte

was R200 angeht: hm nach meinen Infos hatte es keinen Crossbar. Aber gut, anscheinend hat er doch einen.

Letztendlich ist sowieso die Realwordperformance beim Benchen entscheident. Da war NV25 selbst in der Ti4200 Fassung unereichbar für R200 (idR ...natürlich gibt es immer irgendwo Ausnahmen)

ATI's erster richtiger Sieg war R300. Bis heute auch der einzige souveräne.

robbitop
2005-09-15, 14:22:43
Worüber definierst Du "Rohleistung"?



...sobald Qualitätsettings gefahren wurden, ja. Aber diese gewannen erst im Laufe der Zeit für den Markt an Relevanz.

-Füllrate/Bandbreite ...von beidem hatte R200 mehr, deutlich mehr..bekam es aber nicht auf die Straße aufgrund von Patzern im Design

-Du meinst sobald die Grafikkarte limitierend war und nicht die CPU? ;)
Spaß beiseite: AFAIK stimmt das nicht. 1280x1024 oder 1600x1200 No/No sah R200 ebenfalls kein Land.
AF und AA beider Karten zu vergleichen ist eh sinnlos.

deekey777
2005-09-15, 14:23:57
Die Ur-Radeon256 war aber auch ein harter Brocken für die Geforce256, oder?

robbitop
2005-09-15, 14:25:21
Die Ur-Radeon256 war aber auch ein harter Brocken für die Geforce256, oder?
Die Ur Radeon 256 musste gegen die GF2 antreten. Diese war dank Treibern und brachial mehr Rohleistung auch deutlich überlegen. In hohen Auflösungen, in denen die Bandbreite knapp wurde kam R256 auch fast heran, weshalb NV die GF2U brachte.

deekey777
2005-09-15, 14:31:45
Die Ur Radeon 256 musste gegen die GF2 antreten. Diese war dank Treibern und brachial mehr Rohleistung auch deutlich überlegen. In hohen Auflösungen, in denen die Bandbreite knapp wurde kam R256 auch fast heran, weshalb NV die GF2U brachte.

Stimmt, die Radeon kam erst nach der Geforce 2 GTS. Na ja, für mich ist es eh post-finsteres Mittelalter. :biggrin:

MadManniMan
2005-09-15, 14:35:21
Zu dem Post über diesen hier von mir zitierten: Ack.

-Füllrate/Bandbreite ...von beidem hatte R200 mehr, deutlich mehr..bekam es aber nicht auf die Straße aufgrund von Patzern im Design

Das ist für mich Rohpotential, Rohleistung ist für mich Auflösung "Vanilla", ergo ohne AA und AF - die Benches hier beim Center sind leider zu Zeiten entstanden, in denen ATi noch mit arger CPU-Last bei den Treibern daherkam.

-Du meinst sobald die Grafikkarte limitierend war und nicht die CPU? ;)
Spaß beiseite: AFAIK stimmt das nicht. 1280x1024 oder 1600x1200 No/No sah R200 ebenfalls kein Land.
AF und AA beider Karten zu vergleichen ist eh sinnlos.

Was heißt kein Land sehen ... hm. Ich sehe dabei immer noch die Preiskomponente und da hatte der R200 seinen Vorteil.

robbitop
2005-09-15, 14:38:47
kein Land sehen ..naja 20-30% zur Ti4200 warens schon meist. Von der 4600 mal zu schweigen.
Preis...naja nur bei der 8500LE. Die war damals der Preishammer. Hatte 250/250 statt 275/275 und gab es damals für nur ~200EUR IIRC und somit 50EUR billiger als die Ti4200. Mittels Bleistiftmod waren auch mal 300/300 drin und dann hat sich das gute Stück schon gelohnt.
Ich kann mich aber auch noch an unterirdische Treiber damals erinnern.

MadManniMan
2005-09-15, 14:54:18
kein Land sehen ..naja 20-30% zur Ti4200 warens schon meist. Von der 4600 mal zu schweigen.
Preis...naja nur bei der 8500LE. Die war damals der Preishammer. Hatte 250/250 statt 275/275 und gab es damals für nur ~200EUR IIRC und somit 50EUR billiger als die Ti4200. Mittels Bleistiftmod waren auch mal 300/300 drin und dann hat sich das gute Stück schon gelohnt.
Ich kann mich aber auch noch an unterirdische Treiber damals erinnern.

Ich weiß noch, wie die Ti200 für 550,- daherkam, die Ti500 noch gut und gerne 850,- kostete und die Radeon 8500 Vanilla nur 650,- zu Buche schlug. DM wohlgemerkt.
Später wars natürlich die LE, klar. Die Preisunterschiede 8500 Vanilla vs. Ti4400 und Ti4600 waren dann aber auch in keinem Verhältnis mehr, dafür war die Ti4200 auch wirklich günstig.

Annihilator
2005-09-15, 15:03:04
Sehr "charmante" Diskussionsart :|



Worüber definierst Du "Rohleistung"?



...sobald Qualitätsettings gefahren wurden, ja. Aber diese gewannen erst im Laufe der Zeit für den Markt an Relevanz.


1. danke, aber besser als wenn ich persönlich werde wie man anderer hier. ;)
2. raw-power, ohne AA/AF.
3. meinst du? also mit meiner Ti4200, konnte ich alle games dies zum damaligen zeitpunkt gab b.z.w. grade "in" waren, in maximum detail 2xAA/4xAF zocken bei min. 1280*960... =)

MadManniMan
2005-09-15, 15:13:19
1. danke, aber besser als wenn ich persönlich werde wie man anderer hier. ;)
2. raw-power, ohne AA/AF.
3. meinst du? also mit meiner Ti4200, konnte ich alle games dies zum damaligen zeitpunkt gab b.z.w. grade "in" waren, in maximum detail 2xAA/4xAF zocken bei min. 1280*960... =)

1) Nur, weil Du nicht so eine Scheiße schreibst, wie manch anderer, könntest Du aber dennoch an Deinem Ausdruck feilen ;)

2) Du hast natürlich den Vorteil, beide Karten gehabt zu haben. Ich selbst hatte nur Ti200, Ti4200 und Radeon 9000... Aber ich meine mich eben gut daran zu erinnern, daß die Radeon 8500 gegenüber der Ti500 ohne AA und AF tendenziell immer besser dastand, wenn > 1024*768 gegangen wurde. Hm... Zwickmühle.

3) Natürlich konnte man das mit der Ti4200 - aber war das für den Markt dereinst wirklich relevant? Selbst heute posten manche (sorry Goliath, aber das mußt Du jetzt ausbaden :D *Insider* ) im Screenshotthread Bilder, auf denen angeblich 4*4 Supersampling zu sehen ist, obwohl überhaupt kein AA wirkt *hust*

Mr.Magic
2005-09-15, 16:10:17
Damit mal jemand was schreibt der eine weniger verklärte Erinnerung hat (ausser beim Preis, denn der war nicht allzu relevant).

Die GeForce 3 war eine Weile auf dem Markt als die minimal schnellere Radeon 8500 auftauchte. Weil das nicht sein durfte brachte nVidia schnell die minimal schnellere GeForce 3 Ti500 auf den Markt. Dann dauerte es ein paar Monate bis der echte Refresh mit den GeForce 4 Ti kam.

Ich hatte selbst eine GeForce 3, eine Radeon 8500 und eine GeForce 3 Ti500. Mit der GeForce 3 war ich relativ zufrieden (AF war für meinen Geschmack etwas lahm), sie gab aber dummerweise ~2 Wochen vor dem GeForce 4 Debut den Geist auf.
Also schnell den PC geschnappt und mit in die Arbeit geschleppt, dort in der Werkstatt die GeForce raus und eine Radeon 8500 rein (GeForce 3 waren aus und nicht nachbestellt). Am 15"-Werkstattmonitor gebencht und die Leistung als OK befunden. Zuhause angekommen das ganze am 21" angeschlossen und aufgrund der hundsmieserablen Bildqualität (AF? Konnte man nicht wirklich so nennen und allgemein die Treiber...) einen Schock bekommen. Am nächsten Tag habe ich alle Filialen angemailt und mir eine Ti500 schicken lassen.

Damit die wer gegen wen Diskussion auch eine Ende findet hier mal eine kleine Auflistung was (ungefähr in dieser Reihenfolge) an Spitzenmodellen auf den Markt geworfen wurde (3dfx, Matrox und Co. lasse ich weg, sind einfach nicht relevant).

TNT 2 - Rage (Pro/Fury) - GeForce 256 (DDR) - Rage Fury Maxx -- GeForce 2 GTS - Radeon (7500) - GeForce 2 Ultra -- GeForce 3 - Radeon 8500 - GeForce 3 Ti500 -- GeForce 4 Ti4600 -- Radeon 9700 Pro - GeForce 5800 Ultra - Radeon 9800 Pro - GeForce 5900 Ultra - Radeon 9800 XT - GeForce 5950 Ultra -- GeForce 6800 Ultra (Extreme) - Radeon X800 XT (Platinum) - Radeon X850 XT -- GeForce 7800 GTX

Melbourne, FL
2005-09-15, 16:16:48
Die GeForce 3 war eine Weile auf dem Markt als die minimal schnellere Radeon 8500 auftauchte. Weil das nicht sein durfte brachte nVidia schnell die minimal schnellere GeForce 3 Ti500 auf den Markt.

Kann sein, dass das vielleicht am Anfang so war aber ich hab die Radeon 8500 ziemlich lange gehabt und die war (dann vielleicht mit neueren Treibern) leicht schneller als die Ti500. Eventuell darf man hier nicht vergessen, dass sich mit den Treibern noch etwas änderte.

Alexander

Mr.Magic
2005-09-15, 16:34:22
Bei der unterirdischen Bildqualität hätte die 8500 auch schneller als eine 7800GTX sein können, ich hätte sie trotzdem nach einem Tag wieder rausgeworfen.

deekey777
2005-09-15, 16:40:10
Die Radeon 7500 kam mit der 8500 und ist nicht gleich 1:1 mit der Ur-Radeon gleichzusetzen, da sie etwas mehr hatte, auch wenn am Chip featuremäßig nichts verändert wurde.

robbitop
2005-09-15, 16:40:41
@MrMagic

Die Radeon 256 hast du vergessen. Die 7500 wurde gemeinsam mit der 8500 released.
Die 7500 ist im Prinzip eine geshrinkte Radeon 256 mit mehr Takt. Kam aber wie gesagt deutlich später. Auch die GF4MX hast du vergessen und natürlich die low cost und midrange Derivate späterer Karten.

MikBach
2005-09-15, 16:43:19
Bei der unterirdischen Bildqualität hätte die 8500 auch schneller als eine 7800GTX sein können, ich hätte sie trotzdem nach einem Tag wieder rausgeworfen.
Die BQ des R200 war eigentlich recht gut.
Das bi-AF war natürlich ein Nachteil.
Damals hat man es aber nicht so extrem gesehen, weil das Leveldesign der Spiele anders war als heute und auch die Texturen waren noch ganz anders und nicht so "böse" wie heute. :wink:

Wenn es um die Leistung geht, war der R200 einer GF3 mit den Späteren (besseren) Treibern überlegen.
Es gibt sogar Spiele, wo der R200 einer GF4TI überlegen ist. :D
Siehe BF2. :wink:
Die GF4TI ist unterlegen, weil man mit ihr das Spiel nicht spielen kann. Das liegt aber weniger an der Leistung, sondern daran, dass die ATI-Karte damals fortschrittlicher war und PS1.4 hat.

Mr.Magic
2005-09-15, 17:08:10
@MrMagic

Die Radeon 256 hast du vergessen. Die 7500 wurde gemeinsam mit der 8500 released.
Die 7500 ist im Prinzip eine geshrinkte Radeon 256 mit mehr Takt. Kam aber wie gesagt deutlich später. Auch die GF4MX hast du vergessen und natürlich die low cost und midrange Derivate späterer Karten.

Ich habe die Radeon 256 nicht vergessen, nur das sie noch ein 256 dahinter stehen hatte. Das die 7500 mit der 8500 kam ist mir klar, die Klammern sind auch nichts definitives, in diesem Fall ist es auf die Leistung bezogen (dachte mir die Kids können sich an eher an die als an die Ur-Radeon erinnern, wenn ihr wollt entferne ich die Klammern).

Seit wann sind GF4MX, Low Cost und Midrange Spitzenmodelle? :|

@MikBach
Die Bildqualität war sowas von schlecht, schlechter geht kaum.
Ich habe damals Serious Sam Second Encounter gespielt. Auf der GeForce 3 mit 2xAA/2xAF sah es ganz gut aus, mit der Radeon 8500 waren die Texturen selbst bei den höchsten Qualitätssettings sowas von... reden wir nicht mehr darüber. Lieber was positives, die AA-Modi waren auch eher unbrauchbar sah aber nett aus (aber das hat sich bei ATi auch mit MSAA nicht geändert, viel zu wenig Auswahl).
Das mich die reinen Leistungwerte (rein messbarer Penislängenvergleich) nicht sonderlich interessiert sollte inzwischen klar sein. Für mich zählt nur mit welchem aktuellen Spitzenmodell ich in meinen Spielen die bestmögliche Bildqualität "spielbar" erreichen kann. Ob man kompromisslos Leistung/Bildqualität will, oder einen wieauchimmer gewichteten Kompromiss mit/ohne Blick auf Preis/Leistung will, muss jeder für sich entscheiden.
Ob man mit einem Museumsstück BF2 spielen kann dürfte höchstens für Schüler und Historiker interessant sein.
An alle Schüler: Kauft euch lieber eine Konsole bevor ihr euer bisschen Geld für Low-End rauswerft!

Spasstiger
2005-09-15, 17:09:22
Der R300 mußte nicht gegen den GF4 bestehen - dessen große Zeit (und er war gut!) war bereits vorbei. Der NV30 hat leider nur ~R300 Leistung erbracht, leider nichtmal ganz das..

Die GeForce 4 Ti Karten erreichten im April 2002 den Markt. Damals waren sie außer Konkurrenz. Innerhalb der nachfolgenden Monate mutierte die GeForce 4 Ti 4200 zum Kassenschlager, mit Preisen um die 200 Euro ein spitzenmäßiges Angebot damals. Allerdings wurden auch die Radeon 8500 Karten deutlich billiger, nach dem Sommer bekam man schon für etwas über 100 Euro eine Radeon 8500, ein gutes Preis-Leistungsverhältnis war also immer noch gegeben.
Im September kamen die Radeon 9700 Pro Karten großflächig auf den Markt, erste Tests gabs schon im August. Seit dem Erscheinen der GeForce 4 Ti waren also 5 Monate vergangen, die GeForce 4 Ti 4200 gingen zu der Zeit weg wie warme Semmeln (die große Zeit der GF 4 Ti war damals also keinesfalls vorbei, im Gegenteil). Die Radeon 9700 Pro konkurrierte ganz klar mit der GeForce 4 Ti 4600 (auch preislich, ca. 450 Euro gegen 350-400 Euro), welche aber gegen die Radeon 9700 kaum Land sah. UT2003 konnte man auf der 9700 Pro mit 4-fachem AntiAliasing ohne Leistungseinbruch spielen, während die GeForce 4 Ti 4600 auf die Hälfte einbrach. Auch die berüchtigte Doom 3 Alpha zeigte klar die Überlegenheit der Radeon 9700, wenn wirklich viel Grafikleistung gefragt war. Mit 3DMark03 kam dann die große Empörung der GeForce 4 Ti Fraktion, war ja geradezu skandalös, wieviel schneller dort die Radeon 9700 Pro war (auch wenn man den DirectX 9 Test nicht mitbetrachtet) ;).
Die ersten GeForce FX 5800 Ultra Karten rollten im Februar 2003 an, also 5 Monate nach Erscheinen der Radeon 9700 Pro. Die GeForce FX Karten hatten zwar eine gute Bildqualität und konnten auch von der Rohleistung mit der 9700 Pro mithalten, aber sobald FSAA oder aufwändige DX9-Shader verwendet wurden, sah auch die FX 5800 Ultra kein Land mehr. An der mageren Shaderperformance konnte auch die 4 Monate später erschienene FX5900 nichts mehr ändern. Die Radeon 9700 Pro war faktisch 9 Monate lang leistungsmäßig außer Konkurrenz und musste sich deshalb auch mit zwei verschiedenen Grafikkartengenerationen von Nvidia messen.

MikBach
2005-09-15, 17:15:18
@MikBach
Die Bildqualität war sowas von schlecht, schlechter geht kaum.
Ich habe damals Serious Sam Second Encounter gespielt. Auf der GeForce 3 mit 2xAA/2xAF sah es ganz gut aus, mit der Radeon 8500 waren die Texturen selbst bei den höchsten Qualitätssettings sowas von... reden wir nicht mehr darüber.
Das ist durchaus korrekt, obwohl es nicht für alle Spiele gilt.
Gothic war z.B. an einigen Stellen augenkrebserregend. :D
Ohne AF wa die BQ aber sehr gut. Damals wussten nicht wirklich viele, was AF und AA überhaupt bewirken (sollen).

Ob man mit einem Museumsstück BF2 spielen kann dürfte höchstens für Schüler und Historiker interessant sein.

Es gibt schon noch einige, die BF2 mit einer R8500 zocken. Ich würde es nicht, aber du kennst nicht die Schmerzgrenz einiger Personen.
Ich habe schon Kollegen mit einer BQ spielen sehen, das mir schlecht wurde (6800@Q).

Quasar
2005-09-15, 17:20:38
naha bei einander lagen? naja, also ne GF2ultra hat die 7500 gekillt, der gf3 ti500 die 8500, und gegen die gf4 kam reichlich spät der r300 an dem sich NV dann, die zähne eine zeitlang ausgebissen hat. =)
Eigentlich hat eine 7500 der GF2u ganz schön die Zähne gezeigt. =)
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_geforce_roundup/14/#abschnitt_spielebenchmarks

pnume
2005-09-15, 17:28:38
Zu Zeiten der 7500 hatte ATI aber noch grobe Probs mit den Treibern und dann war da noch der Beigeschmack vom Cheaten und vor allem die Erinnerungen an die RageII, Rage Pro, Rage128 :(

BlackArchon
2005-09-15, 17:44:49
Die 7x00er-Reihe bei Ati hatte doch ein (ungewöhnliches) 2x3-Design. Damals wurde doch gesagt, dass sich das in Zukunft auszahlen würde. Wie sieht das eigentlich jetzt aus?

Black-Scorpion
2005-09-15, 17:46:40
Zu Zeiten der 7500 hatte ATI aber noch grobe Probs mit den Treibern und dann war da noch der Beigeschmack vom Cheaten und vor allem die Erinnerungen an die RageII, Rage Pro, Rage128 :(
Was der andere ja nie gemacht hat und auch nie machen würde. :confused:

MikBach
2005-09-15, 17:50:55
Die 7x00er-Reihe bei Ati hatte doch ein (ungewöhnliches) 2x3-Design. Damals wurde doch gesagt, dass sich das in Zukunft auszahlen würde. Wie sieht das eigentlich jetzt aus?
Dürfte gut was bringen heute, da man mehrere Texturen übereinander legt.
Ohne Pixelshader kann mans aber vergessen, weil das fast alle Spiele vorraussetzen.

robbitop
2005-09-15, 18:47:50
Die 7x00er-Reihe bei Ati hatte doch ein (ungewöhnliches) 2x3-Design. Damals wurde doch gesagt, dass sich das in Zukunft auszahlen würde. Wie sieht das eigentlich jetzt aus?
Marketingsprüche. Man brauchte die dritte TMU um EMBM realisieren zu können.

MikBach
2005-09-15, 19:13:52
Marketingsprüche. Man brauchte die dritte TMU um EMBM realisieren zu können.
Wenn man aber EMBM ohne EMBM vergleicht...

aths
2005-09-15, 19:18:58
Marketingsprüche. Man brauchte die dritte TMU um EMBM realisieren zu können.Und wie geht dann EMBM mit der dritten TMU?

Die 7x00er-Reihe bei Ati hatte doch ein (ungewöhnliches) 2x3-Design. Damals wurde doch gesagt, dass sich das in Zukunft auszahlen würde. Wie sieht das eigentlich jetzt aus?Bei der Radeon zahlte sich HyperZ aus, um die Bandbreite zu schonen. Gerade beim 32-Bit-Rendering konnte somit ja sogar die GF2 überflügelt werden.

aths
2005-09-15, 19:21:16
Wenn man aber EMBM ohne EMBM vergleicht...... dann?

robbitop
2005-09-15, 19:52:02
Und wie geht dann EMBM mit der dritten TMU?

Die gleiche Frage hast du mir vor einer ganzen Weile schonmal gestellt und ich habe sie dir beantwortet. Nocheinmal tue ich es nicht. Sei so gut und nutze die Suchfunktion ;)

robbitop
2005-09-15, 19:53:24
Bei der Radeon zahlte sich HyperZ aus, um die Bandbreite zu schonen. Gerade beim 32-Bit-Rendering konnte somit ja sogar die GF2 überflügelt werden.
Und vor allem weil die NV15 TMUs dafür pro Bi Sample (32 Bit) 2 Takte brauchten und die R100 TMUs nur einen. Ergo halbiert sich dann mal eben die Füllrate der NV15 unter 32 Bit.

aths
2005-09-15, 20:06:31
Die gleiche Frage hast du mir vor einer ganzen Weile schonmal gestellt und ich habe sie dir beantwortet.Aber nicht zufriedenstellend. Erklärs mir noch mal :)


Und vor allem weil die NV15 TMUs dafür pro Bi Sample (32 Bit) 2 Takte brauchten und die R100 TMUs nur einen. Ergo halbiert sich dann mal eben die Füllrate der NV15 unter 32 Bit.Die TMU kann ein Bi-Sample bei 32 Bit in einem Takt erstellen. Alles andere wäre sinnlos. Lediglich die Speicherbandbreite limitiert.

robbitop
2005-09-15, 20:18:45
Aber nicht zufriedenstellend. Erklärs mir noch mal :)


Die TMU kann ein Bi-Sample bei 32 Bit in einem Takt erstellen. Alles andere wäre sinnlos. Lediglich die Speicherbandbreite limitiert.
1. dann bitte bringe gezielt Kritik mit Zitaten
2. da habe ich aber was Anderes gehört (btw auch gemessen)

aths
2005-09-15, 20:40:33
Wenn du es haben willst:

Von http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2835563:

Nun für EMBM benötigt es 3 Texturen. Eine "normale" Textur, eine Höhenmap und eine Umgebungsmap (environment map). Die Bumpmap und die Environment Map werden je von einer Textureinheit eingelesen und über eine BM Unit zu einer neuen Map vereint. Die Dritte TMU liest die Basistextur ein und schickt diese zusammen mit der neuen Bump Map zur EMBM Unit. Erst mit einer Pixelpipeline mit 3 TMUs geht das in einem Renderpass statt in 2en. Sprich in der Radeon 64 wurde das erste mal performantes EMBM geboten. Fragen? ;)Wie soll die Höhenmap denn verrechnet werden? Wenn die EMBM-Unit das machen soll: Wie genau? Warum soll die Basis-Textur von der dritten TMU gelesen werden (soweit mir bekannt, kann die dritte TMU des R100 nur bilinear filtern – das wäre ein bisschen dürftig.) Die GF3 schaffts auch in einem Renderpass, aber hat nur zwei TMUs pro Pixelpipe.

(Eine ähnliche Kritik findet sich im verlinkten Thread schon – unbeantwortet.)

Zu 2.: Soweit mir bekannt, skaliert die 32-Bit-Füllrate sehr schön mit dem Takt des Speichers.

Quasar
2005-09-15, 21:06:16
Die Geforce3 kann jede ihrer TMUs pro logischem Pass zweimal ansprechen. Das konnten "Pixelpipelines" zuvor IIRC nicht.

Heute kann jede DX9-Karte EMBM - mit zumeist nur einer TMU pro "Pixelpipeline".

aths
2005-09-15, 22:49:37
Die Geforce3 kann jede ihrer TMUs pro logischem Pass zweimal ansprechen. Das konnten "Pixelpipelines" zuvor IIRC nicht.

Heute kann jede DX9-Karte EMBM - mit zumeist nur einer TMU pro "Pixelpipeline".Auch jede DX8-Karte muss EMBM können. Bei Robbitops Erklärung frage ich mich insbesondere (die anderen genannten Punkte bleiben unberührt), was er mit der Basistextur will. Der EMBM-Effekt ist landläufig das verzerrte Aufbringen einer Environment-Map. Dass man diese Textur dann noch mit einer anderen verknüpft, kann sein, muss aber nicht. Es kann auch sein, dass man das EMBM-Ergebnis mit zwei Texturen (z. B. Diffuse*Light) oder noch mehr verknüpfen möchte. Dann brauchts wieder den neuen Pass und Alphablending. Rein für EMBM sind keine drei TMUs erforderlich, man muss aber in der Lage sein, mittels als Abweichung interpretierte Farben einer Textur zur Modifzierung der Texturkoordinaten beim Sampling einer anderen Textur zu nutzen.

robbitop
2005-09-16, 00:46:41
für EMBM braucht es keine 3 TMUs. Das war auch nie explizit meine Behauptung. Doch für jeden der o.g. drei Arbeitsschritte benötigt es eine TMU. Mit drei TMUs in einer Pipeline wäre EMBM also relativ schnell.
>DX8 GPUs erledigen einen Großteil über den Pixelshader

robbitop
2005-09-16, 00:49:13
Wenn du es haben willst:

Von http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2835563:

Wie soll die Höhenmap denn verrechnet werden? Wenn die EMBM-Unit das machen soll: Wie genau? Warum soll die Basis-Textur von der dritten TMU gelesen werden (soweit mir bekannt, kann die dritte TMU des R100 nur bilinear filtern – das wäre ein bisschen dürftig.) Die GF3 schaffts auch in einem Renderpass, aber hat nur zwei TMUs pro Pixelpipe.

(Eine ähnliche Kritik findet sich im verlinkten Thread schon – unbeantwortet.)



1. keine Ahnung wie das im Detail läuft. Interessant zu wissen wäre es jedoch.
2. weil man sonst einen 2. pass bräuchte? -> Performance
3. habe ich damals danach gesucht aber sie wohl überlesen, sry.

Annihilator
2005-09-16, 01:21:54
1) Nur, weil Du nicht so eine Scheiße schreibst, wie manch anderer, könntest Du aber dennoch an Deinem Ausdruck feilen ;)

2) Du hast natürlich den Vorteil, beide Karten gehabt zu haben. Ich selbst hatte nur Ti200, Ti4200 und Radeon 9000... Aber ich meine mich eben gut daran zu erinnern, daß die Radeon 8500 gegenüber der Ti500 ohne AA und AF tendenziell immer besser dastand, wenn > 1024*768 gegangen wurde. Hm... Zwickmühle.

3) Natürlich konnte man das mit der Ti4200 - aber war das für den Markt dereinst wirklich relevant? Selbst heute posten manche (sorry Goliath, aber das mußt Du jetzt ausbaden :D *Insider* ) im Screenshotthread Bilder, auf denen angeblich 4*4 Supersampling zu sehen ist, obwohl überhaupt kein AA wirkt *hust*


1. sorry, manchmal geht mein temprament halt mit mir durch. ;)

2. jupp, nagut, der sprung Ti200 auf Ti4200 ist natürlich nen ganz anderer als Ti500/R8500 auf Ti4200. =)
und habe das letzte mal glaube ich, mit ner GF2 in 1024 gezockt, sonst immer in 1280 und höher, von daher kanns gut sein das die 8600er auf der auslösung besser war als die Ti500, aber in hohen auflösung wars sie definitiv nimma. ;)

3. *lach* ja, das stimmt wohl... aber, ich habe eigentlich schon immer alles an qualität zugeschaltet was es gab b.z.w. soweit die hardware es zuließ. :)

Annihilator
2005-09-16, 01:23:54
Eigentlich hat eine 7500 der GF2u ganz schön die Zähne gezeigt. =)
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_geforce_roundup/14/#abschnitt_spielebenchmarks


bin ich blind? irgendwie entgeht mir da die R7500. =)

aths
2005-09-16, 05:36:53
für EMBM braucht es keine 3 TMUs. Das war auch nie explizit meine Behauptung. Hrm?Marketingsprüche. Man brauchte die dritte TMU um EMBM realisieren zu können."Man brauchte die dritte TMU um EMBM realisieren zu können."

Doch für jeden der o.g. drei Arbeitsschritte benötigt es eine TMU. Mit drei TMUs in einer Pipeline wäre EMBM also relativ schnell.
>DX8 GPUs erledigen einen Großteil über den PixelshaderBereits DX8-Grafikchips machen das über den Pixelshader. Allerdings ist der DX8-Pixelshader nur ein besserer Multitexturing-Combiner. Dennoch ist die DX-Doku (z.B. zum Pixelshader 1.1) interessant, welche Texturoperationen es so gibt. Einige sind speziell für EMBM-Effekte gedacht.

1. keine Ahnung wie das im Detail läuft. Interessant zu wissen wäre es jedoch.
2. weil man sonst einen 2. pass bräuchte? -> Performance
3. habe ich damals danach gesucht aber sie wohl überlesen, sry.Auf die Gefahr hin, belehrend zu wirken: Auch ohne allzusehr ins Detail zu gehen sollte schnell klar sein, dass man mit der Höheninformation wenig anfangen kann. Kannst dir das mal aufmalen und überlegen, wie viele arithmetische Berechnungen dann noch notwendig sind. Auch für Dot3 BM werden (bei den üblichen Realisierungen) keine Heightmaps gespeichert. (Steht auch im 3dc-Artikel.) Ob man mit Normalmaps auch EMBM machen kann, habe ich noch nicht geistig durchdrungen (weshalb sich der Artikel dazu ausschweigt.) Für einen EMBM-Fake-Effekt in 2D habe ich aus einer dynamischen Heightmap eine 2D-"Bumpmap" einfach mittels Gradientenberechnung erstellt, da war die Shading-Berechnung sogar noch komplexer (sozusagen mit Dot2, aber alles für die CPU und sehr langsam.) Der Fake mittels Gradienten ist allerdings in Bezug auf das, was simuliert werden sollte, nicht korrekt. Der Fake sah allerdings gut genug aus. Wollte man unterschiedliche Sichtwinkel mit einberechnen, wird es vom Aufwand her hässlich. Ob traditionelles EMBM das liefert, weiß ich nicht.

Mittels X-Y-Gradienten, (genutzt wird der R- und G-Kanal eines Bitmaps) hatte ich mal testweise bestimmte Verzerrungs-Effekte ausprobiert, eigentlich die Idee von EMBM. Man braucht zwei Texturen: Was wird verzerrt und wie wird es verzerrt.

Die Radeon 7500 ist nicht umsonst für Multitexturing gebaut. Doch inwiefern man für EMBM nun drei TMUs brauchen soll, ist mir nicht so recht klar – EMBM spielte zur R100-Zeit einfach nicht die Rolle, um eine 1-Pass-Lösung für EMBM inkl. Diffusemap mit extra Transistoren zu bedenken.

aths
2005-09-16, 05:52:48
Die Geforce3 kann jede ihrer TMUs pro logischem Pass zweimal ansprechen. Das konnten "Pixelpipelines" zuvor IIRC nicht.Kyro konnte das, wie auch EMBM (mit einer TMU und ohne Pixelshader :))

robbitop
2005-09-16, 11:29:26
Hrm?"Man brauchte die dritte TMU um EMBM realisieren zu können."

Bereits DX8-Grafikchips machen das über den Pixelshader. Allerdings ist der DX8-Pixelshader nur ein besserer Multitexturing-Combiner. Dennoch ist die DX-Doku (z.B. zum Pixelshader 1.1) interessant, welche Texturoperationen es so gibt. Einige sind speziell für EMBM-Effekte gedacht.


Dann habe ich mich falsch'/unklar ausgedrückt (passiert mir öfter).
Ich meine natürlich 1. performante Umsetzung und 2. >=DX8.

Danke für die Details :)

srykthx

Mr. Lolman
2005-09-16, 11:57:58
Lustig ists, dass trotz völlig unterschiedlicher AA/AF Technik ATis 8500 und NVs Ti500/Ti4200 mit aktivem AA/AF auch damals schon nahe beinander lagen.


Und noch lustiger ist, dass der tatsächliche Zusatznutzen der Radeon 8500 vgl zur Voodoo5 gegen Null tendierte, solang ich mich nicht mit schlechterer BQ als zuvor zufrieden geben wollte.

Die Rechnung ist ne ganz Einfache: 1024x768x22 2xAA bot den imo damals besten Kompromiss zw. Auflösung und Leistung. Und auf der Radeon? 16bit war qualitativ schlechter, OGSSAA ineffizienter, nur das flotte AF wusste zu gefallen. Jedoch blieb auch Rohleistungstechnisch bei 1024x768x32 4xAA nicht mehr soviel übrig von der übelegenen Power, nicht nur das: Die Karte war tw. sogar langsamer. Vll. hätte mir die AA-Speed der GF eher gefallen. Aber da war ein 2x2EER auch das Maximum, die 32bit Notwendigkeit genauso vorhanden und ich hätte die Leistung mit AF verblasen müssen, da MSAA nicht nur Alphatests unbehelligt lässt, sondern auch negatives LOD nicht mitglättet...

Im Übrigen betracht ich MSAA genauso als BQ-Cheat wie 'optimiert/flimmriges' AF. :)

robbitop
2005-09-16, 12:41:30
Lustig ists, dass trotz völlig unterschiedlicher AA/AF Technik ATis 8500 und NVs Ti500/Ti4200 mit aktivem AA/AF auch damals schon nahe beinander lagen.


Und noch lustiger ist, dass der tatsächliche Zusatznutzen der Radeon 8500 vgl zur Voodoo5 gegen Null tendierte, solang ich mich nicht mit schlechterer BQ als zuvor zufrieden geben wollte.

Die Rechnung ist ne ganz Einfache: 1024x768x22 2xAA bot den imo damals besten Kompromiss zw. Auflösung und Leistung. Und auf der Radeon? 16bit war qualitativ schlechter, OGSSAA ineffizienter, nur das flotte AF wusste zu gefallen. Jedoch blieb auch Rohleistungstechnisch bei 1024x768x32 4xAA nicht mehr soviel übrig von der übelegenen Power, nicht nur das: Die Karte war tw. sogar langsamer. Vll. hätte mir die AA-Speed der GF eher gefallen. Aber da war ein 2x2EER auch das Maximum, die 32bit Notwendigkeit genauso vorhanden und ich hätte die Leistung mit AF verblasen müssen, da MSAA nicht nur Alphatests unbehelligt lässt, sondern auch negatives LOD nicht mitglättet...

Im Übrigen betracht ich MSAA genauso als BQ-Cheat wie 'optimiert/flimmriges' AF. :)

*gg* immer diese 3dfx Fanatiker ;)

1. naja NV's AF war sehr füllratenlastig, ATIs AF hingegen natürlich nicht. Dafür war ATIs AA sehr Füllratentötend. Wenn man die reine Leistung vergleicht, ohne Äpfel-Birnen, war die NV25 deutlich schneller.

2. die R200 hatte deutlich mehr Rohleistung als jede Voodoo. Oder sprichst du von der Radeon 256? Natürlich war AA/AF nicht wirklich brauchbar.

3. Ist der Kontent gut, ist MSAA eine sehr gute Lösung. Ohne MSAA hätte man heute nicht so glatte Kanten, da sich das niemand in diesem Maße leisten könnte. Somit haben wir viel BQ für die Performance die es kostet.
Natürlich gibt es da auch Einbußen.

Black-Scorpion
2005-09-16, 13:07:43
bin ich blind? irgendwie entgeht mir da die R7500. =)
Ja ;)

Da gibt es einen schönen Link mit dem Namen oben drüber.
Vergleich zum Radeon-RoundUp (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_7500_9800_pro/13/#comanche_4)

Mr. Lolman
2005-09-16, 13:27:45
*gg* immer diese 3dfx Fanatiker ;)

1. naja NV's AF war sehr füllratenlastig, ATIs AF hingegen natürlich nicht. Dafür war ATIs AA sehr Füllratentötend. Wenn man die reine Leistung vergleicht, ohne Äpfel-Birnen, war die NV25 deutlich schneller.

2. die R200 hatte deutlich mehr Rohleistung als jede Voodoo. Oder sprichst du von der Radeon 256? Natürlich war AA/AF nicht wirklich brauchbar.

3. Ist der Kontent gut, ist MSAA eine sehr gute Lösung. Ohne MSAA hätte man heute nicht so glatte Kanten, da sich das niemand in diesem Maße leisten könnte. Somit haben wir viel BQ für die Performance die es kostet.
Natürlich gibt es da auch Einbußen.


1.+2.: Ja mir gings aber nicht um die Rohleistung, sondern darum, was man damit anstellen kann. Und mit 3dfx 22bit, 2xAA hatte ich praktisch kein störendes Dithering/Colorbanding/2x2EER und durchs negative LOD auch zufriedenstellende Schärfe. Dazu brauchte es bei der Radeon eben meistens 4xAA (ohne Fogging war das R200 AA eh RG, aber das gabs nunmal kaum). Damit konnte man sich zwar tw. wieder das AF sparen und negatives LOD verwenden (war bei bspw. bei SS:SE die eindeutig bessere Variante, da im Gegensatz zu bspw. Mafia, die AF-BQ untragbar war), aber man musste trotzdem 75% der Füllrate opfern, während bei der V5 nur 50% draufgingen. Unter dem Aspekt betrachtet, hatte die V5 sogar ne höhere "Rohleistung" (333MPixel/s vs. 275MPixel/s) - und dann gabs ja immernoch den Leistungsvorteil der "qualitativ ausreichenden 22bit" vs. der "notwendigen 32bit" bei der Konkurrenz. Übrigens auch ein Pluspunkt des R200, der bei 32bit weniger (tw. garnicht) einbrach als die NV Konkurrenz...

3. Ist beim AF genauso ;)

robbitop
2005-09-16, 14:30:22
1.+2.: Ja mir gings aber nicht um die Rohleistung, sondern darum, was man damit anstellen kann. Und mit 3dfx 22bit, 2xAA hatte ich praktisch kein störendes Dithering/Colorbanding/2x2EER und durchs negative LOD auch zufriedenstellende Schärfe. Dazu brauchte es bei der Radeon eben meistens 4xAA (ohne Fogging war das R200 AA eh RG, aber das gabs nunmal kaum). Damit konnte man sich zwar tw. wieder das AF sparen und negatives LOD verwenden (war bei bspw. bei SS:SE die eindeutig bessere Variante, da im Gegensatz zu bspw. Mafia, die AF-BQ untragbar war), aber man musste trotzdem 75% der Füllrate opfern, während bei der V5 nur 50% draufgingen. Unter dem Aspekt betrachtet, hatte die V5 sogar ne höhere "Rohleistung" (333MPixel/s vs. 275MPixel/s) - und dann gabs ja immernoch den Leistungsvorteil der "qualitativ ausreichenden 22bit" vs. der "notwendigen 32bit" bei der Konkurrenz. Übrigens auch ein Pluspunkt des R200, der bei 32bit weniger (tw. garnicht) einbrach als die NV Konkurrenz...

3. Ist beim AF genauso ;)

HrHr ..du und deine Apfel-Birne Vergleiche immer. (jaaa ok Birnen schmecken besser X-D).
Aber irgendwo hast du sicher auch Recht...zumindist aus Sicht der Endnutzer. Mir persönlich aber streuben sich da die Haare.

Beim AF ist's nicht genauso, da schlechtes AF nicht mit gutem Kontent völlig verschleierbar ist. Eine Analogie kann ich allerdings sehen.

Lass es uns so formulieren: we agree to disagree.
Ich verstehe deine Meinung und respektiere dies :)

MadManniMan
2005-09-16, 15:19:47
Lass es uns so formulieren: we agree to disagree.
Ich verstehe deine Meinung und respektiere dies :)

Bei MSAA muß ich dem lieben Lachmann aber widersprechen :D

(Vorraussetzung: wir sehen MSAA + AF seit GF3 - dann finden wir im AT-Flimmern den Nachteil, aber mit dem G70 schritt die Entwicklung noch weiter voran, den blödsinnigen Content-Kaputtern entgegen zu kommen, aber der Reihe nach.)

SSAA läßt sich (bis auf jene AT-Problematik) bei Multi-Texturing eigentlich perfekt durch MSAA + AF ersetzen. Die Adaptivität des AF, sowie die Möglichkeit der Kompression des MSAA beschert einer MSAA + AF Lösung bei einem vergleichbaren SSAA-Bild jedoch die höhere Performance, oder aber bei vergleichbarer Geschwindigkeit eine höhere Qualität.

Erst bei Shaderreien kommen die Nachteile von reinem Textur-AF zum Vorschein - es wird wohl Zeit für eine Art Shader-AF, hm?


MSAA ist kein "Cheat", sondern darauf ausgelegt, zum Einen anders und zum Anderen zusammen mit AF zu arbeiten. *trotz 3dfx-Nachtrauerns die Lanze bricht*

Mr. Lolman
2005-09-16, 16:03:01
Volkommen unrecht hast du natürlich nicht. Jedoch kostet TSSAA genauso Transistoren wie AF. Füllratenverschwendung in Form von OGSSAA ist im Jahre 2005 nachwievor aktuell, nicht nur das: OGSSAA war ja bis vor kurzem die einzige Möglichkeit kaputtes AF rechtzufertigen. Für Shader AF/SSAA, bräuchts wieder eigene Transistoren und der Einbruch mit TSSAA beträgt lt. Tombman bei Chrome bspw. bis ~50%. AF kostet natürlich auch ein bisschen was, und ist auch noch winkelabhängig. Klar ist 4xSSAA im Grunde overkill, aber die Leistung wär auch heutzutage dafür vorhanden.

Außerdem haben die Chips bei manchen Szenerien ein kleines Problem mit MSAA:

x) Es ist nicht immer verwendbar (HDR, manche Fullscreeneffekte)
x) Bspw.: bei GTA-SA ist der Einbruch, bei manchen Szenen, mit 8xS höher als mit 2x2SSAA (bspw Wolken, Rauch)

Die Probs gäbs mit (RG)SSAA nicht, die Entwicklungskosten und der Transistorcount (höhere Taktbarkeit) wären geringer, der Transistorcountgeringer und die GraKa dementsprechend günstiger.

BTW: Optimiertes AF ist kein Cheat, sondern darauf ausgelegt selbst bei hohen Auflösungen noch brauchbare fps anzubieten ;) Bleiben wir doch dabei: MSAA ist ein Kompromiss um aus begrenzter Leistung noch brauchbare BQ zu
holen..

Nebenbei sind auf der Voodoo5 bei aktivem AA die T-Buffereffekte (Motion Blur, Depth of Field Blur, Soft Shadows & Soft Reflections) 4free, oder bei aktiven T-Buffereffekten AA 4free.