PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce FX 5900 Reviews


Seiten : 1 [2] 3

Carlo28
2003-05-12, 21:57:26
Originally posted by Wallman
Aus dem Chiptest:

"In den nächsten Tagen soll offiziell eine Treiberrevision folgen, die unter anderem WHQL-verifiziert ist."

Der kommt definitiv!

aths
2003-05-12, 21:58:55
Originally posted by DrumDub
und das 8xaa der fx sieht beschissener aus als das 4xaa der ati... na danke... *g* Für D3D stimmt das absolut. Finde ich auch peinlich.Originally posted by ow
"
Jo, das Teil ist richtig flott unterwegs. Leider hat ATi keine besseren AF-Modi eingebaut. Somit ist das Teil im Bezug auf AF mehr oder weniger für die Tonne.
"

Aber wir wollen Chips doch nicht anhand eines einzelnen Kriterium beurteilen, oder? Immerhin hat Exxtreme die Tonne mit "mehr oder weniger" abgeschwächt. Und _dass_ NV bei 4x AA nur den OG-Modus anbietet, ist imo in der Tat sehr negativ zu bewerten.

aths
2003-05-12, 22:06:55
Originally posted by Carlo28
Nicht nur leistungstechnisch auch Bildqualitätsmäsig.
Die hässlichen Alpha Blending Artefakte hat ATI bis dato heute nicht in den Griff bekommen und das ist mehr als traurig. Du meinst, Alpha Testing-Artefakte :)
Originally posted by seahawk
Kein 3.3, 3.4 mit Problmen in einem der wichtigsten kommenden Spiele.

Ich hoffe nur dass ATI die Treiber in den Griff kriegt, dann ist die Karte durch das bessere AA imo der FX5900U ebenbürtig. Imo ist es völlig klar, dass ATI dafür sorgen wird, dass auf ihren Karten die Doom3-Engine gut laufen wird. Sie haben ja gar keine Wahl, wenn sie im Spiel bleiben wollen.

aths
2003-05-12, 22:09:01
Originally posted by Demirug
Leicht OT:

Für alle die es noch nicht wissen: Dawn (http://www.nvidia.com/view.asp?IO=demo_dawn) hat einen Zwillingsschwester Dusk (http://www.nvidia.com/view.asp?IO=demo_dusk) Die kann sich gleich mal bei mir melden :D
Originally posted by Demirug
@mapel: In bewegung sieht die gute IMHO noch besser aus. Mal schauen ob man da die Schuhe ;) wegpachten kann. Fußfetischist? :nono:
Originally posted by Exxtreme
Haste recht. :)

OK, das AA ist NICHT für die Tonne sondern... sagen wir mal... leicht suboptimal. Das ist nun leicht untertrieben. Zwischen 4x OG und 4x RG gibts deutliche Unterschiede. Die Kanten sind, etwas vereinfacht gesagt, immerhin "doppelt so glatt".

Carlo28
2003-05-12, 22:12:43
Originally posted by aths
Du meinst, Alpha Testing-Artefakte :)


Jo :)

Xmas
2003-05-12, 22:13:17
Originally posted by Exxtreme

Nicht wirklich. :)

Bei Quincunx fliessen zwar 2 AA-Samples an Information hinein, es werden aber 5 Samples zur Glättung genutzt. Das ergibt diese Unschärfe. Das hat mir einem Postfilter gar nichts zu tun.
Man kann dies aber durchaus als Postfilter bezeichnen.

daflow
2003-05-12, 22:13:23
Originally posted by aths
Imo ist es völlig klar, dass ATI dafür sorgen wird, dass auf ihren Karten die Doom3-Engine gut laufen will.

Wuz? =)
Du meinst damit du bist überzeugt, dass ATI
die Treiber so nachbessern wird, das sie näher an die Leistung der 5900 Ultra kommen? Und wenn wie nah? =)

Crushinator
2003-05-12, 22:16:03
Originally posted by seahawk
Die Vorstellung, dass DOOM3 erscheint und auf ATI Karten erst mit Patch oder neuem Catalyst richtig spielbar ist, ist eine absolute Horrorvorstellung und würde das Image von ATI für die nächste Zeit schwer zerstören. Auch idsoftware kann sich nicht leisten, daß ihre Produkte nur auf bestimmter Hardware "richtig" spielbar sind. Diesen Fall hat es bisher auch noch nie gegeben. Also, abwarten und Tee rauchen, denn es könnte sich auch einfach um eine nicht weiter nennenswerte Panne gehandelt haben.

Demirug
2003-05-12, 22:20:33
Originally posted by aths
Die kann sich gleich mal bei mir melden :D

Da musst du dich aber hinten anstellen.

Fußfetischist? :nono:

nö aber bei den engen Hosen wird das mit ausziehen nichts solange sie die Schue noch an hat.

und damit es nicht ganz offtopic ist :D

Imo ist es völlig klar, dass ATI dafür sorgen wird, dass auf ihren Karten die Doom3-Engine gut laufen will.

Sie werden zumindestens alles versuchen.

aths
2003-05-12, 22:21:15
Originally posted by PeTa
Wuz? =)
Du meinst damit du bist überzeugt, dass ATI
die Treiber so nachbessern wird, das sie näher an die Leistung der 5900 Ultra kommen? Und wenn wie nah? =) Das habe ich so nicht gesagt, zumindest so nicht gemeint. Ich meine, dass ATI dafür sorgen wird, dass Doom "anständig" spielbar ist. Offensichtlich ist der NV35 irgendwie auf Doom zugeschnitten. Vermutlich wird er in Doom von der 9800 Pro immer ungeschlagen bleiben. Aber man spielt ja nicht NUR Doom.

egdusp
2003-05-12, 22:23:02
Ich dachte Anandtech hätte bereits mit den neuen Detos getestet. THG scheinbar aber nur mit den alten (44.xx), die wohl aber trotzdem neu waren.
Kann leider Anand grad nicht erreichen. Weiß jemand welche Treiber die da benutzt haben?

mfg
egdusp

daflow
2003-05-12, 22:26:33
Originally posted by aths
Das habe ich so nicht gesagt, zumindest so nicht gemeint. Ich meine, dass ATI dafür sorgen wird, dass Doom "anständig" spielbar ist. Offensichtlich ist der NV35 irgendwie auf Doom zugeschnitten. Vermutlich wird er in Doom von der 9800 Pro immer ungeschlagen bleiben. Aber man spielt ja nicht NUR Doom.

Da es mit dem nächst älteren Treiber ja durchaus gut spielbar ist, sollte das ja nicht so schwierig sein.

Originally posted by aths
Imo ist es völlig klar, dass ATI dafür sorgen wird, dass auf ihren Karten die Doom3-Engine gut laufen will.

^^ wolltest du diesen Satz wirklich so schreiben.. '...gut laufen will...' ?

aths
2003-05-12, 22:58:18
Originally posted by Exxtreme
Nicht wirklich. :)

Bei Quincunx fliessen zwar 2 AA-Samples an Information hinein, es werden aber 5 Samples zur Glättung genutzt. Das ergibt diese Unschärfe. Das hat mir einem Postfilter gar nichts zu tun. Das Downsampling mit den 5 Subpixeln findet statt, nachdem herkömmlich mit 2x RGMSAA gerendert wurde.

aths
2003-05-12, 23:01:45
Originally posted by MadManniMan
...postfilter war vielleicht der falsche begriff, da man damit auch tolle sachen machen kann (focus, tiefenunschärfe usw.), aber er war halt besser für meinen magen! Hehe. Das ist dann aber nur ein "...-like"-Effekt. Echte Tiefenunschärfe ist mit Postfiltering nicht vernünftig zu machen. (Wenn der letzte Satz Unsinn war, bitte sagen, wie man das mit einem Postfilter korrekt rendern will.)

PP
2003-05-12, 23:22:57
Originally posted by egdusp
Ich dachte Anandtech hätte bereits mit den neuen Detos getestet. THG scheinbar aber nur mit den alten (44.xx), die wohl aber trotzdem neu waren.
Kann leider Anand grad nicht erreichen. Weiß jemand welche Treiber die da benutzt haben?

mfg
egdusp

44.03
Seite 16 New Drivers from ATI & NVIDIA

"NVIDIA's Detonator FX drivers will be publicly available on May 14th and will improve performance across the board for all FX cards, we will be following up with a performance article later this week entailing the exact performance improvements you can expect from the Detonator FX drivers"

seahawk
2003-05-13, 08:12:47
Originally posted by PeTa


Da es mit dem nächst älteren Treiber ja durchaus gut spielbar ist, sollte das ja nicht so schwierig sein.


Ja, aber für mich stellt sich eine Frage, warum Cat 3.2 läuft und Cat 3.4 nicht.

Meine Verdacht ist der neue Renderpfad für die R350. Vielleicht wird der erzielte Leistungsgewinn durch Maßnahmen erzielt, die schlecht für die DoomIII engine sind.

PS. Ich glaube auch dass es ATI schafft brauchbare Treiber für DoomIII zu bringen, aber momentan macht mir die Treiberentwicklung wieder Sorge.

Exxtreme
2003-05-13, 10:35:42
Originally posted by seahawk
PS. Ich glaube auch dass es ATI schafft brauchbare Treiber für DoomIII zu bringen, aber momentan macht mir die Treiberentwicklung wieder Sorge.
Mir ehrlich gesagt nicht. :)

Demirug sprach mal davon, daß die WHQL-Tests deutlich strenger werden da jetzt auch die Spiele-Entwickler mitreden können. Vielleicht hat der Cat3.3 diese Tests nicht mehr geschafft, der Cat3.4 aber schon.

Und daß ein noch lange nicht erhältliches Spiel nicht gerade berauschend läuft, ist mir ehrlich gesagt schnuppe.

seahawk
2003-05-13, 10:46:47
Ich würde Dir bedenkenlos zustimmen, wenn der Cat 3.2 auch nicht funktionieren würde.

Aber so muss eine der Verbesserungen des Cat 3.4 für die Anforderungen von DoomIII kontraproduktiv sein. Da ich vermute, dass sich an der DOOMIII Engine wenig ändern wird, muss sich was am Cat ändern.

Aber sie haben ja genug Zeit und sollten es eigentlich schaffen.

Quasar
2003-05-13, 10:53:21
Demi hat IIRC gesagt, Spieleentwickler könnten ab jetzt eine speziell angefertigte Demo-Sequenz einreichen, wenn ein Treiber einen Bug hat, so dass dieser Bug in Zukunft ausgeschlossen sein würde.

Gleichzeitig meinte er aber (ebenfalls IIRC), dass dies einen enormen Aufwand bedeuten würde, so dass das wohl nicht allzuviel Anklang ausser bei den ganz großen Spieleschmieden finden dürfte.

Zum OpenGL-ICD bei ATi:
Vielleicht hat man sich für den Cat3.4 erstmal auf HL2 konzentriert, oder läuft das mittlerweile unter DX9?

mapel110
2003-05-13, 10:55:27
Originally posted by Quasar
Zum OpenGL-ICD bei ATi:
Vielleicht hat man sich für den Cat3.4 erstmal auf HL2 konzentriert, oder läuft das mittlerweile unter DX9?

wenn es denn auch auf der xbox erscheinen soll, halte ich opengl für unwahrscheinlich. also wohl dx9.

ow
2003-05-13, 11:00:32
Originally posted by mapel110


wenn es denn auch auf der xbox erscheinen soll, halte ich opengl für unwahrscheinlich. also wohl dx9.


Du meinst wohl eher DX7.

Quasar
2003-05-13, 11:12:39
Originally posted by mapel110


wenn es denn auch auf der xbox erscheinen soll, halte ich opengl für unwahrscheinlich. also wohl dx9.

Der XBox-Chip unterstützt AFAIK auch eine ganz Menge OpenGL-Extensionen...

DrumDub
2003-05-13, 11:24:48
die engine von hl2 ist directx: "Kein Geheimnis ist es, dass HL2 mit der Valve hausinternen Source-Engine laufen wird. Nicht so bekannt ist es hingegen, dass die Game Physics Engine eine modifizierte Version der Havok Game Dynamics Engine ist."

http://www.cstrike.de/index.php?cond=20&sec=

upss... vielleicht doch nicht. von der havok engine stammen wohl nur die physics. wahrschienlich wohl deshalb: "Cross-platform Support
Havok is available for the PlayStation2, GameCube, Xbox and PC."

http://www.havok.com/news/release.html

MadManniMan
2003-05-13, 12:22:46
Originally posted by Quasar


Der XBox-Chip unterstützt AFAIK auch eine ganz Menge OpenGL-Extensionen...

das ist wahr, aber in den ganzen gabe newell interviews wird der leser erkennen, daß sich die jungens auf dx - und hierbei auch dx9 - konzentrieren.... gell, ow? :naughty:

Vertex
2003-05-13, 12:28:33
Habe bei einer der Presentationsfolien (chip.de) gesehen, dass da unter anderen Features steht:

256MB of DDR/DDR2

Kann mal jemand schreiben ob das bedeutet dass die Geforce FX 5900 Ultra auch mit DDR2 rauskommt.??? Oder hab ich da irgendwas verwecheselt?
http://www.chip.de/ii/11093442_d226c700be.jpg


von tomshardware: (NV35)

... Mit dem Einsatz von gängigen DDR Speichermodulen hat sich das Thema DDR-II erst einmal erledigt. ...

Demirug
2003-05-13, 12:48:09
Originally posted by Quasar


Der XBox-Chip unterstützt AFAIK auch eine ganz Menge OpenGL-Extensionen...

???

Nein tut er nicht. Aber die DX Version der XBox erlaubt das man auch die Spezialitäten des NV2A wirklich nutzen kann.

ow
2003-05-13, 12:52:34
Originally posted by MadManniMan


das ist wahr, aber in den ganzen gabe newell interviews wird der leser erkennen, daß sich die jungens auf dx - und hierbei auch dx9 - konzentrieren.... gell, ow? :naughty:

wart's ab.
fuer mich zaehlen hier nur fakten, kein marketing-geblubbere.

mapel110
2003-05-13, 12:53:10
@vertex
eventuell lässt nvidia den boardherstellern spielraum. oder die angaben sind halt so gehalten, dass man sich für die zukunft diese option offen hält.

@ow
HL2 wird wohl ein installiertes dx9 benötigen. so meinte ich das.

ow
2003-05-13, 12:55:07
Originally posted by mapel110

@ow
HL2 wird wohl ein installiertes dx9 benötigen. so meinte ich das.

ja, das koennte sein.
aber war nicht irgendwo die Rede davon, dass ein DX6 Chip ausreicht, um das Spiel zu starten (oder verwechsel ich das jetzt mit was anderem)?

Quasar
2003-05-13, 12:58:57
Originally posted by Demirug


???

Nein tut er nicht. Aber die DX Version der XBox erlaubt das man auch die Spezialitäten des NV2A wirklich nutzen kann.

Der XBox-Chip (also der Grafikchip) tut dies schon, denke ich. Das man dies in der XBox als Ganzes nutzen kann, wollte ich nicht behaupten.

mapel110
2003-05-13, 12:59:58
Originally posted by ow


ja, das koennte sein.
aber war nicht irgendwo die Rede davon, dass ein DX6 Chip ausreicht, um das Spiel zu starten (oder verwechsel ich das jetzt mit was anderem)?

jo, davon war die rede. aber wie valve das hinkriegen will, dass eventuell dx9 installiert sein soll und dann trotzdem noch mit treibern laufen soll, die nur dx6 kennen, versteh ich nicht.

demirug sagte ja mal, dass dx9 mindestens dx7 fähige treiber braucht.

x-dragon
2003-05-13, 13:02:01
Originally posted by ow


ja, das koennte sein.
aber war nicht irgendwo die Rede davon, dass ein DX6 Chip ausreicht, um das Spiel zu starten (oder verwechsel ich das jetzt mit was anderem)? Das stand unteranderem hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=66949&perpage=15&highlight=Dx6%20HL2&pagenumber=2

allerdings natürlich ohne angabe irgendeiner Quelle ...

Demirug
2003-05-13, 13:06:49
Originally posted by Quasar


Der XBox-Chip (also der Grafikchip) tut dies schon, denke ich. Das man dies in der XBox als Ganzes nutzen kann, wollte ich nicht behaupten.

OK :D Das ist nun auch wieder richtig.

Demirug
2003-05-13, 13:08:43
Originally posted by mapel110


jo, davon war die rede. aber wie valve das hinkriegen will, dass eventuell dx9 installiert sein soll und dann trotzdem noch mit treibern laufen soll, die nur dx6 kennen, versteh ich nicht.

demirug sagte ja mal, dass dx9 mindestens dx7 fähige treiber braucht.

DX7-Treiber. Man kann aber auch für DX6 Hardware einen DX9 Treiber schreiben.

smasher
2003-05-13, 13:29:13
So,
dann mache ich mal eine quellenangabe zu HL2 (ein wenig O.T.) :

"Mit minimalen Details und 640 mal 480 Pixeln soll HL2 schon ab 700 Mhz, 128 MByte RAM sowie einer TNT Grafikkarte laufen - wichtig fürden U.S. Markt, dessen Spieler weniger gut ausgestattet sind als die deutschen."
Quelle Gamestar 06/2003 Seite 28.

Ob eine TNT Grafikkarte nun DX6 oder DX7 ist weiß ich jetzt gerade nicht. Sie wird aber IMO durch den Detonator mit DX9 umgehen können.

Gruß
Smasher

PS: Zu Doom III : die probleme mit dem Cat3.4 stimmen mich nachdenklich. der doom III test kam bestimmt nicht aus heiterem himmel....
Ich denke die FX 5900 (Ultra) ist das was die FX 5800 hätte sein sollen :)

ow
2003-05-13, 13:39:31
Originally posted by smasher

Ob eine TNT Grafikkarte nun DX6 oder DX7 ist weiß ich jetzt gerade nicht. Sie wird aber IMO durch den Detonator mit DX9 umgehen können.




Sie ist eigentlich DX6, weil sie keine der Neuerungen von DX7 in HW unterstuetzt. Der Deto ist DX9.

mapel110
2003-05-13, 13:50:49
Originally posted by Demirug


DX7-Treiber. Man kann aber auch für DX6 Hardware einen DX9 Treiber schreiben.

hab nix anderes geschrieben. allerdings gibts wohl keine dx6 karte, die keine dx7-treiber(oder höher) hat, oder ?!

Quasar
2003-05-13, 14:00:10
Originally posted by Endorphine
Interessant wäre mal ein Lauf von zecki's Archmark auf dem NV35. Was nVidia uns noch zu beweisen hat:

Falls das noch nicht beantwortet wurde (sry, hab nicht den ganzen Thread gelesen!): der nV35 hat dasselbe Pipeline-Setup wie der nV30.

Pirx
2003-05-13, 14:06:46
Hmm das ist ja alles schön und gut, aber ich traue diesen sofort-nach-Launch-Reviews nicht so richtig und werde mir erst in späteren Tests (3DC??) ein Bild machen können.

ow
2003-05-13, 14:10:10
Originally posted by smasher

Ich denke die FX 5900 (Ultra) ist das was die FX 5800 hätte sein sollen :)


Nein, die FX5800 ist schon was sie sein sollte, allerdings sind mehr als 9 Monate Verzoegerung einfach zuviel gewesen.
Die 5900 ist der Nachfolger (Refresh) der 5800.

ow
2003-05-13, 14:11:05
Originally posted by mapel110


hab nix anderes geschrieben. allerdings gibts wohl keine dx6 karte, die keine dx7-treiber(oder höher) hat, oder ?!

intel i740, fuer den gibt's nur DX6 Treiber *eg*

mapel110
2003-05-13, 14:14:49
Originally posted by ow



Nein, die FX5800 ist schon was sie sein sollte, allerdings sind mehr als 9 Monate Verzoegerung einfach zuviel gewesen.
Die 5900 ist der Nachfolger (Refresh) der 5800.

glaube aber kaum, dass es nvidia für nötig gehalten hätte, die FX damals mit 500 mhz zu releasen samt FlowFX kühlung :tgv:

imo wären da die taktraten deutlich moderater ausgefallen.

MadManniMan
2003-05-13, 14:26:18
Originally posted by mapel110
imo wären da die taktraten deutlich moderater ausgefallen.

und selbst, wenns noch weniger als die 400 mhz der non-ultra gewesen wären: dereinst wär der nv30 ein heißen eisen gewesen - heut ist er "nur noch" sehr gut

ow
2003-05-13, 15:01:21
da stimme ich MMM mal zu.

im uebrigen scheint es mir so, dass bei vielen die Erwartungen an den NV30 mit jeder Woche der Verzoegerung gestiegen sind. da ist dann natuerlich spaeter die Enttaeuschung umso groesser.

aths
2003-05-13, 17:48:19
Meine Meinung zum NV35: Das ist der Chip, der anstelle des NV30 hätte kommen müssen.

Größter Kritikpunkt bis jetzt: Kein 4x RGMSAA. Ich meine, da hat er supertolle Shader 2.0+, die auch noch sehr schnell ausgeführt werden, und dies, und das, und jenes - und dann diese uralte, nicht besonders effiziente AA-Technologie. AA ist nicht alles, aber "wirklich gutes" AA gehört meiner Meinung nach zu alles, was sich da HighEnd nennen will.

Quasar
2003-05-13, 17:56:47
Originally posted by aths
Meine Meinung zum NV35: Das ist der Chip, der anstelle des NV30 hätte kommen müssen.

Größter Kritikpunkt bis jetzt: Kein 4x RGMSAA. Ich meine, da hat er supertolle Shader 2.0+, die auch noch sehr schnell ausgeführt werden, und dies, und das, und jenes - und dann diese uralte, nicht besonders effiziente AA-Technologie. AA ist nicht alles, aber "wirklich gutes" AA gehört meiner Meinung nach zu allem, was sich da HighEnd nennen will.

Zu allem. :)

Aber ansonsten ein seltenes Ack. Ein Mehr an FSAA wäre sicherlich nett gewesen, aber bei hohen Auflösungen wird das zunehmend unwichtig, IMO.

MadManniMan
2003-05-13, 18:04:26
Originally posted by Quasar


Zu allem. :)

Aber ansonsten ein seltenes Ack. Ein Mehr an FSAA wäre sicherlich nett gewesen, aber bei hohen Auflösungen wird das zunehmend unwichtig, IMO.

ich muß sagen, daß ich gerne eine fx nehmen würde, hätte ich nen moni, der mir 1600 sauber auf den screen zaubert! im moment ziert aber noch n mäßiger 17"er meinen schreibtisch, der mich 1024 präferieren läßt. und mein nächster ist ein 17" TFT - ergo auch nur 1280...

aber auch prinzipiell hätt ich gern rg-ms, das darf man auch imho erwarten

aths
2003-05-13, 18:06:05
Originally posted by Quasar
Aber ansonsten ein seltenes Ack. Ein Mehr an FSAA wäre sicherlich nett gewesen, aber bei hohen Auflösungen wird das zunehmend unwichtig, IMO. Da bist du bei mir an den falschen geraten :naughty: Ich möchte hohe Auflösungen _und_ 4x RG AA. Ich hab bei mir mal Q3 in 1600x1200 mit 4x OGAA angesehen. Das ist ja ganz gut, aber nicht gut genug. Vor allem, die Konkurrenz kann es ja auch...

Quasar
2003-05-13, 18:10:05
Klar. Aber mir gehen vernünftige Texturen vor glatten Kanten. Prozentual machen die eh einen deutlich größeren Teil des Bildes aus und die besten Texturen kriegt man in möglichst hoher Auflösung mit zugeschaltetem AF.
Wenn danach noch Leistung für FSAA übrigbleibt, schön. Aber 2xRGAA reicht mir da im Allgemeinen.

4x ist natürlich schöner und wenn ich's umsonst kriegte, würde ich's auch nehmen. Da aber bekanntlich nichts auf dieser Welt umsonst ist, ziehe ich eine hohe Auflösung und "nur" 2xRGAA einer (mind. um 2 volle Stufen (1600 vs. 1152) niedrigeren mit 4xRGAA vor.

aths
2003-05-13, 18:18:33
Originally posted by Quasar
Klar. Aber mir gehen vernünftige Texturen vor glatten Kanten. Prozentual machen die eh einen deutlich größeren Teil des Bildes aus und die besten Texturen kriegt man in möglichst hoher Auflösung mit zugeschaltetem AF.
Wenn danach noch Leistung für FSAA übrigbleibt, schön. Aber 2xRGAA reicht mir da im Allgemeinen.

4x ist natürlich schöner und wenn ich's umsonst kriegte, würde ich's auch nehmen. Da aber bekanntlich nichts auf dieser Welt umsonst ist, ziehe ich eine hohe Auflösung und "nur" 2xRGAA einer (mind. um 2 volle Stufen (1600 vs. 1152) niedrigeren mit 4xRGAA vor. Ich möchte gute Texturen _und_ glatte Kanten. Was verstehe ich unter glatten Kanten? Unter glatten Kanten verstehe ich Kanten, die glatt sind. Bei 1600x1200 nehme ich bei 2x AA noch Treppen-Effekte wahr. Nun spiele ich lieber in 1400x1050, da mein Moni dann noch 100 Hz bringt. 2x RGAA gegenüber No AA ist natürlich ein deutlicher Sprung bezüglich der Qualität. 4x RGAA würde die Treppenstufen der Kanten aber so gut glätten, dass sie für mich "praktisch" nicht mehr zu sehen sind. Das kann man von einem High-End-Modell heutzutage imo wirklich erwarten.

Das mit dem AA betrifft auch super-dünne Objekte (die horizontal oder vertikal ausgerichtet sind.) Die flimmern bei 4x RGAA einfach sehr viel weniger als mit 4x OG bzw. 2x RG.

Hinzu kommt, nicht jede Anwendung erlaubt höchste Auflösungen. Um 4x RGAA-Qualität zu kriegen, muss man dann schon 8xS nehmen. Das ist natürlich deutlich langsamer als 4x MSAA.

Du kannst es drehen und wenden wie du willst, im Jahre 2003 stellt das Fehlen eines 4x RGAA-Modus' einen klaren Mangel dar. Denn die Konkurrenz hat es, und das schon etwas länger, und tatsächlich scheinen viele R300-User den 4x Modus bevorzugt zu verwenden. Sich mit höchsten Auflösungen "auszuhelfen" ist eine "Lösung", die auch dann funktioniert wenn man gar kein AA hat, und das kann es ja auch nicht sein...

Was ist mit 8xS? Tja, *heute* kann man das bei moderaten Auflösungen wohl noch anwenden. In Zukunft ist dieser Modus zu aufwändig, da kann man es sich nicht mehr leisten, die Karte mit nur 1/4 der Füllratenleistung zu fahren.

MadManniMan
2003-05-13, 18:29:04
Originally posted by aths
Ich möchte gute Texturen _und_ glatte Kanten. Was verstehe ich unter glatten Kanten? Unter glatten Kanten verstehe ich Kanten, die glatt sind. Bei 1600x1200 nehme ich bei 2x AA noch Treppen-Effekte wahr. Nun spiele ich lieber in 1400x1050, da mein Moni dann noch 100 Hz bringt. 2x RGAA gegenüber No AA ist natürlich ein deutlicher Sprung bezüglich der Qualität. 4x RGAA würde die Treppenstufen der Kanten aber so gut glätten, dass sie für mich "praktisch" nicht mehr zu sehen sind. Das kann man von einem High-End-Modell heutzutage imo wirklich erwarten.

Das mit dem AA betrifft auch super-dünne Objekte (die horizontal oder vertikal ausgerichtet sind.) Die flimmern bei 4x RGAA einfach sehr viel weniger als mit 4x OG bzw. 2x RG.

Hinzu kommt, nicht jede Anwendung erlaubt höchste Auflösungen. Um 4x RGAA-Qualität zu kriegen, muss man dann schon 8xS nehmen. Das ist natürlich deutlich langsamer als 4x MSAA.

Du kannst es drehen und wenden wie du willst, im Jahre 2003 stellt das Fehlen eines 4x RGAA-Modus' einen klaren Mangel dar. Denn die Konkurrenz hat es, und das schon etwas länger, und tatsächlich scheinen viele R300-User den 4x Modus bevorzugt zu verwenden. Sich mit höchsten Auflösungen "auszuhelfen" ist eine "Lösung", die auch dann funktioniert wenn man gar kein AA hat, und das kann es ja auch nicht sein...

Was ist mit 8xS? Tja, *heute* kann man das bei moderaten Auflösungen wohl noch anwenden. In Zukunft ist dieser Modus zu aufwändig, da kann man es sich nicht mehr leisten, die Karte mit nur 1/4 der Füllratenleistung zu fahren.

full ack!

Endorphine
2003-05-13, 18:31:57
Originally posted by aths
Da bist du bei mir an den falschen geraten :naughty: Ich möchte hohe Auflösungen _und_ 4x RG AA. Ich hab bei mir mal Q3 in 1600x1200 mit 4x OGAA angesehen. Das ist ja ganz gut, aber nicht gut genug. Vor allem, die Konkurrenz kann es ja auch... Ist meine Standardeinstellung für Q3A: 1600x1200x32, 4xRGMSAA, 8x triAF, höchste Detailstufe. Immer und in jeder Situation flüssig. Timedemos laufen mit 80-120 fps. :naughty:

Einziger Nachteil: subjektiv deutlich weniger AF-Qualität als mit NV20.

MadManniMan
2003-05-13, 18:36:34
Originally posted by Endorphine
Einziger Nachteil: subjektiv deutlich weniger AF-Qualität als mit NV20.

darum gehts grad in einem anderen thread schon, aber damit die diskussion nicht auch noch hier auftritt, mal schnell ein, zwei worte dazu...

jeder setzt seine präferenzen woanders. ich - und wohl auch aths - eher bei besserem aa, quasar und wohl auch du eher bei af.

nur mal so, damit hier ja kein gebrülle losgeht

Quasar
2003-05-13, 18:48:47
Originally posted by aths
Ich möchte gute Texturen _und_ glatte Kanten. Was verstehe ich unter glatten Kanten? Unter glatten Kanten verstehe ich Kanten, die glatt sind. Bei 1600x1200 nehme ich bei 2x AA noch Treppen-Effekte wahr. Nun spiele ich lieber in 1400x1050, da mein Moni dann noch 100 Hz bringt. 2x RGAA gegenüber No AA ist natürlich ein deutlicher Sprung bezüglich der Qualität. 4x RGAA würde die Treppenstufen der Kanten aber so gut glätten, dass sie für mich "praktisch" nicht mehr zu sehen sind. Das kann man von einem High-End-Modell heutzutage imo wirklich erwarten.
In 1600x1200 sehe ich, wenn ich drauf achte, selbst mit 6xFSAA á la ATi noch Kantentreppchen.
Darum geht's mir aber nicht, denn Kantentreppchen wirst du auf Monitoren immer sehen, wenn nur der Winkel ungünstig genug ist.

Mir geht es einzig und allein darum, dass ich mich von den Treppcheneffekten nicht mehr belästigt fühle, und das tritt bei mir persönlich schon bei 2xRGAA in 1600x1200 ein.

Originally posted by aths
Das mit dem AA betrifft auch super-dünne Objekte (die horizontal oder vertikal ausgerichtet sind.) Die flimmern bei 4x RGAA einfach sehr viel weniger als mit 4x OG bzw. 2x RG.

Hinzu kommt, nicht jede Anwendung erlaubt höchste Auflösungen. Um 4x RGAA-Qualität zu kriegen, muss man dann schon 8xS nehmen. Das ist natürlich deutlich langsamer als 4x MSAA.

ad1) Ja, das ist ein Punkt. Zum Glück bin ich davon eher selten betroffen.

ad2) Gerade diese Anwendungen sind i.d.R. nicht so anspruchsvoll, als daß du eine FX5900u mit 8xS drastisch überfordern würdest, oder?


Originally posted by aths
Du kannst es drehen und wenden wie du willst, im Jahre 2003 stellt das Fehlen eines 4x RGAA-Modus' einen klaren Mangel dar. Denn die Konkurrenz hat es, und das schon etwas länger, und tatsächlich scheinen viele R300-User den 4x Modus bevorzugt zu verwenden. Sich mit höchsten Auflösungen "auszuhelfen" ist eine "Lösung", die auch dann funktioniert wenn man gar kein AA hat, und das kann es ja auch nicht sein...

Was ist mit 8xS? Tja, *heute* kann man das bei moderaten Auflösungen wohl noch anwenden. In Zukunft ist dieser Modus zu aufwändig, da kann man es sich nicht mehr leisten, die Karte mit nur 1/4 der Füllratenleistung zu fahren.

ad1) Wie kommst du darauf, dass ich etwas drehen und wenden will? Ich sagte lediglich, dass es für mich (nochmal ganz deutlich: für mich persönlich!) kein entscheidendes Kriterium ist.
Um mal einer in letzter Zeit beliebter Argumentationslinie zu folgen: Die dafür nötigen Transistoren hätte man lieber in größere Texturcaches und/oder Fülltransis zr Takterhöhung stecken können.

Viele R300-User schliesst aber nicht Radeon9500-Besitzer mit ein, oder? Die Karte ist IMO ein wenig zu langsam dafür. Und dazu kommt, dass viele eben wie du, nicht in 1600x1200 spielen, sondern eher in 1024. Dort bestreite ich den Sinn und Nutzen von 4xRGAA ja auch nicht.

ad2) Bei zukünftigen Anwendungen wird auch die Bandbreite und vor allem der Speicherbedarf eines 6x-AA-Modus nicht ausreichen...

aths
2003-05-13, 18:52:40
Originally posted by MadManniMan
jeder setzt seine präferenzen woanders. ich - und wohl auch aths - eher bei besserem aa, quasar und wohl auch du eher bei af.Ähm, das würde ich so "einteilend" nicht formulieren. Ich möchte von einer High-End-Karte natürlich auch (mindestens) 8x App AF. Aber eben *auch* so gutes AA, wie es geht. Wenn es schon den 4x-Modus gibt, ist imo nicht einzusehen, warum man kaum mehr Qualität als bei 2x geboten bekommt. Bei GF3 konnte man das noch verzeihen, das war die erste Karte mit MSAA und so. Bei GF4 Ti konnte man es noch ganz knapp verzeihen, da sie die bessere AA-Karte gegenüber der Konkurrenz war. Bei der FX ist das imo nicht mehr klein zu reden.

Und ja, ich denke dass das keine Prinzipienfrage ist, ATI in jedem Punkt übertreffen zu müssen oder so. 4x RG bringt gegenüber 2x RG eben noch mal einen guten Sprung an AA-Qualität. Wenn die FX schon Color-Compression hat, und somit den Nachteil verringert, dass 4x deutlich langsamer als 2x ist, so hat man davon praktisch nix, weil 4x auch nur ein kleines Plus an Qualität bringt. Die AA-Technologie ist erschreckend rückständig, da hilft es nicht, dass der erste Sprung (No AA -> 2x RGAA) vorhanden ist. Das hatte ich schon mit der Voodoo4 4500...

aths
2003-05-13, 19:03:19
Originally posted by Quasar
In 1600x1200 sehe ich, wenn ich drauf achte, selbst mit 6xFSAA á la ATi noch Kantentreppchen.
Darum geht's mir aber nicht, denn Kantentreppchen wirst du auf Monitoren immer sehen, wenn nur der Winkel ungünstig genug ist.Wenn ich nicht speziell darauf achte, sehe ich bei 1600x1200 x 4x OGAA noch Treppchen.
Originally posted by Quasar
Mir geht es einzig und allein darum, dass ich mich von den Treppcheneffekten nicht mehr belästigt fühle, und das tritt bei mir persönlich schon bei 2xRGAA in 1600x1200 ein.Meinen Ansprüchen genügt das nicht.
Originally posted by Quasar
ad2) Gerade diese Anwendungen sind i.d.R. nicht so anspruchsvoll, als daß du eine FX5900u mit 8xS drastisch überfordern würdest, oder?Mir ist nicht wohl, wenn ich mehr Leistung verballere als ich Qualität bekomme. Das ist bei OGSS der Fall. Man muss 8xS nehmen, weil das AA-Subsystem auf rückständige Technologie setzt. Und das, wenn das HighEnd-Produkt so teuer ist...

Ob man 8xS bei Doom3 nehmen kann, bezweifle ich. NV35 soll doch die Doom3-Karte sein. Toll, Doom ist dann schneller als auf R350, aber die Kanten flimmern mehr. All das wäre kein Thema, wenn der 4x-Modus eine RG-Maske hätte.
Originally posted by Quasar
ad1) Wie kommst du darauf, dass ich etwas drehen und wenden will? Ich sagte lediglich, dass es für mich (nochmal ganz deutlich: für mich persönlich!) kein entscheidendes Kriterium ist.Das war eine rhetorische Formulierung von mir :naughty:
Originally posted by Quasar
Um mal einer in letzter Zeit beliebter Argumentationslinie zu folgen: Die dafür nötigen Transistoren hätte man lieber in größere Texturcaches und/oder Fülltransis zr Takterhöhung stecken können.Hehe, das funktioniert in diesem Falle nicht. Die Transistoren, die dafür notwendig sind, bringen mehr als sie kosten. Mit 4x OGAA hat man, vereinfacht gesagt, nur "doppelt so glatte" Kantne. Mit 4x RG hat man "vier mal so glatte". Um das über die Füllrate auszugleichen, bräuchte man die vierfache Füllrate. Dazu brauchst du wesentlich mehr Transistoren als für ein AA-Subsystem mit 4x RGMSAA.
Originally posted by Quasar
Viele R300-User schliesst aber nicht Radeon9500-Besitzer mit ein, oder? Die Karte ist IMO ein wenig zu langsam dafür. Und dazu kommt, dass viele eben wie du, nicht in 1600x1200 spielen, sondern eher in 1024. Dort bestreite ich den Sinn und Nutzen von 4xRGAA ja auch nicht.Gut. Man kann mit gutem AA die Kanten auch bei moderaten Auflösungen akzeptabel glatt kriegen. Bei nVidias neustem HighEnd-Produkt musst du, wie du selbst sagst, auf 1600x1200 ausweichen. Das kann es ja nicht sein? Oder würdest du eh nur noch in 1600x1200 spielen? Dann wäre der NV35 eine Karte speziell für Quasar. Wenn man aths heißt, hat man da noch andere Punkte. Falls ich das richtig sehe, findet die Meinung, dem NV35 "fehlt" 4x RGAA, deutlich mehr Zustimmung. Demzufolge müsste man sagen, dass diese Meinung "richtiger" sei, einfach weil mehr Leute 4x RGAA verlangen, als es Leute gibt, die sich mit 2x RG / 4x OG begnügen.
Originally posted by Quasar
ad2) Bei zukünftigen Anwendungen wird auch die Bandbreite und vor allem der Speicherbedarf eines 6x-AA-Modus nicht ausreichen... Natürlich wird er ausreichen. Wer 6x bei 1600x1200 fahren will, braucht natürlich eine Karte mit 256 MB. Afaik gibts ohnehin keine Karten die genug Power für 6x bei 1600x1200 haben, aber nur mit 128 MB bestückt sind, und falls es die doch gibt, sollte man diese Karten nicht kaufen, um 1600x1200 mit 6x AA zu fahren.

Birdman
2003-05-13, 19:19:27
also für mich als R9700pro User wird es wegen dem AA extrem schwer wieder auf eine Nvidia Karten zu wechseln, solange die nicht min. 4xRG bringen...dieser Rückschritt ist einfach zu gross.

Quasar
2003-05-13, 19:25:37
Ich fasse zusammen: Wir haben offenbar unterschiedliche Ansprüche. Ich bin genügsamer, was Kanten angeht.

Wo ich dir nicht zustimme, ist, dass mehr User 4xRGAA beim nV35 vermissen. Die meisten Leute wissen kaum, was FSAA ist, noch weitaus weniger wissen, dass es dabei Unterschiede gibt und die allerwenigsten wissen, dass RG "besser" als OG ist.
Einige, die immer noch nörgeln (wollen) gibt es immer.

Und ja, auch ich hätte nichts gegen einen 4xRGAA-Modus beim nV35. Genausowenig würden mich die Option auf 16xAA oder ein Schalter zum Erzwingen von Supersampling stören oder nahezu beliebig wählbare AF-Level. Auch ein Auswahlkästchen für die freie Anordnung der Subpixel beim FSAA würde ich nicht ablehnen. Wenn es das Ganze noch mit PS/VS3.0 für unter 100€ gäbe, wäre ich sogar nahezu begeistert...

P.S.:
Das man mit den Transistoren für Z-Check Einheiten nicht die vierfache Füllrate gewinnen kann ist mir neu? Warum machen das die großen Chiphersteller denn alle??
Du weist sicher auch, das ich meinte, man könne durch den Verzicht auf HW-4xAA den Chip so designen, dass man bei 1600 und 2xFSAA mehr Leistung hätte...

Ach ja, Meinst du, die R9700p wäre zu schwach um 1600x1200 mit 6xFSAA in "zukünftigen" Apps zu meistern, die R9800p mit 256MB schon? Nicht wirklich, oder?

aths
2003-05-13, 19:35:43
Originally posted by Quasar
Ich fasse zusammen: Wir haben offenbar unterschiedliche Ansprüche. Ich bin genügsamer, was Kanten angeht.

Wo ich dir nicht zustimme, ist, dass mehr User 4xRGAA beim nV35 vermissen. Die meisten Leute wissen kaum, was FSAA ist, noch weitaus weniger wissen, dass es dabei Unterschiede gibt und die allerwenigsten wissen, dass RG "besser" als OG ist.
Einige, die immer noch nörgeln (wollen) gibt es immer. Sorry, aber ich gewinne den Eindruck, dass du versuchst, eine Schwäche des NV35 klein zu reden.

Ich denke, dass die relevante Zielgruppe in der Mehrheit durchaus weiß, was Anti-Aliasing ist. Ob sie nun wissen, dass 4x nicht gleich 4x ist, sei dahin gestellt. Das ist doch aber kein Grund, zufrieden damit zu sein, dass man hier eben den schlechteren 4x-Modus hat.

Wir reden hier wie gesagt über den Unterschied von "doppelt so glatten" und "vier mal so glatten" Kanten. Dass man da "nörgelt", halte ich für "zulässig". Für "vier mal so glatte" Kanten muss man beim NV35 mit < 1/4 der Leistung leben. Das ist schlicht doof.
Originally posted by Quasar
Und ja, auch ich hätte nichts gegen einen 4xRGAA-Modus beim nV35. Genausowenig würden mich die Option auf 16xAA oder ein Schalter zum Erzwingen von Supersampling stören oder nahezu beliebig wählbare AF-Level. Auch ein Auswahlkästchen für die freie Anordnung der Subpixel beim FSAA würde ich nicht ablehnen. Wenn es das Ganze noch mit PS/VS3.0 für unter 100€ gäbe, wäre ich sogar nahezu begeistert...Du lenkst vom Thema ab ;)
Originally posted by Quasar
P.S.:
Das man mit den Transistoren für Z-Check Einheiten nicht die vierfache Füllrate gewinnen kann ist mir neu? Warum machen das die großen Chiphersteller denn alle??
Du weist sicher auch, das ich meinte, man könne durch den Verzicht auf HW-4xAA den Chip so designen, dass man bei 1600 und 2xFSAA mehr Leistung hätte...Z-Check-Einheiten? Hm? Wovon redest du jetzt?

Wenn du auf die paar Transistoren verzichtest, um nur 2x RGMSAA zu haben, mien Jung, so kannst du aus diesen Transistoren noch lange keine 5. Pipeline basteln, um so die Leistung zu erhöhen. Außerdem sehe ich nicht ein, wieso mäßige Kantenglättung (2x RG) das Maß der Dinge sein soll, wenn man auch gute Kantenglättung (4x RG) haben könnte.
Originally posted by Quasar
Ach ja, Meinst du, die R9700p wäre zu schwach um 1600x1200 mit 6xFSAA in "zukünftigen" Apps zu meistern, die R9800p mit 256MB schon? Nicht wirklich, oder? Ich meine, dass 6x AA hervorrangend für moderate Auflösungen ist. Hohe Auflösungen mit 6xAA wurden von dir ins Spiel gebracht, nicht von mir :) Denn bei moderaten Auflösungen reicht sowohl Speicher als auch Speicherbandbreite (als in der Regel auch die Leistung) für 6x AA offensichtlich aus. Von 6x AA habe ich btw bezüglich NV35 überhaupt nicht geredet, das hast du in die Diskussion gebracht.

Demirug
2003-05-13, 19:36:07
Originally posted by Quasar
P.S.:
Das man mit den Transistoren für Z-Check Einheiten nicht die vierfache Füllrate gewinnen kann ist mir neu? Warum machen das die großen Chiphersteller denn alle??
Du weist sicher auch, das ich meinte, man könne durch den Verzicht auf HW-4xAA den Chip so designen, dass man bei 1600 und 2xFSAA mehr Leistung hätte...

Die Z-Checkeinheiten sind ja nur ein kleiner Teil den man braucht um Fillrate zu erzeugen. ´

NVIDIA hat die Z-Einheiten der AA-Sampler beim NV20 für den Early-Z Test missbraucht.

Die IHVs machen das weil es der "günstigste" Weg ist performantes AA zu bauen.

Quasar
2003-05-13, 19:42:36
Originally posted by aths
Sorry, aber ich gewinne den Eindruck, dass du versuchst, eine Schwäche des NV35 klein zu reden.

Ich denke, dass die relevante Zielgruppe in der Mehrheit durchaus weiß, das Anti-Aliasing ist. Ob sie nun wissen, dass 4x nicht gleich 4x ist, sei dahin gestellt. Das ist doch aber kein Grund, zufrieden damit zu sein, dass man hier eben den schlechteren 4x-Modus hat.

Wir reden hier wie gesagt über den Unterschied von "doppelt so glatten" und "vier mal so glatten" Kanten. Dass man da "nörgelt", halte ich für "zulässig".
Du lenkst vom Thema ab ;)
Z-Check-Einheiten? Hm? Wovon redest du jetzt?

Wenn du auf die paar Transistoren verzichtest, um nur 2x RGMSAA zu haben, mien Jung, so kannst du aus diesen Transistoren noch lange keine 5. Pipeline basteln, um so die Leistung zu erhöhen. Außerdem sehe ich nicht ein, wieso mäßige Kantenglättung (2x RG) das Maß der Dinge sein soll, wenn man auch gute Kantenglättung (4x RG) haben könnte.
Ich meine, dass 6x AA hervorrangend für moderate Auflösungen ist. 1600x1200x 6xAA wurde von dir ins Spiel gebracht, nicht von mir :) Denn bei moderaten Auflösungen reicht sowohl Speicher als auch Speicherbandbreite (als in der Regel auch die Leistung) für 6x AA offensichtlich aus.

Ich versuche mitnichten, etwas kleinzureden, aths. Ich stelle nur fest, dass dieser Mangel für mich persönlich (soll ich's mal in Size=8 und Color=red versuchen?) irrelevant ist. Du dagegen machst den Nabel der Welt draus.

4xRGMSAA zu haben ist danach aber auch kein Grund, auf 8x oder 16xAA zu verzichten.

Ich habe nicht vor, eine fünfte Pipeline zu basteln, aths. Ich habe lediglich gesagt, dass man mit den Transistoren dieser Logik andere Anwendungsgebiete beschleunigen könnte und mich analog der Logik derer bedient, die meinten, man hätte bei der FX5200 die DX9-Fähigkeit einsparen sollen und lieber mehr Pipes/mehr TMUs daraus basteln sollen.

Dann definiere doch erstmal "moderate Auflösungen". Darunter könnte ja alles ausser 320x240 und 2048x1536 fallen, oder? Ist moderat für dich 800x600 oder 1280x1024?
Ansonsten behaupte ich mal pauschal, auch für moderate Auflösungen sind aktuelle Karte mit 128MB bei 6xAA in zukünftigen Apps nicht performant genug.

MadManniMan
2003-05-13, 19:45:54
Originally posted by aths
Aber eben *auch* so gutes AA, wie es geht.

na gut, aber sodenn du auf eines verzichten müßtest, könnest du eher aa oder eher af entbehren?

oder falls dus nur halb so drastisch haben willst: wo würdest du eher quali-kompromisse eingehen? beim aa oder beim af?

StefanV
2003-05-13, 19:49:51
Originally posted by MadManniMan


na gut, aber sodenn du auf eines verzichten müßtest, könnest du eher aa oder eher af entbehren?

oder falls dus nur halb so drastisch haben willst: wo würdest du eher quali-kompromisse eingehen? beim aa oder beim af?

Meine Meinung:

Mir ist AF fast egal, nutzen würde ich das, wenn ich Texturflimmern bemerke (schönen Gruß an Novalogic), AA ist mir viel wichtiger, da ich das eher sehe...

Aquaschaf
2003-05-13, 19:59:07
scheint echt geschmackssache zu sein , aber auf AF würde ich nicht mehr verzichten wollen ;)
Vor allem da IMO bei AF der Gewinn an BQ / Leistungsverlust im Vergleich zu AA viel größer ist .

aths
2003-05-13, 20:02:19
Originally posted by Quasar
Ich versuche mitnichten, etwas kleinzureden, aths. Ich stelle nur fest, dass dieser Mangel für mich persönlich (soll ich's mal in Size=8 und Color=red versuchen?) irrelevant ist. Du dagegen machst den Nabel der Welt draus.Ich stellte fest, dass zumindest hier im Forum mehr Leute den Mangel beim AA sehen, als ihn nicht sehen.
Originally posted by Quasar
4xRGMSAA zu haben ist danach aber auch kein Grund, auf 8x oder 16xAA zu verzichten.Gesetz des abnehmenden Ertrages - 8x und 16x AA bringen nur noch geringe Steigerungen. Früher oder später werden sie wohl kommen. Im Moment halte ich den Schritt von 2x RG zu 4x RG für längst überfällig.
Originally posted by Quasar
Ich habe nicht vor, eine fünfte Pipeline zu basteln, aths. Ich habe lediglich gesagt, dass man mit den Transistoren dieser Logik andere Anwendungsgebiete beschleunigen könnte und mich analog der Logik derer bedient, die meinten, man hätte bei der FX5200 die DX9-Fähigkeit einsparen sollen und lieber mehr Pipes/mehr TMUs daraus basteln sollen.Die Transistoren sind ja da, um 4 Subpixel pro Pixel zu berechnen. Jene sind nur etwas primitiv angeordnet. Sie besser anzuordnen bedeutet auch transistormäßig etwas Aufwand, aber nicht so großen, dass man damit ansonsten die Füllrate spürbar erhöhen könnte.

In kleineren Auflösungen muss man wegen fehlendem 4x RG-Muster auf 8xS ausweichen, um vergleichbare Kantenqualität zu haben. Das kostet erst recht Füllrate.
Originally posted by Quasar
Dann definiere doch erstmal "moderate Auflösungen". Darunter könnte ja alles ausser 320x240 und 2048x1536 fallen, oder? Ist moderat für dich 800x600 oder 1280x1024?

Ansonsten behaupte ich mal pauschal, auch für moderate Auflösungen sind aktuelle Karte mit 128MB bei 6xAA in zukünftigen Apps nicht performant genug. Unter moderat verstehe ich Auflösungen im Bereich von 800x600 - 1024x768, eher 1024x768. Allerdings verstehe ich nicht, warum du schon wieder auf 6x rumreitest. Ich jedenfalls rede von 4x RG vs. OG.

Quasar
2003-05-13, 20:07:45
Originally posted by aths
Unter moderat verstehe ich Auflösungen im Bereich von 800x600 - 1024x768, eher 1024x768. Allerdings verstehe ich nicht, warum du schon wieder auf 6x rumreitest. Ich jedenfalls rede von 4x RG vs. OG.
Wer hat denn von 8xOG angefangen?

Wenn du bei der einen die maximale Bildqualität forderst, ist es unlogisch, bei der anderen dies nicht zu tun. Einen echten 1:1 Vergleich kriegst du heutzutage noch nichtmal mehr bei der Rohleistung hin.

Ach so, dein Gesetz des abnehmenden Ertrages ist schon bei 2x vs. 4x ziemlich wirksam. Umso höher die Auflösung, desto wirksamer das Gesetz.

Das mit den Transistoren willst du, glaube ich, nicht verstehen, oder?

aths
2003-05-13, 20:08:11
Originally posted by MadManniMan
na gut, aber sodenn du auf eines verzichten müßtest, könnest du eher aa oder eher af entbehren?

oder falls dus nur halb so drastisch haben willst: wo würdest du eher quali-kompromisse eingehen? beim aa oder beim af? Die Frage stellt sich nicht wirklich, da heutige moderen Karten beides anbieten. Ich verlange von meiner Karte, dass sie jedes heutige Spiel mit 2x AA und 2x AF genügend schnell rendert. Anschließend wäge ich zwischen Auflösung (Minimum 800x600) und Grafik-Details ab. Sowohl schärfere Texturen als auch bessere Kanten sind auch über Auflösung zu kriegen (wobei RG AA und AF vergleichbare Qualität bei deutlich mehr Leistung bringen.) Dank AA und AF ist man nicht auf 2048x1536 angewiesen, sondern kann auch bei 1024x768 herrliche Texturen und glatte Kanten genießen. Da die Bildschärfe mit der Auflösung zunimmt, kann man die Auflösungs-"Einsparung" natürlich nicht beliebig weit nach unten treiben, unter 800x600 wird bei meinem 19" CRT schlicht zu grob.

Ich würde weder auf AA noch auf AF verzichten. 2x AF kostet bei mir mindestens 50% der Füllrate, aber das ist es mir wert. 2x AA kostet bis zu 30% Geschwindigkeit, aber das ist es mir wert.

aths
2003-05-13, 20:14:23
Originally posted by Quasar
Wer hat denn von 8xOG angefangen?Ich nicht. Ich hab 8xS erwäht, welche, passend zum Topic, auf dem NV35 verfügbar ist, und zudem eine mit 4x RG vergleichbare Kantenglätte bietet.
Originally posted by Quasar
Wenn du bei der einen die maximale Bildqualität forderst, ist es unlogisch, bei der anderen dies nicht zu tun. Ich fordere AA mit einer EER von 4x4.
Originally posted by Quasar
Ach so, dein Gesetz des abnehmenden Ertrages ist schon bei 2x vs. 4x ziemlich wirksam. Umso höher die Auflösung, desto wirksamer das Gesetz.Ja. Den Schritt zu 2x RG MSAA ging aber schon die GF3. Das ist Jahre her. Die Entwicklung ist inzwischen weiter. Der nächste Schritt, nämlich zu 4x RG MSAA ist, wie schon gesagt, imo auch für NV längst überfällig.
Originally posted by Quasar
Das mit den Transistoren willst du, glaube ich, nicht verstehen, oder? Ich frage mich, ob du nicht den Aufwand überschätzt, aus 4x OG MSAA 4x RG MSAA zu machen.

Endorphine
2003-05-13, 20:17:54
Originally posted by aths
Die Frage stellt sich nicht wirklich, da heutige moderen Karten beides anbieten. Ich verlange von meiner Karte, dass sie jedes heutige Spiel mit 2x AA und 2x AF genügend schnell rendert. Anschließend wäge ich zwischen Auflösung (Minimum 800x600) und Grafik-Details ab. Du doktorst also zuerst am Symptom (Aliasingartefakte mit AA lindern) rum, anstatt die Ursache (zu geringe Auflösung) an der Wurzel zu packen und zuerst die Auflösung nach oben zu treiben? IMHO sollte man immer zuerst Ursachenbekämpfung betreiben und erst danach mit der Symptomlinderung beginnen, wenn ersteres ausgeschöpft ist.

Das hiesse also deine Verfahrensweise umzukehren: zuerst die Auflösung so weit wie möglich erhöhen und dann einen Kompromiss zwischen AA/AF/Details wählen, erst dann die Auflösung vielleicht um einen Grad nach unten schrauben, um eine optimale Lösung zu finden.

Oder denkst du auch zuerst über den Kauf einer Funkmaus nach, wenn du keine Ordnung auf deinem Schreibtisch halten kannst und du mit dem Mauskabel deine Teetasse umreisst (nur als Beispiel)? Ich sehe es eher so: immer zuerst Ursachenbekämpfung, dann Symptomlinderung.

StefanV
2003-05-13, 20:22:42
@Endo

Ui, toller vorschlag...

Vorallendingen da mein TFT auf unglaubliche 1280x1024 Pixel beschränkt ist, bei meinem tollen Iiyama A901HT möchte ich auch nicht unbedingt 1600x1200 Pixel fahren, auch wenn es mit 85Hz noch möglich ist.

Vielleicht sollte man erstmal AA einschalten, bevor man die Auflösung erhöht, da eine erhöhte Auflösung und Widerholrate (=höhere Horizontalfrequenz) auf die Lebensdauer des Monitors drückt...

Quasar
2003-05-13, 20:27:30
Originally posted by aths
Ich nicht. Ich hab 8xS erwäht, welche, passend zum Topic, auf dem NV35 verfügbar ist, und zudem eine mit 4x RG vergleichbare Kantenglätte bietet.
Ich fordere AA mit einer EER von 4x4.
Ja. Den Schritt zu 2x RG MSAA ging aber schon die GF3. Das ist Jahre her. Die Entwicklung ist inzwischen weiter. Der nächste Schritt, nämlich zu 4x RG MSAA ist, wie schon gesagt, imo auch für NV längst überfällig.
Ich frage mich, ob du nicht den Aufwand überschätzt, aus 4x OG MSAA 4x RG MSAA zu machen.

Ok, du forderst, du erwähnst. Erinnere dich an den Eingang unseres kleinen Gesprächs: Ich erwähne auch nur, was mir persönlich reicht.

Im Gegensatz zu dir habe ich dabei nicht den Anspruch auf Allgemeingültigkeit.

So mag für dich eine EER von 4 wichtiger als div. andere Dinge sein, für mich ist sie es definitiv nicht.

Der Schritt auf einer GF3 war nötig und richtig, aber damals war man mangels Füllrate und Speicherbandbreite noch auf sehr niedrige Auflösungen beschränkt. Dem ist heute nicht mehr so....das ist mein Ansatz, auch wenn du den nicht teilen willst.

Und zu deinem letzten Punkt: Nein, ich denke nicht.

aths
2003-05-13, 20:29:02
Originally posted by Endorphine
Du doktorst also zuerst am Symptom (Aliasingartefakte mit AA lindern) rum, anstatt die Ursache (zu geringe Auflösung) an der Wurzel zu packen und zuerst die Auflösung nach oben zu treiben? IMHO sollte man immer zuerst Ursachenbekämpfung betreiben und erst danach mit der Symptomlinderung beginnen, wenn ersteres ausgeschöpft ist.

Das hiesse also deine Verfahrensweise umzukehren: zuerst die Auflösung so weit wie möglich erhöhen und dann einen Kompromiss zwischen AA/AF/Details wählen, erst dann die Auflösung vielleicht um einen Grad nach unten schrauben, um eine optimale Lösung zu finden.

Oder denkst du auch zuerst über den Kauf einer Funkmaus nach, wenn du keine Ordnung auf deinem Schreibtisch halten kannst und du mit dem Mauskabel deine Teetasse umreisst (nur als Beispiel)? Ich sehe es eher so: immer zuerst Ursachenbekämpfung, dann Symptomlinderung. Die Provokation überlese ich mal. Warum RGMSAA mehr Qualität bringt, als es an Leistung verbraucht, kannst du bald in einem neuen Artikel nachlesen, welcher sich ausführlich mit MSAA beschäftigen wird.

Bei AF ist ähnlich zu argumentieren. Es bringt bei gleicher Füllrate mehr Qualität, als wenn man nur über die Auflösung ginge.

AA ist dazu da, Aliasing-Artefakte zu lindern. AF ist dazu da, Texturen zu verbessern. Das über die Auflösung erreichen zu wollen, kostet viel mehr Füllrate als mit AA+AF. Demzufolge ist es sinnig, die Auflösung so weit zu treiben, dass das Bild scharf genug ist, und dann Kantenglätte und Texturqualität mit AA und AF zu erhöhen.

Quasar
2003-05-13, 20:29:42
Originally posted by Stefan Payne
@Endo

Ui, toller vorschlag...

Vorallendingen da mein TFT auf unglaubliche 1280x1024 Pixel beschränkt ist, bei meinem tollen Iiyama A901HT möchte ich auch nicht unbedingt 1600x1200 Pixel fahren, auch wenn es mit 85Hz noch möglich ist.

Vielleicht sollte man erstmal AA einschalten, bevor man die Auflösung erhöht, da eine erhöhte Auflösung und Widerholrate (=höhere Horizontalfrequenz) auf die Lebensdauer des Monitors drückt...

OMG, liegen 1600x1200@85Hz nun innerhalb der Spec deines Monitors oder nicht?

Vielleicht sollte man die FPS auch künstlich auf 60 begrenzen (mit vSync on), die vielen Schaltvorgänge schädigen.....ach was soll's.

P.S.:
Für dein TFT tut's mir leid. Wie kann man mit so wenig Desktopfläche nur auskommen???

aths
2003-05-13, 20:32:04
Originally posted by Quasar
Der Schritt auf einer GF3 war nötig und richtig, aber damals war man mangels Füllrate und Speicherbandbreite noch auf sehr niedrige Auflösungen beschränkt. Dem ist heute nicht mehr so....das ist mein Ansatz, auch wenn du den nicht teilen willst.Die FX 5900 geht mit der Füllrate auch nicht besser um, als die GF3 (abgesehen vom Early Z, was seit GF4 auch mit MSAA funzt.)

Die Ansprüche an die Auflösung steigen, die Monitor-Flächen werden größer, die Ansprüche an die BQ steigen. Das ist mein Ansatz: Was im Jahre 2000 noch Stand der BQ war, ist heute überholt.
Originally posted by Quasar
Und zu deinem letzten Punkt: Nein, ich denke nicht. Dann verstehe ich das Transistoren-Argument nicht :|

StefanV
2003-05-13, 20:33:23
Originally posted by Quasar
OMG, liegen 1600x1200@85Hz nun innerhalb der Spec deines Monitors oder nicht?

Vielleicht sollte man die FPS auch künstlich auf 60 begrenzen (mit vSync on), die vielen Schaltvorgänge schädigen.....ach was soll's.

P.S.:
Für dein TFT tut's mir leid. Wie kann man mit so wenig Desktopfläche nur auskommen???

1. natürlich, Google (http://www.google.de) hätte geholfen *eg*
Aber 115kHz bei 300MHz Pixelfrequenz sollten für 85Hz bei 1600x1200 langen...

€dit:
IIRC schafft der sogar noch 90Hz...

2. ??
Was hat das mit der Widerholrate des Monitors zu tun??
Eine CPU stirbt ja auch schneller, wenn ich sie höher takte, genau so ists bei Monitoren auch (bzw ähnlich)...

3. wieso??
1280x1024 langen mir völlig, auf dem Iiyama fahr ich sogar nur 1152x864 Pixeln...
Ist zwar kleinder, dafür häng ich auch nicht mit meiner Nase am Schirm...

aths
2003-05-13, 20:33:39
Originally posted by Quasar
P.S.:
Für dein TFT tut's mir leid. Wie kann man mit so wenig Desktopfläche nur auskommen??? Aufgrund des geringen Platzverbrauches und gesunkener Preise, und der tollen Bildschärfe, werden TFTs in Zukunft verstärkt gekauft werden. Gerade wegen dem scharfen Bild ist hochwertiges AA hier dringend anzuraten. R300 hats, NV35 nicht. Das findest du nicht enttäuschend?

Quasar
2003-05-13, 20:33:42
Originally posted by aths
Demzufolge ist es sinnig, die Auflösung so weit zu treiben, dass das Bild scharf genug ist, und dann Kantenglätte und Texturqualität mit AA und AF zu erhöhen.
Nein, denn sowohl FSAA als auch AF sind nur Approximationen.

AF arbeitet nicht überall mit gleicher Filterwirksamkeit und FSAA produziert (mit bewegten Kanten) schnell wandernde Anti-aliasde Pixel an Kanten, die leider immer noch sichtbar sind.

FSAA versucht, durch angepasstere Helligkeitsverteilung an Treppchen-Artefakten das Auge zu täuschen, aber es beseitigt diese Artefakte nicht.

Spaceman
2003-05-13, 20:33:46
Eigentlich interessiert mich der Kampf zwischen Nvidia und ATI nicht. Aber ich wundere mich schon die ganze Zeit, warum alle die gleichen Mist Spiele(Unreal2003, Quake3, JediKnight2, SeriusSam2) zum testen nehmen. Wenn ich mir den Test bei Tomshardware
aschaue, da wird einem schlecht wenn man das sieht.Die testen grad mal 3Spiele und schlussfolgern dann daraus, das die 5900U nicht zu schlagen sei.
Hab grad noch mal die letzte PCGamesHardware aufgeschlagen. Da ist ein Test zwischen 9800Pro und 5800Ultra.
Aquanox2 in 1024*768 mit 4*AA und AF8:1: 5800Ultra 49fps, 9800Pro 75fps. Unreal2 in den selben Einstellungen: 5800Ultra 37fps 9800Pro 53fps. Weshalb testet niemanden mit den Spielen??? Das ist schon komisch das niemand diese Games testet , aber ein Spiel das noch nicht mal existiert(Doom3) wird zum Vergleich rangezogen. Wer weiss wann Doom3 rauskommt, am Ende erst nächstes Jahr Weihnachten.Ist schon lustig, wenn Nvidia einem vorschreibt mit was man eine Karte testet, nur damit man eine Testkarte für ein paar Stunden erhalten darf. Natürlich ist das nur reine Spekulation.
Und der grösste Hammer bei Chip: "Mit einer Lautheit von etwa 9 sone bleibt die Grafikkarte zwar noch über der Geräusch-Entwicklung einer Radeon-9800-Pro-Karte (3 sone).Verglichen mit einem GeForce-FX-5800-Ultra-Kravallmacher, dessen Lüfter etwa 16 sone produziert, kann man hier beim Spielen auf die Ohrenstöpsel verzichten." Entweder den ihre Büroräume sind so laut, oder die haben die Ohrenstäpsel von der 5800Ultra noch drin. Wenn die eine Fesplatte testen dann regen die sich auf wenn eine Festplatte 3sone hat, aber bei einer Grafikkarte mit 9sone ist die Welt in Ordnung. Wenn man überlegt das sone eine lineare Grösse ist , dann ist die 5900U subjektiv dreimal so laut wie eine 9800Pro. Jetzt werden viele sagen, die werden den Kühler schon noch leiser machen, aber man hats ja bei der 5800U gesehen, da wurde viel versprochen, aber nichts gehalten.

aths
2003-05-13, 20:36:32
Originally posted by Quasar
Nein, denn sowohl FSAA als auch AF sind nur Approximationen.Aber besser, als man reineweg über Auflösung approximieren kann.

"Besser" bedeutet hier mehr Qualität bei gleicher Leistung.
Originally posted by Quasar
AF arbeitet nicht überall mit gleicher Filterwirksamkeit und FSAA produziert (mit bewegten Kanten) schnell wandernde Anti-aliasde Pixel an Kanten, die leider immer noch sichtbar sind.Echtes AF sollte das aber tun, dass das spätestens ab 4x nicht so ist, ist bedauerlich. FSAA senkt das Flimmern, gerade in Bewegung. Ohne AA hat man wandernde Treppenstufen, die jawohl voll hässlich sind.
Originally posted by Quasar
FSAA versucht, durch angepasstere Helligkeitsverteilung an Treppchen-Artefakten das Auge zu täuschen, aber es beseitigt diese Artefakte nicht. RG FSAA kann bei gleicher Leistung das Auge aber besser täuschen, und die Artefakte reduzieren, als man das über die Auflösung (bzw OG AA) kann.

Quasar
2003-05-13, 20:37:08
Originally posted by aths
Aufgrund des geringen Platzverbrauches und gesunkener Preise, und der tollen Bildschärfe, werden TFTs in Zukunft verstärkt gekauft werden. Gerade wegen dem scharfen Bild ist hochwertiges AA hier dringend anzuraten. R300 hats, NV35 nicht. Das findest du nicht enttäuschend?
Wenn es für mich entscheidend wäre, fände ich es sicher enttäuschend.

Doch nun ist es so, dass ich dringend eine große Desktopfläche benötige. Diese mit TFT-Displays zu erreichen, sprengt leider meinen finanziellen Rahmen. Ausserdem finde ich es enttäuschend, dass TFTs ihre Überlegenheit nur bei genau einer Auflösung ausspielen können und auf jeder anderen Auflösung inter- oder extrapolieren müssen (wenn man keinen Trauerrand wünscht).

aths
2003-05-13, 20:38:30
Originally posted by Quasar
Wenn es für mich entscheidend wäre, fände ich es sicher enttäuschend.

Doch nun ist es so, dass ich dringend eine große Desktopfläche benötige. Diese mit TFT-Displays zu erreichen, sprengt leider meinen finanziellen Rahmen. Ausserdem finde ich es enttäuschend, dass TFTs ihre Überlegenheit nur bei genau einer Auflösung ausspielen können und auf jeder anderen Auflösung inter- oder extrapolieren müssen (wenn man keinen Trauerrand wünscht). So ist das nun mal :naughty: Dann kannst du dir ja den NV35 kaufen, und ich setze darauf dass NV40 besseres AA kriegen wird :D (um dann NV45 zu kaufen...)

Quasar
2003-05-13, 20:40:22
Originally posted by aths
Aber besser, als man reineweg über Auflösung approximieren kann.

"Besser" bedeutet hier mehr Qualität bei gleicher Leistung.
Echtes AF sollte das aber tun, dass das spätestens ab 4x nicht so ist, ist bedauerlich. FSAA senkt das Flimmern, gerade in Bewegung.
RG FSAA kann bei gleicher Leistung das Auge aber besser täuschen, und die Artefakte reduzieren, als man das über die Auflösung (bzw OG AA) kann.
Über die Auflösung approximiert man nicht, sowohl Kanten als auch Texturen werden optimal und über den gesamten Bildschirm gleichmäßig erträglicher gestaltet. Das vermag keine mir bekannt FSAA- oder AF-Implementierung.

Leider reagiert mein Auge nicht so auf die versuchte Täuschung durch FSAA, wie deines es zu tun scheint.
Dies musst du als Faktum akzeptieren.

Ich empfinde ein Bild in 1600x1200 mit 2xFSAA angenehmer, als eines in 1152 mit 4xFSAA, auch wenn es das gute FSAA der R300+-Chips ist.

Unregistered
2003-05-13, 20:40:41
"Hab grad noch mal die letzte PCGamesHardware aufgeschlagen. Da ist ein Test zwischen 9800Pro und 5800Ultra.
Aquanox2 in 1024*768 mit 4*AA und AF8:1: 5800Ultra 49fps, 9800Pro 75fps. Unreal2 in den selben Einstellungen: 5800Ultra 37fps 9800Pro 53fps."

WOW du vergleichst NV30 mit R350
nim doch gleich nen NV 20
aber STOP das geheule.

Quasar
2003-05-13, 20:41:47
Originally posted by aths
So ist das nun mal :naughty: Dann kannst du dir ja den NV35 kaufen, und ich setze darauf dass NV40 besseres AA kriegen wird :D (um dann NV45 zu kaufen...)

Eigentlich bin ich mit meiner G400 noch recht zufrieden, was meinen täglichen Bedarf angeht.
Ich gebe doch nicht 500€ nur für eine Grafikkarte aus! Dafür fahre ich lieber eine Woche in Urlaub oder ähnliches.

StefanV
2003-05-13, 20:41:51
Hm, irgendwie scheinen einige zu vergessen, daß einige Spiele auf 640x480, 800x600 oder 1024x768 beschränkt sind...

Wing Commander Prophecy -> 640x480
Starlancer -> 1024x768 (inoffiziell mehr)
Tachyon -> 1024x768

aths
2003-05-13, 20:47:11
Originally posted by Quasar
Über die Auflösung approximiert man nicht, sowohl Kanten als auch Texturen werden optimal und über den gesamten Bildschirm gleichmäßig erträglicher gestaltet. Das vermag keine mir bekannt FSAA- oder AF-Implementierung.Man approximiert sogar ziemlich schlecht ohne AA und AF. Polygone: Pro Pixel gibt es eine Belegung, oder keine. Auch, wenn das Pixel teilweise im Polygon liegt. Texturen: Da gibts das Problem der perspektivischen Verzerrung, um das Nyquist-Kriterium einzuhalten, sind starke Verzerungen mit kleinen Textur-Auflösungen zu texturieren, was in Unschärfe resultiert.

Um ein "doppelte Genauigkeit" zu erreichen, müssen aber beide Achsen skaliert werden, was in vierfachem Aufwand resultiert. AA und AF können bei entsprechender Implementierung "fast so gute" Qualität bei deutlich weniger Aufwand bieten. Um das "fast" auszugleichen, kann man die Auflösung noch eine Stufe erhöhen, und hat ingesamt noch immer das bessere Bild (bei mindestens gleichen Frameraten.)
Originally posted by Quasar
Leider reagiert mein Auge nicht so auf die versuchte Täuschung durch FSAA, wie deines es zu tun scheint.
Dies musst du als Faktum akzeptieren.

Ich empfinde ein Bild in 1600x1200 mit 2xFSAA angenehmer, als eines in 1152 mit 4xFSAA, auch wenn es das gute FSAA der R300+-Chips ist. Mit 1600x1200 und 4x RGAA wäre es noch angenehmer. Das erwartest du vom neusten HighEnd-Chip aber offensichtlich nicht (sondern gibst dich mit GF3-Technik anno 2000 zufrieden, *stichel*)

Endorphine
2003-05-13, 20:48:23
Originally posted by aths
Die Provokation überlese ich mal. Sollte keine Provokation sein, sondern nur ein Beispiel :)Originally posted by aths
Demzufolge ist es sinnig, die Auflösung so weit zu treiben, dass das Bild scharf genug ist, und dann Kantenglätte und Texturqualität mit AA und AF zu erhöhen. Genau das sage ich ja auch. Du hast aber ursprünglich genau den umgekehrten Weg beschrieben. Und das würde dann zu so absurden Kombinationen wie 800x600 und 4x AA führen (was ich manchen leider nicht ausreden kann).

Quasar
2003-05-13, 20:48:49
Originally posted by Stefan Payne
Hm, irgendwie scheinen einige zu vergessen, daß einige Spiele auf 640x480, 800x600 oder 1024x768 beschränkt sind...

Wing Commander Prophecy -> 640x480
Starlancer -> 1024x768 (inoffiziell mehr)
Tachyon -> 1024x768

Täuscht es, oder sind das vornehmlich ziemlich alte Games, für die ausreichend Füllrate vorhanden sein dürfte?

aths
2003-05-13, 20:50:08
Originally posted by Endorphine
Genau das sage ich ja auch. Du hast aber ursprünglich genau den umgekehrten Weg beschrieben. Und das würde dann zu so absurden Kombinationen wie 800x600 und 4x AA führen (was ich manchen leider nicht ausreden kann). Ich würde lieber 800x600 mit 4x RGAA also 1024x768 mit 2x RGAA haben. Allerdings wäre mir 640x480 dermaßen grob, dass ich lieber 800x600 mit 2x RG als 640x480 mit 4x RG hätte.

Endorphine
2003-05-13, 20:50:58
Originally posted by Quasar
Ich gebe doch nicht 500€ nur für eine Grafikkarte aus! Dafür fahre ich lieber eine Woche in Urlaub oder ähnliches. aths gibt ja auch keine 500 € aus, sondern sogar IIRC 570 EUR für seine Ti4600 :) *auch mal stichel wenn aths das auch darf* *eg*

Spaceman
2003-05-13, 20:51:12
Das sollte ja nur nochmal zeigen, das es Spiele gibt die nicht nur auf Nvidia Grafikkarten besser laufen.Oder scheint mir das
nur so, das bewusst Spiele zum Testen rangezogen werden, den Nvidia GK besser liegen. Wenn ich mich die ganzen Tests so anschaue des NV35 ist das schon ziemlich auffällig das NV30 auf dem selben Niveau liegt wie eine R350. Es gibt aber halt auch Games wo der NV30 ziemlich deklassiert wird von der R350, und das nicht nur um ein paar Frames. Weshalb wurden diese Spiele nicht getestet? Haben die etwa bei Nvidia einen Vorabtest gemacht, um zu schauen welche Spiele man zum Testen zulässt und welche nicht. Hätte es etwa passieren können das NV35 von der R350 geschlagen worden wäre, in Aquanox2 oder in Unreal2.
Immer diese angestaubten Spiele, JK2 oder SS2, werden zum Testen herangezogen. Für was brauch ich dann so megastarke GK
, doch nicht um die alten Spiele zu zocken , sondern um neuere Games in guter Qualität spielen zu können!

LovesuckZ
2003-05-13, 20:54:12
Originally posted by Spaceman
Das sollte ja nur nochmal zeigen, das es Spiele gibt die nicht nur auf Nvidia Grafikkarten besser laufen.Oder scheint mir das
nur so, das bewusst Spiele zum Testen rangezogen werden, den Nvidia GK besser liegen.

Viele Spiele haben keine eigene Benchmark-Funktion. Daher wird sich meisten auf Spiele konzentriert, die von haus aus mit so einer Funktion daher kommen.
Bei Spiele die ohne Behcnmarkfunktion daher kommen, muessen eigene gemacht werden und dies kann dann so komischen Ergebnissen fuehren.
Ein beispiel waere eine RTCW Demo der PCG, in welcher die Kyro2 auf GF2PRO Niveau lag.

mapel110
2003-05-13, 20:57:24
Originally posted by LovesuckZ

Ein beispiel waere eine RTCW Demo der PCG, in welcher die Kyro2 auf GF2PRO Niveau lag.

die kyro2 lag öfters auf g2pro niveau =)
das ist nicht unbedingt ein spezialfall. gerade nicht in rtcw.

Quasar
2003-05-13, 20:58:44
Originally posted by aths
Man approximiert sogar ziemlich schlecht ohne AA und AF. Polygone: Pro Pixel gibt es eine Belegung, oder keine. Auch, wenn das Pixel teilweise im Polygon liegt. Texturen: Da gibts das Problem der perspektivischen Verzerrung, um das Nyquist-Kriterium einzuhalten, sind starke Verzerungen mit kleinen Textur-Auflösungen zu texturieren, was in Unschärfe resultiert.

Um ein "doppelte Genauigkeit" zu erreichen, müssen aber beide Achsen skaliert werden, was in vierfachem Aufwand resultiert. AA und AF können bei entsprechender Implementierung "fast so gute" Qualität bei deutlich weniger Aufwand bieten. Um das "fast" auszugleichen, kann man die Auflösung noch eine Stufe erhöhen, und hat ingesamt noch immer das bessere Bild (bei mindestens gleichen Frameraten.)
Mit 1600x1200 und 4x RGAA wäre es noch angenehmer. Das erwartest du vom neusten HighEnd-Chip aber offensichtlich nicht (sondern gibst dich mit GF3-Technik anno 2000 zufrieden, *stichel*)

=) Du kannst mir von Nyquist erzählen was du möchtest, ich sehe, was ich sehe. Und im Zweifel werde ich mich eher auf den sensorischen Eindruck meiner Augen verlassen, als mich mit mathematischen Formeln von einer theoretischen Überlegenheit selbst überzeugen zu müssen, damit ich ein Bild X schöner als ein Bild Y empfinde.

Und ja, ich gebe mich in dieser Hinsicht tatsächlich mit einem Technikstand der GeForce3 zufrieden.
Bedenke: Zuerst gab es niedrige Auflösungen, etc. Das Rennen um den schnellsten Chip wurde zusätzlich mit dem Rennen um hohe Auflösungen (damals noch alles über 1024) angereichert.
Eine gewisse Sättigung in der Grundspeed der damaligen Game-Technologie trat ein.
Dann kamen die bildqualitätsverbessernden Features hinzu. Plötzlich war man wieder auf niedrige Auflösungen beschränkt (oder musste auf diese Features verzichten).
Nun scheint ein Punkt erreicht, wo wieder die Games ein ganzes Stück anziehen, selbst einige Strategiespiele erfordern einen leistungsstarken 3D-Beschleuniger.
Und an diesem Punkt möchte ich erst einmal eine ausreichende Rohleistung für hohe Auflösungen in neuen Games.
Von diesem Punkt ausgehend, fange ich an, wieder IQ-Features hinzuzuschalten. Erst AF, bis ca. Stufe 4 und danach FSAA.

Endorphine
2003-05-13, 20:59:34
Bei der Kyro 2 brauchte man immer eine schnelle CPU und ein Spiel welches keinen Nutzen aus T&L zieht, dann zog sie sogar recht oft an der GF2/Pro vorbei :)

LovesuckZ
2003-05-13, 21:06:15
Originally posted by mapel110
die kyro2 lag öfters auf g2pro niveau =)
das ist nicht unbedingt ein spezialfall. gerade nicht in rtcw.

In kenn nur ein weiteres, und das ist ein benchmark von UT. Bei irgendeiner anderen UT benchmarkdemo lag sie dann wieder zwischen MX und GTS.
Waere nett, wenn du mir einen Test zeigen koenntest, wo die Karte oefter auf PRO Niveau liegt.

Endorphine
2003-05-13, 21:17:43
z.B. http://www.hartware.net/review.html?id=145&page=5

LovesuckZ
2003-05-13, 21:19:43
Originally posted by Endorphine
z.B. http://www.hartware.net/review.html?id=145&page=5

thx

Axel
2003-05-13, 21:43:17
Das Doom3 gerade jetzt als Benchmark zur Verfügung steht, liegt mit Sicherheit nur daran, daß die nVidia-Karte Ihre Stärken damit ausspielen können. Für mich ist dieser benchmark allerdings genauso aussagekräftig wie 3dmark.

Zu den Schwächen des NV35:

Ich finde es enttäuschend, daß sich beim AA nichts getan hat. In dem Punkt kann ich aths nur zustimmen. Hinzu kommt, daß der nv35 auch kein gammakorrektes AA beherrscht und einige screenshots arg verwaschen aussehen.
Von der geringeren Lautstärke hätte ich mich gern selbst überzeugt. Da hätte man doch ein weiteres mp3 machen können und die Sache wäre erledigt.

Ansonsten ist nvidia mit dieser Karte konkurrenzfähig.

Endorphine
2003-05-13, 21:49:30
Wo ist der Sinn in einer übermässigen Bewertung der Lautstärke des Referenzkühlers, wenn dann doch jeder Boardhersteller sein eigenes Süppchen kochen wird? Der Sinn ist IMO verschwindend gering.

Eusti
2003-05-13, 22:03:02
Originally posted by Axel
Das Doom3 gerade jetzt als Benchmark zur Verfügung steht, liegt mit Sicherheit nur daran, daß die nVidia-Karte Ihre Stärken damit ausspielen können. Für mich ist dieser benchmark allerdings genauso aussagekräftig wie 3dmark.

Zu den Schwächen des NV35:

Ich finde es enttäuschend, daß sich beim AA nichts getan hat. In dem Punkt kann ich aths nur zustimmen. Hinzu kommt, daß der nv35 auch kein gammakorrektes AA beherrscht und einige screenshots arg verwaschen aussehen.
Von der geringeren Lautstärke hätte ich mich gern selbst überzeugt. Da hätte man doch ein weiteres mp3 machen können und die Sache wäre erledigt.

Ansonsten ist nvidia mit dieser Karte konkurrenzfähig. 1) Ich denke auch, das der Benchmark deswegen zur Verfügung steht. NVidia hat JC viel geholfen und auch keinen Mist mit überlassenen 0.02er Demos gebaut. Da war es für Ihn sicher mal an der Zeit was zurückzugeben.

2) Den Vergleich zwischen Domm3 und 3DM2003 find ich unsinnig. Die Wahrscheinlichkeit, das man irgendwann mal irgendein Spiel mit der Doom3 Engine sehen wird ist sehr hoch. Die Wahrscheinlichkeit das man irgendwann mal irgendein Spiel auf der 3DM2003 Engine sehen wird ist niedrig. Somit ist in meinen Augen die praxisrelevanz von Doom3 vieeellll höher.

3) Das AA von NVidia ist verglichen mit ATI totaler Scheiss (Volle Zustimmung zu dir und aths).

Axel
2003-05-13, 22:04:46
Originally posted by Endorphine
Wo ist der Sinn in einer übermässigen Bewertung der Lautstärke des Referenzkühlers, wenn dann doch jeder Boardhersteller sein eigenes Süppchen kochen wird? Der Sinn ist IMO verschwindend gering.


Man hat bei der NV30 damit angefangen und ich fände es gut, wenn ich nachvollziehen kann, in wie weit die Lautstärke wieder auf normalem Niveau ist. Der Referenzkühler wird sicherlich auch von einigen Herstellern verwendet und man kann in Reviews der Herstellerkarten sich auf die Referenz beziehen ohne neue mp3.
Ich will diesen Teil auch nicht überbewerten. Es würde ein Review aber abrunden.

StefanV
2003-05-13, 22:13:02
Originally posted by Endorphine
Wo ist der Sinn in einer übermässigen Bewertung der Lautstärke des Referenzkühlers, wenn dann doch jeder Boardhersteller sein eigenes Süppchen kochen wird? Der Sinn ist IMO verschwindend gering.

Weil es einfach solangsam an der Zeit wird das zu beachten??
Was eigentlich schon längst überfällig ist, siehe z.B. ELSA GF3 TI200...

Und vielleicht weil die wenigsten Hersteller überhaupt noch was an der Karte ändern??

Endorphine
2003-05-13, 22:22:22
Langsam schiesse ich mich wirklich auf dich ein Payne. Manchmal redest du wirklich richtig am Thema vorbei und interpretierst Dinge einfach um 180° um, die man gar nicht falsch verstehen kann.

Es ging erstens nicht darum, dem Thema weniger Beachtung zu schenken und des weiteren ist dein (unbewusster) Vergleich mit dem NV30 Ultra kaum angebracht. Und auch dort waren die FX-Flow in der Minderheit.

Hauptsache Spam, oder?

aths
2003-05-13, 22:25:50
Originally posted by Quasar
=) Du kannst mir von Nyquist erzählen was du möchtest, ich sehe, was ich sehe. Und im Zweifel werde ich mich eher auf den sensorischen Eindruck meiner Augen verlassen, als mich mit mathematischen Formeln von einer theoretischen Überlegenheit selbst überzeugen zu müssen, damit ich ein Bild X schöner als ein Bild Y empfinde. Einfach gesagt: Du siehst, was du kennst. Dein ästhetisches Empfinden möchte ich nicht geringwerten, aber wie bewertest du z.B. in Artikeln die BQ? Verlässt du dich da auf einen Eindruck?

Ich versuche, Möglichkeiten zu finden, BQ zu "messen". So dass man z.B. sagen kann "Dieses Bild ist in punkte Kantenglätte ungefähr 50% besser als das andere". Das geht natürlich nicht so einfach. Denn jeder setzt andere Schwerpunkte. Man kann also nur ein ungefähres Maß finden, was dann auch nicht für alle, aber für viele zufrieden stellend ist.

Ich traue meinem Auge nicht so recht, wenn ich ein Bild unvoreingenommen bewerten soll. Also versuche ich, Modelle zu finden, die auch begründen können, warum man zu dem oder dem Schluss kommt. Diese Modelle stehen natürlich in der Diskussion. Für die Nyqist-Grenze wird übrigens früher oder später unweigerlich ein Artikel fällig, ich weiß aber noch nicht genau, mit welchem Aspekt ich da anfangen soll. (Wahrscheinlich würde ich mit dem Shannon-Theorem einleiten.)
Originally posted by Quasar
Und ja, ich gebe mich in dieser Hinsicht tatsächlich mit einem Technikstand der GeForce3 zufrieden.
Bedenke: Zuerst gab es niedrige Auflösungen, etc. Das Rennen um den schnellsten Chip wurde zusätzlich mit dem Rennen um hohe Auflösungen (damals noch alles über 1024) angereichert.
Eine gewisse Sättigung in der Grundspeed der damaligen Game-Technologie trat ein. Ja, das ist ja auch notwendig, bevor man an der BQ weiter drehen kann.
Originally posted by Quasar
Dann kamen die bildqualitätsverbessernden Features hinzu. Plötzlich war man wieder auf niedrige Auflösungen beschränkt (oder musste auf diese Features verzichten).Das kenne ich nur von Voodoo4 und 5. Dass 2x AA auf GF3 heute zu langsam ist, liegt nicht am schlechten 2x AA der GF3, sondern am zu geringen Grundspeed für modernste Spiele.
Originally posted by Quasar
Nun scheint ein Punkt erreicht, wo wieder die Games ein ganzes Stück anziehen, selbst einige Strategiespiele erfordern einen leistungsstarken 3D-Beschleuniger.
Und an diesem Punkt möchte ich erst einmal eine ausreichende Rohleistung für hohe Auflösungen in neuen Games.
Von diesem Punkt ausgehend, fange ich an, wieder IQ-Features hinzuzuschalten. Erst AF, bis ca. Stufe 4 und danach FSAA. Ich halte (Achtung, persönliche Vorliebe) Treppeneffekte, also ein Bild ohne AA, für grundsätzlich indiskutabel. Texturen haben längst AA (MIP-Mapping, BF, TF) und da sollen die Kanten das bitte auch haben. Kanten ohne AA ist für mich totale 3D-Steinzeit. Das gilt aber auch für verwaschene Texturen. Zu Banshee-Zeiten meckerte ich noch nicht, aber heute verlange ich Detailerkennbarkeit auch bei schrägem Sichtwinkel.

Von der Rohleistung her brauche ich mir z.B. bei GF4 Ti 4600 wirklich keinen Kopf machen. Im Rohmodus rockt sie auch in höhen Auflösungen die Scheiße fett. Aber das gabs zu Zeiten der GF2U (mit damaligen Spielen, natürlich) auch schon. Nun bin ich dank Voodoo4 und jetzt GF4 aber verwöhnt. Rohmodus - wie unmodern. Die Rohgeschwindigkeit halte ich inzwischen für wirklich ungeordnet, wenn man die Leistung einer Karte bewerten soll.

Quasar
2003-05-13, 22:35:52
Originally posted by aths
Einfach gesagt: Du siehst, was du kennst. Dein ästhetisches Empfinden möchte ich nicht geringwerten, aber wie bewertest du z.B. in Artikeln die BQ? Verlässt du dich da auf einen Eindruck?

Jein.
Einerseits muss ich dies, andererseits stelle ich Screenshots gegeneinander und schaue, an welchen Stellen welche Karte Vorteile hat.

Diese Methode hat den Vorteil, dass jeder Leser sich selbst ein Bild darüber machen kann, mit den ihm eigenen Präferenzen. Mein Geschreibsel kann er dazu geflissentlich ignorieren. :)

Quasar
2003-05-13, 22:37:53
Originally posted by aths
Dass 2x AA auf GF3 heute zu langsam ist, liegt nicht am schlechten 2x AA der GF3, sondern am zu geringen Grundspeed für modernste Spiele.


Richtig. Und wenn dann noch die Zusatzbelastung durch FSAA hinzukommt, ist's essig mit hoher Auflösung.
Also brauche ich eine Karte, die die hohe Auflösung problemlos meister und darüberhinaus noch genug Reserven hat, das eine oder andere Feature hinzuzuschalten.

StefanV
2003-05-13, 22:41:53
Originally posted by Endorphine
Langsam schiesse ich mich wirklich auf dich ein Payne. Manchmal redest du wirklich richtig am Thema vorbei und interpretierst Dinge einfach um 180° um, die man gar nicht falsch verstehen kann.

Es ging erstens nicht darum, dem Thema weniger Beachtung zu schenken und des weiteren ist dein (unbewusster) Vergleich mit dem NV30 Ultra kaum angebracht. Und auch dort waren die FX-Flow in der Minderheit.

Hauptsache Spam, oder?

1. es wäre schön, wenn einige die Persönlichkeiten unterlassen würden.

2. warum??
Wieviele Hersteller klatschen einfach die Referenzkühler aufs PCB und noch schlimmer, wieviele Boardhersteller ordern gleich komplette Referenzbretter samt Kühler??

Also bei ATI fallen mir C.P. Technology, Gigabyte, Hercules und teilweise Sapphire ein, die einen eigenen Kühler verwenden, wobei der von Sapphire und Hercules verbaute schon mehr oder minder verfügbar war und einfach nur verbaut wurde.

Die einzigen, die sich wirklich Mühe gemacht haben mit den Radeon Karten, das ist Tyan, die das PCB um einen HWM erweitert haben und einen eigenen Kühler verbaut haben, den Hercules Kühler kann jeder Normalsterbliche im Laden kaufen, der Sapphire Kühler wurde in ähnlicher Form z.B. auf den ASUS GF4 TI4200 Karten verbaut.

3. Ist das Thema nicht mehr oder minder irrelevant??
Außerdem sprach ich nicht von der GF FX Ultra, sondern von Karten allgemein und da verbauen bei den ATI Karten die Mehrheit den ATI Referenzkühler bzw. Ordern gleich das komplette PCB bei ATI, bei der FX5800 wirds ähnlich sein, nur bei den Value Karten wie Radeon 9600 (PRO) und FX5600 (ULTRA) erwarte ich wirkliche Eigenentwicklungen, sowohl beim Kühler als auch beim PCB.

4. bevor du andere beschuldigst solltest du versuchen sachlich zu bleiben und zu diskutieren.

aths
2003-05-13, 22:45:49
Originally posted by Quasar
Jein.
Einerseits muss ich dies, andererseits stelle ich Screenshots gegeneinander und schaue, an welchen Stellen welche Karte Vorteile hat.Ich analysiere erst mit den synthetischen Testprogrammen, um zu erfahren, wo man im Bild hingucken muss, um Unterschiede zu sehen.

aths
2003-05-13, 22:46:11
Originally posted by Quasar
Richtig. Und wenn dann noch die Zusatzbelastung durch FSAA hinzukommt, ist's essig mit hoher Auflösung.
Also brauche ich eine Karte, die die hohe Auflösung problemlos meister und darüberhinaus noch genug Reserven hat, das eine oder andere Feature hinzuzuschalten. Z.B. modernes 4x AA.

mapel110
2003-05-13, 22:49:16
Originally posted by Quasar


Richtig. Und wenn dann noch die Zusatzbelastung durch FSAA hinzukommt, ist's essig mit hoher Auflösung.
Also brauche ich eine Karte, die die hohe Auflösung problemlos meister und darüberhinaus noch genug Reserven hat, das eine oder andere Feature hinzuzuschalten.

hm, also alles was höher als 1152er auflösung ist, lässt doch in den meisten games die schrift arg klein werden. da brauchts dann schon einen 19" und mehr. da ist mir gutes AA doch lieber. ausserdem sind doch games auch von den texturen her auf 1024er auflösung ausgelegt. oder irre ich mich da ?!

Salvee
2003-05-13, 22:53:33
Originally posted by aths
Ich analysiere erst mit den synthetischen Testprogrammen, um zu erfahren, wo man im Bild hingucken muss, um Unterschiede zu sehen.

Kleine Zwischenfrage: Gibt es mittlerweile ein synthetisches Testprogramm, bei dem mehrere Texturstages benutzt werden und diese auch einzeln darstellbar sind?

Endorphine
2003-05-13, 23:02:05
Originally posted by aths
Ich analysiere erst mit den synthetischen Testprogrammen, um zu erfahren, wo man im Bild hingucken muss, um Unterschiede zu sehen. Wenns schon so weit ist verkommt die ganze Betrachtung ja langsam aber sicher zu akademischen Trockenschwimmübungen. Wo ist der Nutzen von BQ-erhöhenden Techniken, wenns erst Theorieprogrammen bedarf, um Unterschiede überhaupt wahrnehmen zu können?

Ich würde die Geschichte wieder mal anders herum aufrollen: erst schauen, ob es noch Sinn macht, wegen Farbtonunterschieden im Bereich von 1-2 Helligkeitswerten riesengrosse Artikel zu schreiben und dann entscheiden, ob man Theorieprogramme heranziehen sollte, die dann die gefühlten Unterschiede mit harten Fakten untermauern.

Ich würde es mit dem Selbstzweck nicht so übertreiben. Sonst bleibt irgendwann wieder nur etwas ähnlich von der Realität abgehobenes übrig wie bei Hi-Fi Freaks, die 98 % der Zeit nur noch Testschallplatten hören (ja, Schallplatten).

p.s. Diese "Abgehobenheit" glaube ich auch schon bei dir festzustellen, wenn du scheinbar den Anspruch erhebst, AA und AF sei das wichtigste an einer neuen 3D-Spielebeschleunigergeneration. Dabei haben aus meiner Sicht die allermeisten Spieler (nicht nur Gelegenheitsspieler!) von beiden Funktionen bis jetzt noch nicht mal Notiz genommen. Und ich wette die Hersteller wissen das und verteilen ihre Entwicklungsressourcen lieber auf das, wofür die Kunden bezahlen - Leistung.

p.p.s. Bitte nimm' mir folgende Aussage nicht übel: Ich glaube, die mangelnde Bekanntheit bzw. der mangelnde Respekt von 3DCenter bei den Grafikkartenherstellern (Leo klagt ja, keine Samples vor Produktlaunch zu bekommen) hängt genau mit dieser Realitätsferne zusammen. Das soll jetzt nicht deine Arbeit entwerten!

Demirug
2003-05-13, 23:05:47
Originally posted by Salvee


Kleine Zwischenfrage: Gibt es mittlerweile ein synthetisches Testprogramm, bei dem mehrere Texturstages benutzt werden und diese auch einzeln darstellbar sind?

Ja aber ist noch Beta und es hat bei einem NV30 nichts ergeben.

Endorphine
2003-05-13, 23:08:19
Originally posted by Demirug
Ja aber ist noch Beta und es hat bei einem NV30 nichts ergeben. Wo bekommt man die Beta? :naughty:

Xmas
2003-05-13, 23:12:33
Originally posted by Endorphine
Wenns schon so weit ist verkommt die ganze Betrachtung ja langsam aber sicher zu akademischen Trockenschwimmübungen. Wo ist der Nutzen von BQ-erhöhenden Techniken, wenns erst Theorieprogrammen bedarf, um Unterschiede überhaupt wahrnehmen zu können?

Ich würde die Geschichte wieder mal anders herum aufrollen: erst schauen, ob es noch Sinn macht, wegen Farbtonunterschieden im Bereich von 1-2 Helligkeitswerten riesengrosse Artikel zu schreiben und dann entscheiden, ob man Theorieprogramme heranziehen sollte, die dann die gefühlten Unterschiede mit harten Fakten untermauern.
Das Problem bei der Sache ist, dass es visuelle Unterschiede gibt, die man zwar vom Qualitätsstandpunkt her wahrnimmt ("dieses Bild ist besser als das andere"), aber nicht benennen kann.

Demirug
2003-05-13, 23:15:31
Originally posted by Endorphine
Wo bekommt man die Beta? :naughty:

Im Moment nirgendwo. Das Teil ist einfach noch nicht so weit das man es der Öffentlichkeit geben kann.

Endorphine
2003-05-13, 23:18:31
Originally posted by Xmas
Das Problem bei der Sache ist, dass es visuelle Unterschiede gibt, die man zwar vom Qualitätsstandpunkt her wahrnimmt ("dieses Bild ist besser als das andere"), aber nicht benennen kann. Wenn dem noch so ist, dann ist ja alle weitere Betrachtung imo völlig legitim :) Nur gleich sofort alles immer von der Theorieseite zu betrachten ohne sich vorher erstmal unvoreingenommen die Praxis anzusehen und davon das Konzept abzuleiten halte ich für fragwürdig. Und genau von der Seite scheint aths es ja anzugehen. Das ist dann ab irgendeinem Punkt nur noch reiner Selbstzweck ohne praktischen Nutzen, ohne dass er es bemerkt (?). Ich glaube, das ist der Kern dessen, was Quasar meint.

egdusp
2003-05-13, 23:19:50
Eine Frage zu den Treibern. Leo hat in seiner Zusammenfassung ja geschrieben, dass die 44.xx ja schon Deto 50 sein sollen.
Das erscheint mir unlogisch, da NV bei neuen Treibergenerationen immer auch die Versionsnummer angepasst hat (20, 30, 40) und in einem Betatreiber ja was von einem Deto 50.04 stand (war aber auch ein 64bit Workstation Treiber).

Ist der 44.xx jetzt schon ein DetonatorFX oder nicht?
Anand schreibt was davon, dass sie den bei Veröffentlichung nochmal genauer testen wollen.

mfg
egdusp

Quasar
2003-05-13, 23:20:30
Originally posted by aths
Z.B. modernes 4x AA.
...welches nur ein Kantenfetischist bei 1600x1200 noch benötigt.

Ich stecke meine Rechenleistung und Bandbreite lieber in andere Dinge. ;)

Quasar
2003-05-13, 23:21:23
Originally posted by egdusp
Eine Frage zu den Treibern. Leo hat in seiner Zusammenfassung ja geschrieben, dass die 44.xx ja schon Deto 50 sein sollen.
Das erscheint mir unlogisch, da NV bei neuen Treibergenerationen immer auch die Versionsnummer angepasst hat (20, 30, 40) und in einem Betatreiber ja was von einem Deto 50.04 stand (war aber auch ein 64bit Workstation Treiber).

Ist der 44.xx jetzt schon ein DetonatorFX oder nicht?
Anand schreibt was davon, dass sie den bei Veröffentlichung nochmal genauer testen wollen.

mfg
egdusp

AFAIK ist er es.

Quasar
2003-05-13, 23:23:02
Originally posted by Endorphine
Wenn dem noch so ist, dann ist ja alle weitere Betrachtung imo völlig legitim :) Nur gleich sofort alles immer von der Theorieseite zu betrachten ohne sich vorher erstmal unvoreingenommen die Praxis anzusehen und davon das Konzept abzuleiten halte ich für fragwürdig. Und genau von der Seite scheint aths es ja anzugehen. Das ist dann ab irgendeinem Punkt nur noch reiner Selbstzweck ohne praktischen Nutzen, ohne dass er es bemerkt (?). Ich glaube, das ist der Kern dessen, was Quasar meint.

Schön, dass wir so langsam mal wieder auf des Pudels Kern zurückkommen.
Ja, es gibt Unterschiede, und nein, man braucht keine zig-Fache Vergößerung, um sie zu sehen.
Wirklich extrem auffällig sind sie IMO allerdings nicht (ausser man weiss, wo man suchen muss).

aths
2003-05-13, 23:23:03
Originally posted by Salvee
Kleine Zwischenfrage: Gibt es mittlerweile ein synthetisches Testprogramm, bei dem mehrere Texturstages benutzt werden und diese auch einzeln darstellbar sind? Ja, afaik hat Unwinder sowas für OpenGL und Demirug bastelt sowas für D3D.

aths
2003-05-13, 23:25:54
Originally posted by Endorphine
Wenns schon so weit ist verkommt die ganze Betrachtung ja langsam aber sicher zu akademischen Trockenschwimmübungen. Wo ist der Nutzen von BQ-erhöhenden Techniken, wenns erst Theorieprogrammen bedarf, um Unterschiede überhaupt wahrnehmen zu können?Dann ist der Nutzen sehr gering - was nichts daran ändert, dass ich den Unterschied zwischen 4x OG und 4x RG selbst bei 1600x1200 sehe.

Originally posted by Endorphine
p.s. Diese "Abgehobenheit" glaube ich auch schon bei dir festzustellen, wenn du scheinbar den Anspruch erhebst, AA und AF sei das wichtigste an einer neuen 3D-Spielebeschleunigergeneration. Dabei haben aus meiner Sicht die allermeisten Spieler (nicht nur Gelegenheitsspieler!) von beiden Funktionen bis jetzt noch nicht mal Notiz genommen. Und ich wette die Hersteller wissen das und verteilen ihre Entwicklungsressourcen lieber auf das, wofür die Kunden bezahlen - Leistung.Leistung sollte heutzutage nicht nur sein, trilinear gefilterte, nicht kantengeglättete Pixel zu rendern :)
Originally posted by Endorphine
p.p.s. Bitte nimm' mir folgende Aussage nicht übel: Ich glaube, die mangelnde Bekanntheit bzw. der mangelnde Respekt von 3DCenter bei den Grafikkartenherstellern (Leo klagt ja, keine Samples vor Produktlaunch zu bekommen) hängt genau mit dieser Realitätsferne zusammen. Das soll jetzt nicht deine Arbeit entwerten! Na gut, ich wollte dich schon bannen... (kleiner Scherz.)

aths
2003-05-13, 23:30:32
Originally posted by Endorphine
Wenn dem noch so ist, dann ist ja alle weitere Betrachtung imo völlig legitim :) Nur gleich sofort alles immer von der Theorieseite zu betrachten ohne sich vorher erstmal unvoreingenommen die Praxis anzusehen und davon das Konzept abzuleiten halte ich für fragwürdig. Und genau von der Seite scheint aths es ja anzugehen. Das ist dann ab irgendeinem Punkt nur noch reiner Selbstzweck ohne praktischen Nutzen, ohne dass er es bemerkt (?). Ich glaube, das ist der Kern dessen, was Quasar meint. "Leider" sehe ich heute relativ schnell die mathematischen Hintergründe. Der Praxisbezug ist schon noch da, aber ein Teil der Diskussion sollte imo gerne theoretisch geführt werden. Indem man nur auf den Screenshot starrt, um ja praktisch zu bleiben, gewinnt man weniger Erkenntnisse, und läuft schneller Gefahr, Dinge zu übersehen (weil sie dieser Screenshot nun eben nicht zeigt.)

MadManniMan
2003-05-13, 23:34:02
Originally posted by aths
Die Frage stellt sich nicht wirklich, da heutige moderen Karten beides anbieten.

da biste aber schön absolut an meinen fragen vorbeigegangen :naughty:

2 szenarien, bitte beide seperat beantworten:

a) du hast eine gf3 ti200 @230/230 und willst mafia mit vollen details zocken. zusätzlich solls natürlich ein quali-feature von karten-seiten aus sein. aber selbst in 800*600 bleibt dir nur die wahl zwischen 2*aa/0*af oder 0*aa/4*af. was stellst du an?
da ich mafia gerade selbst mit dieser karte zocke, kannst du mir auch glauben, daß 2*/2* nicht spielbar ist.

b) 4*ogms und 8tap application af ODER 4*rgms und 16tap ati-quali-af?

Endorphine
2003-05-13, 23:38:44
Wenigstens beharrst du nicht stumpfsinnig auf deinen Prinzipien sondern erkennst Kritik als solche an und scheinst auch darüber nachzudenken :) (oh, wie ich das bei anderen Seiten doch vermisse - d'oh).

Ich bezog mich übrigens weitestgehend auf deine Artikel. Die Diskussionen hier sind ja sowieso meist/oft hintergrundorientiert und deshalb schon fast zwanghaft theoretisch.

aths
2003-05-13, 23:55:37
Originally posted by MadManniMan
da biste aber schön absolut an meinen fragen vorbeigegangen :naughty:Nicht ohne Absicht :naughty:
Originally posted by MadManniMan
a) du hast eine gf3 ti200 @230/230 und willst mafia mit vollen details zocken. zusätzlich solls natürlich ein quali-feature von karten-seiten aus sein. aber selbst in 800*600 bleibt dir nur die wahl zwischen 2*aa/0*af oder 0*aa/4*af. was stellst du an?
da ich mafia gerade selbst mit dieser karte zocke, kannst du mir auch glauben, daß 2*/2* nicht spielbar ist.Ich habe keine GF3, und Mafia habe ich nie gespielt. Die GF4 kaufte ich mir nicht zuletzt, um eben beides haben zu können.

Ich würde AF "optimieren" (also nur auf Stage 0 laufen lassen), und die Auflösung ggf. auf 720x576 senken, wenns geht, und basteln bis 2x/2x drin ist.
Originally posted by MadManniMan
b) 4*ogms und 8tap application af ODER 4*rgms und 16tap ati-quali-af? Letzteres.

aths
2003-05-13, 23:56:26
Originally posted by Endorphine
Ich bezog mich übrigens weitestgehend auf deine Artikel. Na dann warte mal auf den nächsten von mir. Da _muss_ man etliches theoretisch abhandeln, damit der Leser den Effekt versteht, und nicht nur sieht.

Endorphine
2003-05-14, 00:38:10
Originally posted by aths
Na dann warte mal auf den nächsten von mir. Da _muss_ man etliches theoretisch abhandeln, damit der Leser den Effekt versteht, und nicht nur sieht. Nicht, das wir uns falsch verstehen: ich bin auch ausdrücklich für Theorie - nur eben als Mittel zum Zweck und nicht als reiner Selbstzweck. Theorie als Mittel, um selbst gemachte Erfahrungen zu erklären oder als Grundlage für die Praxis. Sonst ist es ja nur Wissenschaft um der Wissenschaft willen. Oder wie mein Ex BWL-Prof sagen würde "Ich sprach mit dem F&E-Leiter eines grossen deutschen Chemieunternehmens und befragte ihn nach dem Ziel seines Schaffens - Antwort war: 'Wir betreiben hier Forschung.'"

Solange du am Schluss des Artikels nicht 4x RGMSAA in 800x600 als Ersatz für 2x RGMSAA in 1600x1200 empfiehlst ist alles in Ordnung ;)

zeckensack
2003-05-14, 00:52:09
Originally posted by Endorphine
Solange du am Schluss des Artikels nicht 4x RGMSAA in 800x600 als Ersatz für 2x RGMSAA in 1600x1200 empfiehlst ist alles in Ordnung ;) 1600x1200 liefert bessere Texturen, ansonsten sind die beiden Sachen aber quasi gleichwertig :naughty:

aths
2003-05-14, 00:57:27
Originally posted by Endorphine
Nicht, das wir uns falsch verstehen: ich bin auch ausdrücklich für Theorie - nur eben als Mittel zum Zweck und nicht als reiner Selbstzweck. Theorie als Mittel, um selbst gemachte Erfahrungen zu erklären oder als Grundlage für die Praxis. Sonst ist es ja nur Wissenschaft um der Wissenschaft willen. Oder wie mein Ex BWL-Prof sagen würde "Ich sprach mit dem F&E-Leiter eines grossen deutschen Chemieunternehmens und befragte ihn nach dem Ziel seines Schaffens - Antwort war: 'Wir betreiben hier Forschung.'" Das ist doch ok. Man kann doch vorher noch nicht wissen, was am Ende rauskommt. Wenn ich z.B. über AA-Verfahren nachdenke, weiß ich doch auch noch nicht, ob ich überhaupt zu irgendwelchen verwertbaren Erkenntnissen gelange.

Crushinator
2003-05-14, 01:01:49
Booah! :o Supergeiles Avatar, aths! :liplick:

MadManniMan
2003-05-14, 01:23:02
Originally posted by aths
Nicht ohne Absicht :naughty:

na ach nee, hätt ich jetz nich jedacht, ne? ;)

Originally posted by aths
Ich habe keine GF3, und Mafia habe ich nie gespielt. Die GF4 kaufte ich mir nicht zuletzt, um eben beides haben zu können.

*ommm* in den tiefen deines unterbewußtseins bist du jetze aber mal ich, capichè?

Originally posted by aths Ich würde AF "optimieren" (also nur auf Stage 0 laufen lassen), und die Auflösung ggf. auf 720x576 senken, wenns geht, und basteln bis 2x/2x drin ist.
Letzteres.

;D

af is schon lange optimiert und zwischen 800 und 640 (viel spaß auf deinem 19" :naughty: ) sind genausoviel auswahlmöglichkeiten vorhanden, wie nagus nv-karten in den himmel gelobt hat

und nu?

aths
2003-05-14, 01:41:42
Originally posted by crushinator
Booah! :o Supergeiles Avatar, aths! :liplick: Und nur für kurze Zeit :D Bei Dusk habe ich es leider mit der Gamma-Korrektur etwas übertrieben :(

Originally posted by MadManniMan
af is schon lange optimiert und zwischen 800 und 640 (viel spaß auf deinem 19" :naughty: ) sind genausoviel auswahlmöglichkeiten vorhanden, wie nagus nv-karten in den himmel gelobt hat

und nu? 1. Nicht verzweifeln

2. Ruhe bewahren

3. Nachdenken.

Guck mal in die Inf, ob die "Zwischen-Auflösungen" eingetragen sind. Wenn nein, hole das nach und Re-Installiere den Treiber. Übertakte die Graka moderat, verzichte im Spiel auf Details. Wenn das alles nichts hilft:

4. Alte Graka raus, neue Graka rein.

MadManniMan
2003-05-14, 02:36:06
Originally posted by aths
4. Alte Graka raus, neue Graka rein.

zur radeon 9500 pro fehlen mir nur noch 30€ ... :D

jetzt aber nochmal zum thema: ... ach ich lass es, du redest dich eh raus :bonk: ;)

AMC
2003-05-14, 03:26:56
Originally posted by Endorphine
p.s. Diese "Abgehobenheit" glaube ich auch schon bei dir festzustellen, wenn du scheinbar den Anspruch erhebst, AA und AF sei das wichtigste an einer neuen 3D-Spielebeschleunigergeneration. Dabei haben aus meiner Sicht die allermeisten Spieler (nicht nur Gelegenheitsspieler!) von beiden Funktionen bis jetzt noch nicht mal Notiz genommen. Und ich wette die Hersteller wissen das und verteilen ihre Entwicklungsressourcen lieber auf das, wofür die Kunden bezahlen - Leistung.

p.p.s. Bitte nimm' mir folgende Aussage nicht übel: Ich glaube, die mangelnde Bekanntheit bzw. der mangelnde Respekt von 3DCenter bei den Grafikkartenherstellern (Leo klagt ja, keine Samples vor Produktlaunch zu bekommen) hängt genau mit dieser Realitätsferne zusammen. Das soll jetzt nicht deine Arbeit entwerten!

Ich glaube, besser hätte man es nicht sagen können! :)
Jeder Artikel und jeder Review auf 3DCenter haben (leider) immer einen bitteren Beigeschmack....

P.S. Ich will 3DConcept wieder *seufz* :bawling:

mapel110
2003-05-14, 03:50:24
Originally posted by AMC


Ich glaube, besser hätte man es nicht sagen können! :)
Jeder Artikel und jeder Review auf 3DCenter haben (leider) immer einen bitteren Beigeschmack....

P.S. Ich will 3DConcept wieder *seufz* :bawling:

schön. dann bencht man also 1024 ohne AA/AF und wundert sich, was ATi und nvidia für einen dreck bauen, der nichtmal schneller ist, als die vorgängerversion. :stareup:

wer 1000 deutsche mark ausgibt für ein simples hohles stück hardware, der sollte wissen, was er damit anfangen kann.

MadManniMan
2003-05-14, 03:53:04
Originally posted by AMC


Ich glaube, besser hätte man es nicht sagen können! :)
Jeder Artikel und jeder Review auf 3DCenter haben (leider) immer einen bitteren Beigeschmack....

P.S. Ich will 3DConcept wieder *seufz* :bawling:


ich frage mich gerade, ob du auch so deprimiert wärest, wäre nv20+ 4fach AA RG ... :eyes:

AMC
2003-05-14, 04:21:08
wäre weder deprimiert noch sonst was. ;D Ich bin mit 4xS und 2 AA sehr zufrieden.

Es ist allerdings Fakt, dass heutige Benchmarks und vor allem die dafür gewählten Auflösungen absolut unrealistisch und abgehoben sind!!

Ich meine, schon klar, schliesslich hat Mapel ja darauf angespielt, denn schon seit Ur-Geforce3 Zeiten sind die Benchmarks im Rohmodus lächerlich geworden. Alle Grafikchips seit dem sind annähernd gleich schnell ohne AA/AF und daher wird halt an der Auflösung gedreht, bis sich mal wieder ein Unterschied messen lässt. Aber ich möchte meine Situation kurz erläutern: Für MICH ist 1024*768 die interessanteste Auflösung. Deshalb schaue ICH mir auch nur und ausschliesslich Benchmarks in dieser Auflösungsstufe an, natürlich auch mit aktiviertem AA/AF! Das was Endorphine wohl meinte, war nichts anderes,als das hier langsam aber sicher der absolute Bezug zur Realität fehlt. Wir sind hier in einem Grafikchipforum und logischerweise laufen hier ne Menge Freaks herum, die locker mal ne 21" Monitor ihr eigen nennen, nur dumm, dass das halt nicht für den Durchschnittsgamer und selbst für die Spezis unter den Zockern gilt. (Ich zähle mich einfah mal dazu...) Ich frage mich manchmal, wo dieser Wahnsinn aufhört. 1600*1200*4AA*8AF halte ich für absolut überzogen. (Und nein, nicht weil mein Monitor 1600*1200 nicht mit 100 Hz schafft!)
Schon mal Deus Ex in 1024 oder höher gespielt? Na? Noch was vom HUD erkennen können? Gothic I + II das persönliche Tagebuch gelesen? =) Ich denke, einige werden verstehen, worauf ich hinaus will.

Wieso fällt es einigen hier so schwer anzuerkennen, dass man mit der nVidia AA-Methode durchaus zufrieden sein kann? Ich freue mich auch für jeden, der mit seiner Radeon 9700+ und nem guten grösseren Monitor andere Auflösungen und AA Stufen geniessen kann, aber trotzdem bildet diese Gruppe IMHO eine Minderheit. (Die mit den Monitoren meinte ich natürlich...:))

AMC

P.S. Netter Flame Versuch Manni! Nur dumm, dass ich mich so einfach net provozieren lasse, versuchs nochmal. :chainsaw:

MadManniMan
2003-05-14, 04:31:19
Originally posted by AMC
P.S. Netter Flame Versuch Manni! Nur dumm, dass ich mich so einfach net provozieren lasse, versuchs nochmal.

*jessas* isses denn die... ach, nich aufregen...

warum wird in den letzten tagen eigentlich jede subtile anspielung immer gleich als flame verschrien ???

btw: deine argumentation klingt plausibel, ist aber nicht durchgängig schlüssig, alldieweil die rawperformance-unterschiede im moment einen stand erreichen, den man eigentlich in diesen größenordnungen eher von anno 2000 mit 1024/32 mit gf2 ultras und voodoo4s kennt.
aber in 1024 äußern die sich natürlich nicht sooo dolle, das ist schon wahr!
ich muß dir auch zustimmen, daß 4xS ne feine sache ist, wer dagegen allerdings schonmal gamma-angepaßtes 4*rg gesehen hat... naja, den rest kannst du dir denken...

und hier geht es mitnichten nur noch um 1600 und dann 4*aa, das haben erst aths und quasar aus persönlichen ansprüchen soweit getrieben. vielmehr ist doch erwähnenswert, daß das gros der r3*0 besitzer offenbar 4*rg sehr schätzt, wird es doch fast durchgängig als standard benannt.

AMC
2003-05-14, 04:45:40
Originally posted by MadManniMan
warum wird in den letzten tagen eigentlich jede subtile anspielung immer gleich als flame verschrien ???


Könnte an der gespannten Situation der letzten Monate hier in den Foren liegen. :)

Originally posted by MadManniMan

btw: deine argumentation klingt plausibel, ist aber nicht durchgängig schlüssig, alldieweil die rawperformance-unterschiede im moment einen stand erreichen, den man eigentlich in diesen größenordnungen eher von anno 2000 mit 1024/32 mit gf2 ultras und voodoo4s kennt.
aber in 1024 äußern die sich natürlich nicht sooo dolle, das ist schon wahr!
ich muß dir auch zustimmen, daß 4xS ne feine sache ist, wer dagegen allerdings schonmal gamma-angepaßtes 4*rg gesehen hat... naja, den rest kannst du dir denken...


Jopp, ich verstehe, was Du meinst. Ich hab 4*RG schon betrachten dürfen und es sah nicht schlecht aus, ist aber für mich nicht so schwer in der Waagschale liegend, die meine Kaufentscheidungen letzten Endes beeinflusst. Auf gut Deutsch, ich bin auch eher ein Freund von sehr scharfen Texturen, da sie für mich halt wesentlich mehr zu der Atmosphäre eines Spiels beitragen, als reduzierte Kanten an Polygonen. Wenn ich also eine Grafikkarte kaufen würde, dann würde ich in erster Linie auf das AF achten und AA als nicht zu verachtenden, aber eben für mich nicht "unendlich" wichtigen Grund als netten Bonus mitnehmen. Von wem am Ende das Verfahren käme, also nV oder ATI, ist mir da ehrlich gesagt egal. :> Deshalb kann ich mit 4xS und 2AA sehr gut leben. (Was ich mit 4*RG natürlich auch könnte :D)

Originally posted by MadManniMan
und hier geht es mitnichten nur noch um 1600 und dann 4*aa, das haben erst aths und quasar aus persönlichen ansprüchen soweit getrieben. vielmehr ist doch erwähnenswert, daß das gros der r3*0 besitzer offenbar 4*rg sehr schätzt, wird es doch fast durchgängig als standard benannt.

Ack. Dem gibt es nichts hinzuzufügen! :)

AMC

mapel110
2003-05-14, 06:15:49
http://www.digit-life.com/articles2/gffx/5900u.html
review is up. mal wieder viel auf eine seite gepackt. mehr als 2 mb. also modem user aufgepasst ;)

die doom alpha haben sie auch wieder getestet. wenn man sich die fps anguckt, dann hat JC wirklich nochmal einiges aus den grakas rausgequetscht. ca 10-15 fps mehr in der aktuellen build, die anand, thg und hardocp zum testen hatten.

seahawk
2003-05-14, 08:48:16
Ich möchte auch nochmal meinen Senf dazugeben :

Test in 1600x1200 sind heute eigentlich rein theoretisch. Natürlich sind heutige Grafikarten in der Lage auch bei dieser Auflösung noch AF+AA bei guten Frameraten zu erzeugen, nur auf welchem Monitor kann man das noch spielen ??

Ich habe privat einen 19" Monitor (ich denke das ist heute üblich für den Gamer) und bin wieder auf 1024*768 bei 4xAA + 8xAF runtergegangen. Versucht mal Vietcong zu spielen, bei 1200x1024 oder gar höher ist es praktisch unmöglich einen weiter entfernten Gegner rechtzeitig zu erkennen. Und in manchen Spielen wird das HUD langsam etwas zu klein. (auf 19") 1024x768 wird erst langsam durch 1280xXXX verdrängt.

Auf 21" oder größer ist es bestimmt klasse mit 1600x1200 und 4xAA zu spielen, nur leider ist dies doch heute mehr oder weniger ein rein theoretischer Versuch. Wichtig und sinnvoll um die Karten miteinander zu vergleichen, für die Praxis aber weniger wichtig als 8xAA+16xAF bei 1024x768.

Grundsätzlich bin ich der Meinung, dass AF wichtiger ist als AA, da die Texturen wesentlich schärfer erscheinen. Die Kantenstufen nimmt man in Bewegung weniger wahr. Eine Kombination von beiden ist allerdings optimal.

Für mich ist heute noch die Leitsung bei 1024x768 mit AA+AF wichtiger als die Rohleistung bei 1600x1200 oder gar die Leistung bei 1600x1200 mit AF+AA.

RGAA ist natürlich die optimale AA Lösung (zur Zeit), und die verbesserte Kantenqualität muss entsprechend gewürdigt werden.

-> So gesehen stimme ich dem Artikel zu, dass die beste Highendkarte die 9700pro ist, da sie für wesentlich weniger Geld, bei 1024*768 gute Leistung und gute Bildqualität bringt.

StefanV
2003-05-14, 09:03:32
Originally posted by AMC
Wieso fällt es einigen hier so schwer anzuerkennen, dass man mit der nVidia AA-Methode durchaus zufrieden sein kann? Ich freue mich auch für jeden, der mit seiner Radeon 9700+ und nem guten grösseren Monitor andere Auflösungen und AA Stufen geniessen kann, aber trotzdem bildet diese Gruppe IMHO eine Minderheit. (Die mit den Monitoren meinte ich natürlich...:))

Einige sind auch mit dem Matsch TV Out einiger G-Force Karten zufrieden, andere sind mit dem Matschbild auf dem schrottigen Billigstmonitor zufrieden...

Die Frage ist doch eher: WARUM SIND SIE DAS??

Der Grund ist meist so einleuchtend wie einfach:

Weil sie es nicht besser kennen.

StefanV
2003-05-14, 09:08:03
Originally posted by AMC
Könnte an der gespannten Situation der letzten Monate hier in den Foren liegen. :)

AMC

Könnte auch an einigen Gruppierungen liegen, die in letzter Zeit nicht viel zu lachen hatten, weil man gnadenlos auf sein Heiligtum eingedroschen hat :eyes:

Aber diese Gruppierung mußte ja zum ersten male in der Geschichte gehörig einstecken und konnte nicht wirklich austeilen :eyes:

Unregistered
2003-05-14, 09:58:46
Originally posted by Stefan Payne


Könnte auch an einigen Gruppierungen liegen, die in letzter Zeit nicht viel zu lachen hatten, weil man gnadenlos auf sein Heiligtum eingedroschen hat :eyes:

Aber diese Gruppierung mußte ja zum ersten male in der Geschichte gehörig einstecken und konnte nicht wirklich austeilen :eyes:


Schön das Du endlich Deine Fehler einsiehst!

Legende
2003-05-14, 10:36:26
Oh Leute... :love1:

Andre
2003-05-14, 10:39:34
Originally posted by Stefan Payne


Könnte auch an einigen Gruppierungen liegen, die in letzter Zeit nicht viel zu lachen hatten, weil man gnadenlos auf sein Heiligtum eingedroschen hat :eyes:

Aber diese Gruppierung mußte ja zum ersten male in der Geschichte gehörig einstecken und konnte nicht wirklich austeilen :eyes:

Könnte auch daran liegen, dass sich manche Leute richtig austoben, um mal ihr angegriffenes Ego wieder aufzubauen.

Andre
2003-05-14, 10:41:25
Originally posted by Stefan Payne


Einige sind auch mit dem Matsch TV Out einiger G-Force Karten zufrieden, andere sind mit dem Matschbild auf dem schrottigen Billigstmonitor zufrieden...


Welche Geforce-Karten bitte, Herr Payne?
Sind wir heute wieder undifferenziert?
Warum sonst bescheinigt die c´t den Geforce FX eine bessere TV-Out-Qualität als ATI?
Ach jetzt kommt wieder das "Die haben keine Ahnung, weil ich der Herr der TV-Outs bin"-Argument.

Richthofen
2003-05-14, 10:42:16
haha :)

Alfa
2003-05-14, 11:03:23
Originally posted by Andre


Welche Geforce-Karten bitte, Herr Payne?
Sind wir heute wieder undifferenziert?
Warum sonst bescheinigt die c´t den Geforce FX eine bessere TV-Out-Qualität als ATI?
Ach jetzt kommt wieder das "Die haben keine Ahnung, weil ich der Herr der TV-Outs bin"-Argument.

Du kannst ihm das aber nicht vorwerfen.

1.) haben fast alle ATIs ein gutes Bild
und
2.) der Anteil an FX im NV Stall sollte im mom nicht höher als ca 5% liegen (oder irre ich ??? )

also erst nachdenken dann schrein. Und nur weils sie es nach ca 4 Jahren mal geschnallt haben wo was zu machen is, brauchste jetzt net Rumpralen wie toll dein NV ist.

mfg Alfa

Omnicron
2003-05-14, 11:12:24
Wie ich diese Diskussion hier verfolge, werde ich wohl weiter an meinem Anti-Ati/Anti-Nv Shooter für die Fanboys basteln. :naughty:

StefanV
2003-05-14, 11:17:28
Originally posted by Andre
Welche Geforce-Karten bitte, Herr Payne?
Sind wir heute wieder undifferenziert?
Warum sonst bescheinigt die c´t den Geforce FX eine bessere TV-Out-Qualität als ATI?
Ach jetzt kommt wieder das "Die haben keine Ahnung, weil ich der Herr der TV-Outs bin"-Argument.

Erstmal, Herr Moderator, dachte ich viel weniger an aktuelle Produkte, sondern eher an vergangene Zeiten, genauer gesagt z.B. an diverse Geforce 1 und Geforce 2MX Karten, die ein richtiges Matschbild haben, Beispiel gefällig?

Bitteschön: Creative Labs Annihilator PRO, ASUS V7100 (PRO).

Nur ums nochmal klarzustellen:

ich meinte in meinem obigen Post KEINE aktuellen Produkte, ich meinte nur, daß diese Leute dennoch zufrieden sind, weil sie nichts anderes kennen..

Und ganz ab davon:

Der TV Out der Leadtek TI200 mit Conexant CX25871 ist im Vergleich zu meiner Matrox G550 ziemlich matschig, bemerkt hab ich das, weil ich auch eine G550 besitze und weiß, wie es ausschauen kann, wenn man keine G550 hat, dann weiß man nicht, daß es auch besser geht...

StefanV
2003-05-14, 11:17:50
Originally posted by Andre
Könnte auch daran liegen, dass sich manche Leute richtig austoben, um mal ihr angegriffenes Ego wieder aufzubauen.

Hab ich in dem Posting was anderes gesagt ???

mapel110
2003-05-14, 11:22:10
schön, geht das wieder los. fehlt noch ow. wo steckt er ?

@mods
wolltet ihr nicht mal paynes postings innen trash schicken ?

StefanV
2003-05-14, 11:22:53
Originally posted by mapel110
schön, geht das wieder los. fehlt noch ow. wo steckt er ?

Dem kann ich dir leider nur zustimmen, die alten Feindseligkeiten werden mal wieder ausgetragen :(

[dzp]Viper
2003-05-14, 11:32:58
mein kommentar zu den letzten postings

---> :nighty:

Andre
2003-05-14, 11:38:24
Originally posted by Alfa


Du kannst ihm das aber nicht vorwerfen.

1.) haben fast alle ATIs ein gutes Bild
und
2.) der Anteil an FX im NV Stall sollte im mom nicht höher als ca 5% liegen (oder irre ich ??? )

also erst nachdenken dann schrein. Und nur weils sie es nach ca 4 Jahren mal geschnallt haben wo was zu machen is, brauchste jetzt net Rumpralen wie toll dein NV ist.

mfg Alfa

Kommentar meinerseits sinnlos.

Alfa
2003-05-14, 11:40:07
Originally posted by Andre


Kommentar meinerseits sinnlos.

jup

mfg Alfa

Andre
2003-05-14, 11:40:24
Originally posted by Stefan Payne


Erstmal, Herr Moderator, dachte ich viel weniger an aktuelle Produkte, sondern eher an vergangene Zeiten, genauer gesagt z.B. an diverse Geforce 1 und Geforce 2MX Karten, die ein richtiges Matschbild haben, Beispiel gefällig?

...

Warum sagst du das dann nicht?
Jeder unbedarfte Leser könnte sonst denken, dass wäre in den neuen Modellen immer noch.
Bist du nicht auch einer derjenigen, welche sich gegen die Treibermängel bei ATI (die ja weitestgehend weg sein sollen) wehrt, da sie FRÜHER waren und nicht JETZT?

Andre
2003-05-14, 11:42:04
Originally posted by Stefan Payne


Hab ich in dem Posting was anderes gesagt ???

Ja, ich beziehe das auf die ATI-Jungs und du auf die NVler.

Unregistered
2003-05-14, 11:46:04
Originally posted by Andre


Warum sagst du das dann nicht?
Jeder unbedarfte Leser könnte sonst denken, dass wäre in den neuen Modellen immer noch.
Bist du nicht auch einer derjenigen, welche sich gegen die Treibermängel bei ATI (die ja weitestgehend weg sein sollen) wehrt, da sie FRÜHER waren und nicht JETZT?


Treiber kann man relativ schnell auswechseln, für neue Grafikkarten muss man immer noch Geld bezahlen...

P.S. ATI Treiber sind aber jetzt auch noch schrott

StefanV
2003-05-14, 11:50:22
Originally posted by Unregistered
Treiber kann man relativ schnell auswechseln, für neue Grafikkarten muss man immer noch Geld bezahlen...

P.S. ATI Treiber sind aber jetzt auch noch schrott
1. ...

2. ersetze ATI durch alle, dann stimmts.
Ich hab bisher noch nie einen richtig guten Treiber gesehen...

PS: die von NV scheinen auch nicht besonders zu sein, siehe FSAA (MSAA) Probleme mit den aktuellen Treibern, siehe GF FX Review dieser Seite...

StefanV
2003-05-14, 11:51:55
Originally posted by Andre
Ja, ich beziehe das auf die ATI-Jungs und du auf die NVler.

Wo ist der Unterschied??

Die NVler sind auch nicht gerade zimperlich mitm Austeilen, nur hat sich jetzt mal 'ne Situation ergeben, wo sie mal einstecken mussten und die ATIler ausgeteilt haben...

Nur sollten sich einige mal Gedanken machen, warum die ATIler so am austeilen waren...

Kleiner Tip:

Lest mal das Alte Testament.

Unregistered
2003-05-14, 11:53:01
Originally posted by Stefan Payne


Dem kann ich dir leider nur zustimmen, die alten Feindseligkeiten werden mal wieder ausgetragen :( ja geht wieder ab :)

Erinnert mich an die gute alte 3dconcept zeit!

so


quote:
--------------------------------------------------------------------------------
Originally posted by Mark3Dfx
Welcher Hype?

Wenn die ersten Benches zum R500 rauskämen wärst DU
doch der erste hier ,der einen Thread und ne dicke Welle macht!

Ob NV35 oder R350, es sind Grafikkarten, mehr nicht!
--------------------------------------------------------------------------------


wieso er hat diesen thread auch angefangen

hier gehts schon los



quote:
--------------------------------------------------------------------------------
Originally posted by Unregistered

wieso er hat diesen thread auch angefangen
--------------------------------------------------------------------------------



was hab ich?!


__________________


quote:
--------------------------------------------------------------------------------
Originally posted by nagus


was hab ich?!
--------------------------------------------------------------------------------

ist sehr seltsamm das mit dir und tarkin läuft seit jahren so wenn es um nv oder ati geht



ab da nagus und tarkin schwub weg

Dann geht’s heue weiter!
Aths stellt Sachen in den Raum die ihm wichtig sind, Quasar glaube ich sagt das für IHN PERSÖNLICH das Gegenteil wichtiger ist. Schwub darf Quasar nicht so argumentieren wie aths.
Hallo gleiche rechte für alle, und Toleranz bzw. es geht nicht das bei Person a das Argument gilt aber für Person b nicht, wohin kommen wir den da!

Dann die Anführung von der Signal qualli, alles gut und schön. Dann werden die bildwiederholfreuquenzen reingebracht, hohho mein Monitor schafft dabei laut Hersteller noch 85 Hz aber das nicht gut, der Monitor könnte ja kaputt gehen! Es wird ein Vergleich mit nem übertaktetem protzie angeführt, so ein Unfug der Monitor kann es also schadet es ihm auch nicht Punkt ! Der protzie soll ja übertaktet laufen ja hallo das ist keine Hersteller Spezifikation, also klar das es nicht so gut ist (Äpfel Birnen)

Und dabei würde ganz vergessen das die Bildqualität auch auf die Qualität des Monitors zurückzuführen ist! Insofern waren die Seiten ab Ca 13 reiner Streit Flame, „ich bin besser geiler schlauer und glatt noch schöner als alle anderen“ lol

Unreg immer wieder gerne

Unregistered
2003-05-14, 11:55:02
Originally posted by Stefan Payne


Wo ist der Unterschied??

Die NVler sind auch nicht gerade zimperlich mitm Austeilen, nur hat sich jetzt mal 'ne Situation ergeben, wo sie mal einstecken mussten und die ATIler ausgeteilt haben...

Nur sollten sich einige mal Gedanken machen, warum die ATIler so am austeilen waren...

Kleiner Tip:

Lest mal das Alte Testament. hää sowas wie du mir so ich dir k ab heute werde wier wohl wieder alles auf die goldwaage legen müssen post über mir war ich auch du bist der monitor loui

Unregistered
2003-05-14, 11:57:29
Originally posted by Stefan Payne


Wo ist der Unterschied??

Die NVler sind auch nicht gerade zimperlich mitm Austeilen, nur hat sich jetzt mal 'ne Situation ergeben, wo sie mal einstecken mussten und die ATIler ausgeteilt haben...

Nur sollten sich einige mal Gedanken machen, warum die ATIler so am austeilen waren...

Kleiner Tip:

Lest mal das Alte Testament. Ach vergessen armes Argument so weit unter jedes Niveau geht ja kaum normalerweise kommst nur so weit runter wenn man nichts mehr zum argumentieren hat!

StefanV
2003-05-14, 12:00:09
Originally posted by Unregistered
Dann die Anführung von der Signal qualli, alles gut und schön. Dann werden die bildwiederholfreuquenzen reingebracht, hohho mein Monitor schafft dabei laut Hersteller noch 85 Hz aber das nicht gut, der Monitor könnte ja kaputt gehen! Es wird ein Vergleich mit nem übertaktetem protzie angeführt, so ein Unfug der Monitor kann es also schadet es ihm auch nicht Punkt ! Der protzie soll ja übertaktet laufen ja hallo das ist keine Hersteller Spezifikation, also klar das es nicht so gut ist (Äpfel Birnen)

Und dabei würde ganz vergessen das die Bildqualität auch auf die Qualität des Monitors zurückzuführen ist! Insofern waren die Seiten ab Ca 13 reiner Streit Flame, „ich bin besser geiler schlauer und glatt noch schöner als alle anderen“ lol

Unreg immer wieder gerne

1. schau mal im c't Archiv, da steht, daß man dem Monitor noch mindestens 10% Leistungsspielraum lassen soll, um die Lebensdauer des Monitors deutlich zu erhöhen, bei meinem A901HT mit 115kHz wären das maximal 103kHz...
Ganz ab davon: ich denke nicht, daß mein Monitor für 1600x1200 noch genügend Pixel hat...

2. ja und die Grafikkarte ist völlig unwichtig, oder??

Natürlich hängt das Singal maßgeblich von der Grafikkarte ab, die Qualität des Monitors ist natürlich auch nicht ganz unwichtig, nur wie soll ein Monitor ein bescheidenes Signal scharf darstellen??
Die Kabelage zwischen GraKa und Monitor trägt auch einen Teil dazu bei, den Unterschied zwischen BNC und D-Sub Kabel kann man schon sehen, wenn man 'ne ordentliche GraKa hat.

MadManniMan
2003-05-14, 12:02:22
Originally posted by seahawk
Grundsätzlich bin ich der Meinung, dass AF wichtiger ist als AA, da die Texturen wesentlich schärfer erscheinen. Die Kantenstufen nimmt man in Bewegung weniger wahr. Eine Kombination von beiden ist allerdings optimal.


jetz ersetz noch diese meinung mit der, daß jeder seine präferenzen anders setzt und alle sind zufrieden!

;)

achja, @payne: diesmal haste wieder schönen mist gepostet!

StefanV
2003-05-14, 12:05:27
Originally posted by Unregistered
Ach vergessen armes Argument so weit unter jedes Niveau geht ja kaum normalerweise kommst nur so weit runter wenn man nichts mehr zum argumentieren hat!

Das war kein Argument sondern eine Feststellung, was eigentlich ein Unterschied ist...

Und durch diese Feststellung kann man zu dem Schluß kommen, das diverse Personen eine 'Schwanzverlängerung' benötigen und das die Toleranz anderer Meinungen nicht gerade hoch ist.

Andre
2003-05-14, 12:13:56
Originally posted by Stefan Payne
Nur sollten sich einige mal Gedanken machen, warum die ATIler so am austeilen waren...


Lass mich raten:
Sie konnten nicht anders?
Geprägt durch jahrelange Unterdrückung und größten Schmerz _konnten_ sie nicht anders.
Genauso wie ATI nicht anders kann, weil sie ja NV zwingt.
Mann, hör auf mit dem Selbstmitleid, ist ja herzzerreißend.

Unregistered
2003-05-14, 12:15:42
Originally posted by Stefan Payne


1. schau mal im c't Archiv, da steht, daß man dem Monitor noch mindestens 10% Leistungsspielraum lassen soll, um die Lebensdauer des Monitors deutlich zu erhöhen, bei meinem A901HT mit 115kHz wären das maximal 103kHz...
Ganz ab davon: ich denke nicht, daß mein Monitor für 1600x1200 noch genügend Pixel hat...

2. ja und die Grafikkarte ist völlig unwichtig, oder??

Natürlich hängt das Singal maßgeblich von der Grafikkarte ab, die Qualität des Monitors ist natürlich auch nicht ganz unwichtig, nur wie soll ein Monitor ein bescheidenes Signal scharf darstellen??
Die Kabelage zwischen GraKa und Monitor trägt auch einen Teil dazu bei, den Unterschied zwischen BNC und D-Sub Kabel kann man schon sehen, wenn man 'ne ordentliche GraKa hat. ich habe nur angefangen zu lesen und genau das womit du nun weitermachst ist das was ich an euch kritisiert habe, und lese nicht mal Weiter! Erinnere dich mal an dein codegen netzteil was du für super gut angepriesen has,t in nem andern Thread als schei... darstellst und dem Kunden verarschst, würde sagen unreg und ow ermahnten dich schonmals!

und verweis zu mmm aussage full ack


PS wollte auch mal irgend etwas Posten was hier normal nicht hingehört

[dzp]Viper
2003-05-14, 12:15:51
edit *schrott* ;D

Andre
2003-05-14, 12:16:32
Originally posted by Stefan Payne
Natürlich hängt das Singal maßgeblich von der Grafikkarte ab, die Qualität des Monitors ist natürlich auch nicht ganz unwichtig, nur wie soll ein Monitor ein bescheidenes Signal scharf darstellen??


Und ein qualitativ superbes Signal kann noch so toll sein, wenn der Moni aber Matsch ist, dann wird das nix.
Also sind Moni und Graka wohl gleichbedeutend, da interdependent, oder etwa nicht?

Unregistered
2003-05-14, 12:16:42
Originally posted by Andre


Lass mich raten:
Sie konnten nicht anders?
Geprägt durch jahrelange Unterdrückung und größten Schmerz _konnten_ sie nicht anders.
Genauso wie ATI nicht anders kann, weil sie ja NV zwingt.
Mann, hör auf mit dem Selbstmitleid, ist ja herzzerreißend. lalalal full ack

Andre
2003-05-14, 12:20:33
Originally posted by Stefan Payne
Und durch diese Feststellung kann man zu dem Schluß kommen, das diverse Personen eine 'Schwanzverlängerung' benötigen und das die Toleranz anderer Meinungen nicht gerade hoch ist.

Wie gut, dass du mir jeden Tag zeigst, dass du der Inbegriff von Toleranz bist.
Da kann man sich ein Beispiel nehmen!

seahawk
2003-05-14, 12:26:00
Originally posted by MadManniMan


jetz ersetz noch diese meinung mit der, daß jeder seine präferenzen anders setzt und alle sind zufrieden!



Ich sage ja, "ich bin der Meinung", dass ist meine persönliche Meinung oder Vorliebe. Das kann jeder für sich entscheiden.

Ich kann es auch verstehen, wenn jemand AA bevorzugt.

Unregistered
2003-05-14, 12:27:38
Originally posted by Andre


Wie gut, dass du mir jeden Tag zeigst, dass du der Inbegriff von Toleranz bist.
Da kann man sich ein Beispiel nehmen! nja mal ganz ehrlich wenn er es bemerkt warum kann er es nicht umsetzen nja k Schwanz verlängern ist teuer :)

seahawk
2003-05-14, 12:28:10
Originally posted by Stefan Payne

1. ...

2. ersetze ATI durch alle, dann stimmts.
Ich hab bisher noch nie einen richtig guten Treiber gesehen...



Kyro ist sehr gut

StefanV
2003-05-14, 12:31:11
Originally posted by seahawk
Kyro ist sehr gut

Wenn man bedenkt, wie sehr sich die Architektur von denen der anderen unterscheidet, gebe ich dir durchaus recht.

Auch wenns einige ältere Games gibt, die zwar auf der Kyro laufen, aber leider nicht mit FPS sondern SPF ;)

Pirx
2003-05-14, 12:32:23
Originally posted by Andre
Lass mich raten:
Sie konnten nicht anders?
Geprägt durch jahrelange Unterdrückung und größten Schmerz _konnten_ sie nicht anders.
Genauso wie ATI nicht anders kann, weil sie ja NV zwingt.
Mann, hör auf mit dem Selbstmitleid, ist ja herzzerreißend.
Fandest du es soo schlimm? Es wurde über wirklich vorhandene
Schwächen der NV30 hergezogen. Und in gewisser Weise konnte ich das verstehen, da jahrelang vorher berechtigterweise aber auch oft übertrieben über die Schwächen der ATi-Karten hergezogen wurde.
Welche "Seite" wird wohl den Anfang zu einer gemäßigteren Diskussionsweise machen? Keine:(

seahawk
2003-05-14, 12:39:03
HALLO !!

ENDE !!


Es reicht, ich bitte euch alle hört mit den Diskusionen über wer gegen wen und warum flmes schreibt auf.

Laßt uns nicht mehr über den TV-Out der GeForce 1 und die ATI Treiber von vor 2 Jahren sprechen.

Dies hat alles nichts mit der FX5900 zu tun.


-> Schon mal vielen Dank

Alfa
2003-05-14, 12:39:35
Originally posted by Pirx
Welche "Seite" wird wohl den Anfang zu einer gemäßigteren Diskussionsweise machen? Keine:(

jene die damals am meisten einstecken musste, 3DFX. Persönlich denke ich das sich jetzt, nach der Vorstelung des NV35, die Lage wieder einwenig entspannt im Forum. Die 2 "großen" sind nun ja wieder auf einem Level.

mfg Alfa

Unregistered
2003-05-14, 12:41:08
Originally posted by seahawk
HALLO !!

ENDE !!


Es reicht, ich bitte euch alle hört mit den Diskusionen über wer gegen wen und warum flmes schreibt auf.

Laßt uns nicht mehr über den TV-Out der GeForce 1 und die ATI Treiber von vor 2 Jahren sprechen.

Dies hat alles nichts mit der FX5900 zu tun.


-> Schon mal vielen Dank von mir aus

MadManniMan
2003-05-14, 12:52:10
Originally posted by seahawk

Ich sage ja, "ich bin der Eminung", dass ist meine persönliche Meinung oder Vorliebe. Das kann jeder für sich entscheiden.


trotzdem las es sich so, als würdest du af als rational gesehen sinniger definieren wollen... nix für ungut! ;)

seahawk
2003-05-14, 13:00:08
Alles was ich hier schreibe ist immer nur meine Meinung, vorher soll ich denn wissen was für eine andere Person bei einer Grafikkarte wichtig ist.

(Ich brauche kein TV-Out .. *eg*)

Sir Integral Wingate Hellsing
2003-05-14, 13:00:27
Originally posted by seahawk
HALLO !!

ENDE !!


Es reicht, ich bitte euch alle hört mit den Diskusionen über wer gegen wen und warum flmes schreibt auf.

Laßt uns nicht mehr über den TV-Out der GeForce 1 und die ATI Treiber von vor 2 Jahren sprechen.

Dies hat alles nichts mit der FX5900 zu tun.


-> Schon mal vielen Dank

Full AcK!

Der Thread is jetzt die letzten Seiten nur Geflame!!!

Lasst den Scheiss bitte :-(

Bitte neue Reviews oder Fakten zur FX 5900 Ultra nennen und kein Pimmelgefechte zw RG-MSAA und OG-MSAA bzw TV-Out von nV oder ATi (für sowas bitte neuen Thread aufmachen)...


Danke ! :wink:

Nedo
2003-05-14, 13:03:02
ich finds schon irgendwie schade (:D) dass die 9800 pro 128 mb nach ersten reviews langsamer is als die 5900 ultra (grad jetz wo ich mir ne 9800 pro bestellt hab :D)
aber ich sehs einfach so:
das AA is bei ati immernoch bessa.
was denkt ihr?

seahawk
2003-05-14, 13:06:35
Wenn Dir AA wichtig ist und praktisch sind beide Karten mehr als schnell genung.

Ich denke beide Karten sind klasse.

MadManniMan
2003-05-14, 13:46:59
Originally posted by Sir Integral Wingate Hellsing
kein Pimmelgefechte zw RG-MSAA und OG-MSAA

und auch nicht zwischen winkeladaptivem und quasi-richtigem af? :| ja mei! woran soll man den dann seine entscheidung orientieren?

AMC
2003-05-14, 14:50:53
Originally posted by MadManniMan
und auch nicht zwischen winkeladaptivem und quasi-richtigem af? :| ja mei! woran soll man den dann seine entscheidung orientieren?

An der Verpackung ;D Oooooder notfalls an den hübschen Elfen...... :)
Du musst zugeben, letzter Punkt geht eindeutig an nVidia! :>

AMC

Legende
2003-05-14, 16:18:00
Also ich entscheide immer nach dem Preis. :) Nein moment, das ist falsch formuliert. Ich entscheide immer danach wieviel Geld ich zum Ausgeben habe :)

Legende
2003-05-14, 16:27:52
OMG...na das hat ja nicht lang gedauert http://www.hardtecs4u.com/?id=1052918548,2769,ht4u.php

DrumDub
2003-05-14, 16:35:02
the inquirer als quelle... na ja...ich glaubs erst, wenn ich die karten seh.. :)

Endorphine
2003-05-14, 16:39:24
HT4U-News erscheinen immer ein paar Stunden oder bis zu einem Tag früher bei Hartware :) *mit den Zähnen knirsch*

Aber immerhin, HT4U verlinkt mal in News auf die Quelle, mal was ganz neues :o

StefanV
2003-05-14, 16:41:25
Diese News ist ja auch von Bachi *schleim*

Iceman346
2003-05-14, 17:21:11
Originally posted by Endorphine
HT4U-News erscheinen immer ein paar Stunden oder bis zu einem Tag früher bei Hartware :) *mit den Zähnen knirsch*

Aber immerhin, HT4U verlinkt mal in News auf die Quelle, mal was ganz neues :o

Und within3d hatte die News bereits 5 Stunden vor euch ;)

http://www.withingames.net/index.php?show=news&type=shownews&id=685&typ=hardware

seahawk
2003-05-14, 18:25:36
Falls es intressiert, die ersten FX5900Ultra sollen mitte Juni lieferbar sein.

Legende
2003-05-14, 18:28:05
"sollen" :)

seahawk
2003-05-14, 18:29:12
Ja aber nicht laut NV, sondern entsprechend einiger Händler die ich gefragt habe und die haben die Liefertermine der Hersteller.

Crushinator
2003-05-15, 04:32:45
Originally posted by seahawk
Ja aber nicht laut NV, sondern entsprechend einiger Händler die ich gefragt habe und die haben die Liefertermine der Hersteller. Hast Du nach der Ultra gefragt oder nach den kleinen? Ich mein' wenn sie die Karte noch an der "Länge" verändern wollen scheint mir mitte Juni "etwas" unrealistisch. :|

seahawk
2003-05-15, 08:12:25
Ultra

Legende
2003-05-15, 11:15:08
Warten wir es ab. Mehr als das können wir eh nicht tun :)

mapel110
2003-06-18, 18:47:54
http://www.gamepc.com/labs/view_content.asp?id=fx5900u&page=1

interessanter test, vor allem, weil auch viele non standard benches zum einsatz kommen =)
vice city, nolf2, warcraft3, freelancer

LovesuckZ
2003-06-18, 18:57:47
Original geschrieben von mapel110
http://www.gamepc.com/labs/view_content.asp?id=fx5900u&page=1
interessanter test, vor allem, weil auch viele non standard benches zum einsatz kommen =)
vice city, nolf2, warcraft3, freelancer

An den benches sieht man sehr deutig die Schwaeche der FX Karten: keine besondere Pro - MHZ - Leistung.
Naja, Nvidia muss nun mit diesen "langsamen" Karten bis zum NV40 überleben. Sie werden auf jedenfall schonmal die Leistungkrone an den r360 verlieren.

LovesuckZ
2003-06-18, 19:49:44
Original geschrieben von Cenmocay
Die Benchmarks sind ja nur mit Kantenglättung:-(
Kann man sich kein gutes Bild machen !
Haben wohl ATI Fans gemacht

aha, warum verliert Nvidia trotzdem überlegender Sapeicherbandbreite einige Benches mit 4AA?

nagus
2003-06-21, 12:56:57
ATI's and NVIDIA's biggest, fastest, and priciest cards race through the gauntlet.

By Kevin "Novelty" Rice | June 20, 2003

http://www.gamespy.com/hardware/june03/videocardshootout/index.shtml

Kosh
2003-06-21, 16:05:31
kann es sein das die FX5900U bei allen Spiele Benchmarks, die nicht jeder Bencht deutlich hinter der 9800 pro liegen?

Meine zB Warcraft3 oder GTA Vice City,wo die Radeon deutlich vorne liegt.

Cenmocay
2003-06-21, 17:43:33
Kann ja sein aber bei einer ATI Karte muß man mit viel mehr Grafikfehlern leben !:O

Iceman346
2003-06-21, 18:06:22
Original geschrieben von Cenmocay
Kann ja sein aber bei einer ATI Karte muß man mit viel mehr Grafikfehlern leben !:O

:rofl:

Exxtreme
2003-06-21, 18:10:51
Original geschrieben von Cenmocay
Kann ja sein aber bei einer ATI Karte muß man mit viel mehr Grafikfehlern leben !:O
Dann zieh dir mal aktuelle Treiber. Mit irgendwelchen Vorkriegs-Teilen wirste nicht glücklich...

Oder soll das wieder ein Flame-Versuch sein?

:stareup:

Endorphine
2003-06-21, 19:29:24
ATI arbeitet wirklich daran, die Schwächen in den Treibern auszuwetzen. Seit dem Cat 2.5 hat sich viel getan. Der Cat 3.4 ist wieder ein grosser Sprung nach vorn, auch wenn es zu nVidia-Problemlosigkeit noch ein wenig fehlt...

DAS würde ich nicht mehr als Grund sehen, von ATI-Produkten abzuraten :) Und ich glaub wenn ich das sage sagt das nicht jemand, der unempfindlich ggü. Treiberschwächen ist ;)

AlfredENeumann
2003-06-21, 21:05:26
Original geschrieben von Cenmocay
Kann ja sein aber bei einer ATI Karte muß man mit viel mehr Grafikfehlern leben !:O



Hast du auch beweise dafür oder saugst du dir sowas aus den Fingern ?
Oder gibt es solche Sprüche als Packungsbeilage zu jeder NV-Karte ?

mapel110
2003-06-21, 21:18:58
mittlerweile sollte Cenmocay bekannt sein :stareup:

Cenmocay
2003-06-21, 21:21:44
Original geschrieben von AlfredENeumann
Hast du auch beweise dafür oder saugst du dir sowas aus den Fingern ?
Oder gibt es solche Sprüche als Packungsbeilage zu jeder NV-Karte ?

Mit der Ti 4600 hatte ich keine und mit der 9700 habe ich kleine Bildfehler in allen möglichen Games.
Und fangt jetzt nicht an das dann mein Sys nicht IO ist das währe dann richtig ätzend.

StefanV
2003-06-21, 21:34:34
Original geschrieben von Cenmocay
Kann ja sein aber bei einer ATI Karte muß man mit viel mehr Grafikfehlern leben!

...nur wenn vorm Schirm ein *insert_bad_word* sitzt, der GIGA und die CB als allwissend ansieht...

StefanV
2003-06-21, 21:35:29
Original geschrieben von Cenmocay
Mit der Ti 4600 hatte ich keine und mit der 9700 habe ich kleine Bildfehler in allen möglichen Games.
Und fangt jetzt nicht an das dann mein Sys nicht IO ist das währe dann richtig ätzend.

Vielleicht solltest du mal das 'Bauteil' vor dem Monitor überprüfen...

Iceman346
2003-06-21, 21:35:43
Original geschrieben von Cenmocay
Mit der Ti 4600 hatte ich keine und mit der 9700 habe ich kleine Bildfehler in allen möglichen Games.
Und fangt jetzt nicht an das dann mein Sys nicht IO ist das währe dann richtig ätzend.

Nach deinen Aussagen hier im Forum zweifle ich daran das du in der Lage bist einen PC richtig zu konfigurieren...

StefanV
2003-06-21, 21:36:47
Original geschrieben von Iceman346
Nach deinen Aussagen hier im Forum zweifle ich daran das du in der Lage bist einen PC richtig zu konfigurieren...

Wieso??

Langt es nicht, die Karte einzubauen und die mitgelieferten Treiber zu installieren??

Iceman346
2003-06-21, 21:40:23
Original geschrieben von Stefan Payne
Wieso??

Langt es nicht, die Karte einzubauen und die mitgelieferten Treiber zu installieren??

Bei mir hats immer gelangt *g*

LovesuckZ
2003-06-23, 17:28:28
UK Gamer haben ein kleine 5900 Round UP online gebracht. Dabei sind die Karten von Asus, MSI und Gainward. Ist sehr interessant, vorallen auf den Aspekt des Speed's...

http://www.ukgamer.com/article.php4?id=5&page=1

DrumDub
2003-06-23, 17:43:40
besonders berauschend kommen die 5900er aber nicht weg:

The 5900s we saw today are pretty standard performers. That's their problem, being standard. When you pay in excess of £300 you want more than just standard, you expect to open the box, install the card and be blown away by it's speed when you turn the graphical detail up. Out of all the FX 5900s we saw today, none really did that. In fact it made us think how good the 9700 PRO still is, considering it's coming up to it's first birthday.

und extra für dich, lovesuckz... ;)

Firstly is image quality. In our anisotropic filtering tests we mentioned that the ATI boards don't do AF very well on certain angles, and we stick by that and have shown you the evidence. Interestingly it does do AF fine on the most common angles that are found in games - horizontal ones. Therefore when we loaded up Unreal Tournament 2003 and played a few hours of deathmatch, (on company time? - Ed.) and although this is fairly subjective; we weren't able to see any real difference whilst playing. Now just because we couldn't see any difference doesn't mean it doesn't exist, but if some of you find differences please feel free to point them out (with evidence) to us.

jetzt im ernst: schick denen doch mal ein paar screenshots vom skispringen oder besser bf1942, wo man das mit dem winkeladaptiven af bei den ati-karten gut sieht...

LovesuckZ
2003-06-23, 17:45:33
Original geschrieben von DrumDub
jetzt im ernst: schick denen doch mal ein paar screenshots vom skispringen oder besser bf1942, wo man das mit dem winkeladaptiven af bei den ati-karten gut sieht...

gib mir ne r300 Karte.

DrumDub
2003-06-23, 17:54:54
nee... meine kriegste nicht... ;)

vielleicht hat ja endorphine lust das zu machen...

Omnicron
2003-06-23, 18:21:34
"and although this is fairly subjective; we weren't able to see any real difference whilst playing. Now just because we couldn't see any difference doesn't mean it doesn't exist"

Kann gut sein das man beim richtigen Zocken keinen Unterschied zwischen Atis und NVs AF sieht, aber sie hätten auch mal schreiben können ob ihnen dabei der Unterschied zwischen Atis und NVs AA aufällt, um wirklich unparteiisch zu sein.

egdusp
2003-06-23, 18:31:47
Original geschrieben von Omnicron
"and although this is fairly subjective; we weren't able to see any real difference whilst playing. Now just because we couldn't see any difference doesn't mean it doesn't exist"

Kann gut sein das man beim richtigen Zocken keinen Unterschied zwischen Atis und NVs AF sieht, aber sie hätten auch mal schreiben können ob ihnen dabei der Unterschied zwischen Atis und NVs AA aufällt, um wirklich unparteiisch zu sein.

Mein Gedanke.

mfg
egdusp

Quasar
2003-06-23, 18:36:46
Ja, das ist ein Aspekt, der das ein- oder andere mal ausser Acht gelassen wird.

Das AF ist unterschiedlich, während des Spiels fällt es sicher nicht so stark auf.
Aber das FSAA.... naja, eben dasselbe.

nagus
2003-06-23, 20:29:55
... gegen Radeon 9800PRO 128/256 und radeon 9700PRO


http://www.ukgamer.com/article.php4?id=5&page=1

Omnicron
2003-06-23, 20:42:16
Original geschrieben von nagus
... gegen Radeon 9800PRO 128/256 und radeon 9700PRO


http://www.ukgamer.com/article.php4?id=5&page=1

Darüber reden wir gerade, ist der genau derselbe Link den Lovesuckz oben gepostet hat. ;)

Aquaschaf
2003-06-23, 21:06:42
UT2003 ist auch wirklich eines der wenigen (?) Spiele, in denen ja selbst das Performance AF von ATI subjektiv noch mehr oder weniger perfekt ausschaut, deswegen würde ich das nicht unbedingt zum vergleichen der AF BQ verwenden...

Razor
2003-06-23, 21:11:36
Original geschrieben von Aquaschaf
UT2003 ist auch wirklich eines der wenigen (?) Spiele, in denen ja selbst das Performance AF von ATI subjektiv noch mehr oder weniger perfekt ausschaut, deswegen würde ich das nicht unbedingt zum vergleichen der AF BQ verwenden...
Schon gar nicht, wenn man Online zockt... da sind solche 'Gimmicks' eher hinderlich.
(lenkt im besten Fall doch nur vom eigentlichen Geschehen ab)
:D

Razor

egdusp
2003-06-23, 22:12:34
Original geschrieben von Razor
Schon gar nicht, wenn man Online zockt... da sind solche 'Gimmicks' eher hinderlich.
(lenkt im besten Fall doch nur vom eigentlichen Geschehen ab)
:D

Razor

Was hat deine Antwort mit dem von dir gequoteten Absatz zu tun. Er sagt, dass bei UT2003 das ATI AF besser aussieht als in anderen Spielen und du antwortest, dass man AF bei UT2003 sowieso nicht benutzen sollte.

ALso ich sehe den Zusammenhang nicht.

mfg
egdusp

Razor
2003-06-24, 00:32:50
Original geschrieben von egdusp
Was hat deine Antwort mit dem von dir gequoteten Absatz zu tun. Er sagt, dass bei UT2003 das ATI AF besser aussieht als in anderen Spielen und du antwortest, dass man AF bei UT2003 sowieso nicht benutzen sollte.

ALso ich sehe den Zusammenhang nicht.

mfg
egdusp
Er bezog sich auf UT2003 und damit wohl auf das von UKGamer gezogene Fazit:
Firstly is image quality. In our anisotropic filtering tests we mentioned that the ATI boards don't do AF very well on certain angles, and we stick by that and have shown you the evidence. Interestingly it does do AF fine on the most common angles that are found in games - horizontal ones. Therefore when we loaded up Unreal Tournament 2003 and played a few hours of deathmatch, (on company time? - Ed.) and although this is fairly subjective; we weren't able to see any real difference whilst playing. Now just because we couldn't see any difference doesn't mean it doesn't exist, but if some of you find differences please feel free to point them out (with evidence) to us.
Und meinte recht trefflich, dass dieses Game nun nicht unbedingt dazu geeignet sei, die BQ zu vergleichen...

Ich habe dies lediglich ergänzt... OK, die haben nicht 'online', sondern 'deaqthmatch' geschrieben.
(siehe auch den fett hervorgehobenen Vergleich des Zitates ;-)

Jetz verstanden ?
???

Razor

Spacer78
2003-06-26, 22:12:23
Hallo,

Review einer Gainward FX5900:
http://www.hardocp.com/article.html?art=NDg5LDE=
Meiner Meinung nach ziemlich enttäuschend,im Vergleich zu einer 9800Pro,ausser die Overclockingfähigkeiten.
Aber macht euch am besten selber ein Bild.

Gruss,der Spacer

LovesuckZ
2003-06-27, 06:07:42
Original geschrieben von Spacer78
Review einer Gainward FX5900:
http://www.hardocp.com/article.html?art=NDg5LDE=
Meiner Meinung nach ziemlich enttäuschend,im Vergleich zu einer 9800Pro,ausser die Overclockingfähigkeiten.
Aber macht euch am besten selber ein Bild.

Gruss,der Spacer

naja, so vernichtend ist es nicht.
In In der UT2003 Map Inferno kann sich ATi wegem ihrer AF Optimierung an die Spitze setzen, bringt ja 25% Mehrleistung.
Bei RTCW herrscht nen Treiberbug in dem 44.03 vor. Mit dem Beta Treiber 44.65 hab ich in der Checkpointdemo fast überall ne CPU Limitierung (>100FPS).
Einzig Splinter Cell sollte einen Gedanken machen, schneidet die FX hier doch sehr schlecht ab.

nagus
2003-06-28, 14:48:27
http://www.computerbase.de/article.php?id=237&page=1

"...Trotz deutlicher Überlegenheit auf dem Papier vermag die FX5900 Ultra es nicht, sich entscheidend von der Radeon 9800 Pro zu distanzieren. Mehr noch, sie wird ein ums andere Mal auf die Plätze verwiesen - kann zwar auf- aber nicht überholen..."

Beinahe in allen Benchmarks verliert die FX 5900 Ultra (256MB) gegen die Radeon 9800 pro (128MB).

getestet wurde:

3DMark03
3DMark2001SE
TempleMark
FableMark
Comanche 4
Aquanox
Max Payne
Warcraft III
Alice
RtCW
UT2003 Fly-By
UT2003 Botmatch

Gast
2003-06-28, 15:13:51
Original geschrieben von nagus
http://www.computerbase.de/article.php?id=237&page=1

"...Trotz deutlicher Überlegenheit auf dem Papier vermag die FX5900 Ultra es nicht, sich entscheidend von der Radeon 9800 Pro zu distanzieren. Mehr noch, sie wird ein ums andere Mal auf die Plätze verwiesen - kann zwar auf- aber nicht überholen..."

Beinahe in allen Benchmarks verliert die FX 5900 Ultra (256MB) gegen die Radeon 9800 pro (128MB).

getestet wurde:

3DMark03
3DMark2001SE
TempleMark
FableMark
Comanche 4
Aquanox
Max Payne
Warcraft III
Alice
RtCW
UT2003 Fly-By
UT2003 Botmatch

In den comments weist der Tester Jan auch darauf hin, daß computerbase als eine der ersten nichtkommerziellen Seiten die 5900 getestet hat.

reunion
2003-06-28, 15:46:24
Original geschrieben von nagus
http://www.computerbase.de/article.php?id=237&page=1

"...Trotz deutlicher Überlegenheit auf dem Papier vermag die FX5900 Ultra es nicht, sich entscheidend von der Radeon 9800 Pro zu distanzieren. Mehr noch, sie wird ein ums andere Mal auf die Plätze verwiesen - kann zwar auf- aber nicht überholen..."

Beinahe in allen Benchmarks verliert die FX 5900 Ultra (256MB) gegen die Radeon 9800 pro (128MB).

getestet wurde:

3DMark03
3DMark2001SE
TempleMark
FableMark
Comanche 4
Aquanox
Max Payne
Warcraft III
Alice
RtCW
UT2003 Fly-By
UT2003 Botmatch

So sieht aus :)

mfg
reu

Aquaschaf
2003-06-28, 15:49:58
interessantes Review. Sieht für mich insgesamt nach einem Gleichstand zwischen 5900 Ultra und 9800 Pro aus.

Riptor
2003-06-28, 16:52:12
Original geschrieben von Aquaschaf
interessantes Review. Sieht für mich insgesamt nach einem Gleichstand zwischen 5900 Ultra und 9800 Pro aus.

Absolut! :)

Das würde auch den Test auf UKGamer (http://www.ukgamer.com/article.php4?id=5&page=1) bestätigen und das sind meiner Meinung nach auch die aktuellsten! Irgendwie kommt es mir so vor, als wurde bei den ersten Benches von THG und Co. irgendwie geschummelt worden...

Mr. Anderson
2003-06-28, 16:53:38
Original geschrieben von nagus
http://www.computerbase.de/article.php?id=237&page=1

"...Trotz deutlicher Überlegenheit auf dem Papier vermag die FX5900 Ultra es nicht, sich entscheidend von der Radeon 9800 Pro zu distanzieren. Mehr noch, sie wird ein ums andere Mal auf die Plätze verwiesen - kann zwar auf- aber nicht überholen..."

Beinahe in allen Benchmarks verliert die FX 5900 Ultra (256MB) gegen die Radeon 9800 pro (128MB).

getestet wurde:

3DMark03
3DMark2001SE
TempleMark
FableMark
Comanche 4
Aquanox
Max Payne
Warcraft III
Alice
RtCW
UT2003 Fly-By
UT2003 Botmatch

Gefallen mir sehr gut die Benchmarks - sehr übersichtlich.
Sie hätte noch ein 9700 Pro mit rein nehmen sollen damit man erkennen kann ob sich das Upgrade von 9700 auf 9800 lohnt.

Gibts da Benchmarks die das bringen ?

Mr. Anderson
2003-06-28, 17:07:50
Han mir nochmal ein älteren Test angesehen um den Unterschied zwischen 9700 und 9800pro zu erkennen.

Und HIER (http://www.computerbase.de/article.php?id=208&page=7#aquanox) kann man sehen das gerade in Games die viel GK Power brauchen ,sich das aufrüsten lohnen würde.

Carlo28
2003-06-28, 17:17:43
Der Unterschied ist praktisch nur der höhere Takt und daher ist der Unterschied gleich nichtig wenn man es versteht die 9700er auf den nahezu selben Takt zu bringen.

MfG

Mr. Anderson
2003-06-28, 17:28:05
Original geschrieben von Carlo28
Der Unterschied ist praktisch nur der höhere Takt und daher ist der Unterschied gleich nichtig wenn man es versteht die 9700er auf den nahezu selben Takt zu bringen.

MfG

Habs schon probiert aber wenn ich das Gáme starte setzt die Karte den Takt wieder auf Standardsettings zurück.
Hab ne sapphire 9700.
Warum macht die Sapphire das nicht mit - is doch ne gute Marke ?
Kann man Hercules oder Connect3D immer übertakten ?

Gast
2003-06-28, 19:06:08
Original geschrieben von Mr. Anderson
Habs schon probiert aber wenn ich das Gáme starte setzt die Karte den Takt wieder auf Standardsettings zurück.
Hab ne sapphire 9700.
Warum macht die Sapphire das nicht mit - is doch ne gute Marke ?
Kann man Hercules oder Connect3D immer übertakten ?

Schau mal ins ATI-Forum, es gibt einen zuverlässigen BIOS-Patcher von "Tom Servo". Der erstellt dir eine Startdiskette, von der du bootest. Danach ist die Übertaktungssperre weg.:)

Gast
2003-06-28, 22:41:51
Original geschrieben von nagus
Beinahe in allen Benchmarks verliert die FX 5900 Ultra (256MB) gegen die Radeon 9800 pro (128MB).

So ganz genau hast du aber nicht gelesen, oder? Mit qualitativ minderwertigem 4xAA und qualitativ höherwertigem 8xAF sieht das Bild sehr sehr ausgeglichen aus....

Oder soll ich erst noch die Rohleistungswerte in 640x480 freischalten... ;)

cRaZy78
2003-06-28, 22:51:28
So, jetzt reichts mit den ganzen Benchmarkstest. Da steht eh immer was anderes. Mal ist die FX besser, Mal die ATI... Aber da ich ja so ein kleiner nV-Fan bin hab ich mir die FX5900 Ultra gekauft und ich muss sagen das Ding ist Ultra Krass :) Nur der Lüfter in 3D ist etwas lauter als meine GF 4 Ti4600 vorher. Aber ich bin zufrieden :)
Ach so... 3D Mark 2003 hab ich mal drüberlaufen lassem.
Ergebniss: Bei 1024x768x32 4xAF 4675 Punkte
Mit der Ti4600 hatte ich um die 1500 oder so *ohne AF**gg*

Wenn einer fragen zur 5900 hat... fragt ruhig!!!

cya
cRaZy

TheShaft
2003-06-28, 23:49:14
Original geschrieben von Gast
In den comments weist der Tester Jan auch darauf hin, daß computerbase als eine der ersten nichtkommerziellen Seiten die 5900 getestet hat.

Carsten (aka Quasar)war der Tester, Jan hat die entsprechende News gepostet... ;)

Riptor
2003-06-29, 13:03:02
So, nun der dritte, ultraaktuelle Test einer unabhängigen Seite, die nicht zu den GROßEN Seiten gehören, wo die FX5900 Ultra gegen eine R9800 Pro verliert, Link zu OCaddiction.com (P4 3GHz, Deto 44.03, Cata 3.5) (http://www.ocaddiction.com/articles/video/fx_5900ultra_vs_radeon_9800pro/)! Im realitätsfremden Shadermark ist sie ebenfalls unterlegen:

"The FX 5900 starts out strong, but the R9800 Pro comes in and consistently shows higher numbers than the 5900 throughout the testing. Pixel Shaders will be used extensively in upcoming next gen video games and the R9800 Pro dominates this one. Impressive for a card that has been out quite a bit longer than the still unavailable FX 5900 Ultra."

Insgesamt lautet das Fazit:

"And the winner is.........The FIC ATi Radeon 9800 Pro 128MB. We compared these cards in every category we could think of and in the end, we saw better performance overall from the ATI Radeon 9800 Pro. Did the FX 5900 fail to impress us? No, not at all. We believe both cards are worthy of any good system but we do have to tip our hats to the excellent performance that the Radeon 9800 Pro has showed us here today."

Und das ist nach UkGamer (XP3200+, Deto 44.03, Cata 3.4) (http://www.ukgamer.com/article.php4?id=5&page=1) und Computerbase.de (P4 3GHz, Deto 44.03, Cata 3.5) (http://www.computerbase.de/news.php?id=5569&sid=b7c73d9066925c26f3ffb4fe3821b17f) nun der dritte Test mit ähnlich lautendem Fazit!

Sorry... Aber so langsam kommt mir das so vor, wie wenn einige Seiten nicht unbedingt unabhängig getestet hätten... Ich möchte hier keiner Seite was vorwerfen, aber es ist schon seltsam, dass der dritte, unabhängig voneinander erschienene Test ein ähnliches Ergebnis liefert! FSAA ist bekannt,

"Das Thema FSAA kann man ansonsten getrost und kurz abhaken: Bis auf architekturbedingte Beschleunigung der einzelnen Modi bekommt man hier seit der GeForce3 nichts Neues. Eine gelungene Übersicht und eine etwas technische Erklärung dazu hat das 3DCenter veröffentlicht."

... dass aber auf einmal die Performance einer FX5900 Ultra doch nicht so hoch ist, wie THG, Anandtech oder Firingsquad in ihren von nVidia gepuschten Reviews dies vermitteln konnten, ist irgendwie neu! Ob auch alles wirklich so gelaufen ist, wie es hätte sein sollen? Oder sind das einfach nur Ausnahmen, die nicht weiter beachtet werden sollten, weil sie nicht GANZ so einen großen Leserkreis wie Anandtech oder THG haben? Derzeit kann man wenig sagen, aber es wirft doch einen Schatten auf diese ganze Sache, irgend etwas ist da faul...

PS: Obwohl, HardOCP (http://www.hardocp.com/article.html?art=NDg5LDE=) ist da nicht unbedingt anderer Meinung, was die FX5900 angeht:

"It would seem that the ATI 9800 Pro would be a bit more "future proof" than the GFFX series, but that will only be truly seen when those games arrive taking more advantage of DX9 this year."