PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI in neuen Games schneller! (X800XT vs 6800U)


Seiten : [1] 2

CompEx
2004-11-10, 23:14:19
Hab mal ein paar Spiele/Demos gebencht, die nicht regelmäßig zum benchen benutzt werden. Da diese keine Benchmarkfunktion integriert haben, habe ich nur "Quickbenches" gemacht: Spiel/Demo installieren, Grafik und Sound auf max. Qualität, Spiel/Demo starten (neues Spiel), FPS mit Fraps (V2.3.3) ablesen. Update: Es hat sich herausgestellt, dass Fraps1.9D (und auch morebench) teilweise deutlich höhere FPS-Werte liefert.

Testbedingungen: 1600x1200 (wenn nicht möglich, dann so hoch wie möglich) , 4xAA/8xAF (wenn möglich im Spiel eingestellt, ansonsten im CP), Sound an, vsync aus, alle Optimierungen aktiviert. Bei nVidia wurde "Qualität" eingestellt, bei ATI "Hohe Qualität".

X800XT: X800pro@XT@480/570 Cat. 4.11b/4.12(b)/5.1, A64 512kb @9x233/233@2.5-3-3-9-1T, SBAudigy2.

6800U: 6800GT@400/580 FW67.66b/71.40b/71.50b/71.81b/75.90b.

Update: Seit kurzem habe ich hier ein SLI-System mit 2x6800GT auf einem ASUS nf4 mit einem 3000+ @9x255/255 2.5-4-4-10. Zum testen habe ich natürlich nur eine Graka genommen (SLI-Werte kommen demnächst in einem neuen Thread). Trotz des deutlich schnelleren Systems (gegnüber dem AGP-System) konnte ich in keinem einzigen Test einen höheren Wert erzielen. Die Werte waren einfach identisch mit denen des AGP-Systems.

Ich habe alle Tests mehrfach durchgeführt, um zu sehen, ob die Werte eindeutig reproduzierbar sind (und sie sind eindeutig reproduzierbar, meistens +- 0-1FPS, manchmal aber auch +- 1-2FPS). Den Wert bzw. die Werte habe ich erst im dritten oder vierten Durchgang abgelesen, um Ungenauigkeiten durch Ladevorgänge etc. zu vermeiden.

So, hier die Ergebnisse:

Splinter Cell Chaos Theory Demo (starten, nix machen, ablesen, statisch):
X800XT: 25 (PS1.1, Cat5.2)
6800U: 23/16 (PS1.1/3.0, 71.81b und 75.90b (mit Fraps1.9D))

Swat 4 Demo (starten, nix machen, ablesen, statisch):
X800XT: 63 (Fraps1.9D, neueres Fraps: 60 (Cat5.2))
75.90b: 49 (Fraps1.9D)
71.81b: 47 (Fraps 1.9D, neueres Fraps: 44)
6800U: 40 (71.40b)

Joint Operations V1.5.1 (Training, starten, nix machen, ablesen, statisch; Satchel/Water; Texturkompression auf max):
X800XT: 34/56 (Fraps1.9D, neueres Fraps und morebench: 34/50, Cat5.2)
75.90b: 26/40 (Fraps1.9D)
6800U: 23/40 (Fraps1.9D, morebench: 23/38, neueres Fraps: 21/33)

Dangerous Waters Demo (integrierte Messfunktion unter "Optionen"):
X800XT: 82 (Cat5.2)
71.81b: 76
75.90b: 74
6800U: 66 (71.40b)

Will of Steel Demo (Kamerafahrt im Titelmenü, starten, nix machen, ablesen, statisch; Titelmenü/Spielstart):
X800XT: 64-80/59 (Fraps1.9D, neueres Fraps: 60-76/55 (Cat5.2)
6800U: 48-68/67 (45-64/63 mit neuerem Fraps, 71.81b und 75.90b)

Psychotoxic Demo (starten, nix machen, ablesen, statisch):
X800XT: 85 (Fraps1.9D, neueres Fraps: 79 (Cat5.2)
75.90b: 103 (Fraps1.9D)
71.81b: 94 (Fraps 1.9D, 92 mit neurem Fraps)
75.90b: 73
6800U: 66 (71.40b)

Tribes Vengeance SP-Demo (starten, Kameraschwenk ignorieren, während wir mit unseren beiden Kollegen auf den Kampf warten, niedrigster und höchster FPS-Wert, nicht statisch, dauert ca. 20 Sek.):
X800XT: 43-50
4.12b: 47-53
71.81b: 32-39 (Fraps 1.9D, 30-34 mit neurem Fraps und morebench)
6800U: 26-31

C&C Generals ZH V1.02 (Kamerafahrt im Titelmenü, vorher Online-Spiel starten damit Framelimiter deaktiviert ist, niedrigsten und höchsten FPS-Wert, nicht statisch)
X800XT: 47-82
6800U: 37-67 (Fraps1.9D, neueres Fraps: 32-59)

MoH PA Demo2 (Titelmenü, fast statisch, ohne AA)
X800XT: 65 (Fraps1.9D, neueres Fraps und morebench: 54)
75.90b: 46 (Fraps1.9D)
71.40b: 45 (Fraps 1.9D (auch 71.81b), 43 mit morebench)
71.50b: 36 (neueres Fraps, auch 71.81b und 75.90b)
6800U: 33

Colin 2005 Demo (starten, nix machen, ablesen, statisches Bild (keine Bewegung):
X800XT: 71
4.12b: 82 (Fraps1.9D, neueres Fraps und morebench: 75)
75.90b: 57 (Fraps1.9D)
71.40b: 55 (mit Fraps1.9D auch bei 71.81b)
71.81b: 52 (morebench, auch 75.90b)
6800U: 46 (neueres Fraps, auch 71.81b und 75.90b)

Thief 3 Demo (starten, nix machen, ablesen, statisch; mit AA (ohne Bloom), ohne AA (mit Bloom)):
X800XT: 37, 35 (Fraps1.9D, mit neuerem Fraps und morebench: 34, 32
75.90b: 29, 34 (Fraps1.9D)
71.81b: 27, 32 (Fraps1.9D)
71.40b: 27, 29 (morebench, auch 71.81b)
6800U: 19, 21 (neueres Fraps)

Men of Valor Sp-Demo (starten, nix machen, ablesen, statisch; 1280x1024):
X800XT: 29 (Fraps1.9D, neueres Fraps: 28)
75.90b: 35 (Fraps1.9D)
71.81b: 34 (Fraps 1.9D, 32 mit morebench, mit neuerem Fraps: 29)
6800U: 23

Need for Speed Underground 2 V1.1 und V1.2 ("Quickrace" starten (ENTER, ENTER...), in der Mitte startend, ablesen, dynamisch):
X800XT: 23-41 (Fraps1.9D, neueres Fraps: 23-39)
75.90b: 23-37 (V1.2, V1.1: 21-29, Fraps1.9D)
6800U: 17-25 (V1.1, auch 71.81b und 75.90b)

Sentinel Demo (starten, nix machen, ablesen, statisch):
X800XT: 69 (Cat 4.12b)
Cat 5.2: 73
75.90b: 72 (Fraps1.9D)
71.81b: 69 (Fraps1.9D, neueres Fraps: 56)
71.40b: 65
71.50b: 49
6800U: 46

Hitman: Contracts Demo (Titelmenü, ablesen, dann starten, nix machen, ablesen, statisch; Titelmenü/Spielstart):
X800XT: 30/29 (Fraps1.9D, neueres Fraps: 29/28)
75.90b: 25/23 (Fraps1.9D)
71.81b: 25/22 (Fraps 1.9D)
71.40b: 24/22 (auch 71.80b)
6800U: 22/20

Star Wars: Battlefront 1.1 ("Einzelspieler", "Klonkriege-Kampagne", "Die Schlacht von Naboo", siehe Bild):
X800XT: 33
71.81b: 31 (Fraps 1.9D, auch 75.90b)
71.50b: 29 (Fraps, mit morebench auch 71.81b)
6800U: 23 (mit Fraps, auch 71.81b)

Deus Ex 2 V1.2 (starten, nix machen, niedrigsten und höchsten FPS-Wert ablesen, fast statisch; mit AA (ohne Bloom), ohne AA (mit Bloom)):
X800XT: 16-20, 24-30 (Fraps1.9D, neueres Fraps: 15-20, 23-29)
71.40b: 15-19, 24-29
6800U: 10-13, 18-21

XpandRally MP-Demo (AF im CP; Lan-Spiel starten, nix machen, ablesen, fast statisch; USA/Ireland/Kenya):
X800XT: 46/35/39
4.12b: 48/39/41 (Fraps1.9D, neueres Fraps: 48/36/41)
75.90b: 36/34/36 (Fraps1.9D)
6800U: 36/32/35 (auch 71.81b und 75.90b)

Full Spectrum Warrior Demo (MOUT-Kurs starten (MOUT1), Gespräch abwarten, ablesen, fast statisch; 1280x1024):
X800XT: 67
4.12b: 70
75.90b: 64 (Fraps1.9D)
75.90b: 62 (Fraps)
6800U: 61 (Fraps)
71.81b: 54 (morebench: 59)

FlatOut Demo (Titelmenü, niedrigsten FPS-Wert ablesen, nicht statisch, "QuickRace" starten, "Finchley Forest", in zweiter Reihe mittig stehend, ablesen, statisch):
X800XT: 58/51 (AA/AF im CP: 63/53)
4.12b: (AA/AF im CP: 63/55)
71.81b: (AA/AF im CP: 60/53, Fraps 1.9D, auch 75.90b)
71.40b: (AA/AF im CP: 56/48)
6800U: (AA/AF im CP: 49/44) (auch 71.80b)

America's Army V2.2 (starten, "Trainig", "Basic Training", "Marksmanship", Unterhaltung abwarten, am Schießstand ablesen, statisch):
Cat5.1: 61 (Fraps1.9D, neueres Fraps und morebench: 60, auch: Cat5.2)
X800XT: 63 (Cat4.12b)
75.90b: 54 (Fraps1.9D)
71.81b: 53 (Fraps 1.9D)
71.50b: 50 (auch 75.90b)
6800U: 47 (auch 71.40b)

Blood Rayne 2 Demo (starten, nix machen, ablesen, statisch):
X800XT: 38
4.12b: 47 (Fraps1.9D, neueres Fraps und morebench: 40)
75.90b: 52 (Fraps1.9D)
71.40b: 51 (mit Fraps 1.9D auch bei 71.81b)
71.81b: 44 (auch 75.90b)
71.50b: 30 (flimmriges, fehlerhaftes Bild)
6800U: 33

Juiced Demo (starten (ENTER, ENTER...), nix machen, niedrigsten (während wir überholt werden) und höchsten (wenn alle außer Sichtweite sind) FPS-Wert, ablesen, nicht statisch; mit AA (ohne MB+LF), ohne AA (mit MB+LF)):
X800XT: 84-133, 82-107 (Fraps1.9D, neueres Fraps: 80-110, 77-99 (Cat 4.12b)
75.90b: 76-94, 77-93 (Fraps1.9D)
71.40b: 72-92, 67-90 (mit Fraps 1.9D, auch 71.81b)
71.50b: 62-85, 67-82 (auch 71.80b)
6800U: 58-72, 43-57

Hier noch ein paar "Standardbenches" unter obigen Testbedingungen:

Final Fantasy XI B3:
X800XT: 6095 (Cat 4.12b)
Cat5.1: 6298
75.90b: 6037
71.81b: 5968
71.50b: 5805
6800U: 5397

Far Cry 1.3 Pier (Min./Mitt.):
X800XT: 44/52 (Cat 4.12b)
70.90b: 37/45
6800U: 35/42

UT2004 Primeval:
X800XT: 51
71.20b: 49
70.41b: 46
6800U: 40

Doom3 Demo1:
X800XT: 36
70.90b: 46
6800U: 45

CS: Source VST:
X800XT: 90
4.12: 93 (auch Cat5.1 und Cat5.2)
70.90b: 89
6800U: 84
70.41b: 80

X2 Rolling Demo (AA im Spiel eingestellt, ist vermutlich 2xAA)
X800XT: 60 (4xAA im CP: 49)
4.12b: 61
6800U: 62
70.90b: 58

loci2005
2004-11-10, 23:32:32
Keine Neuheit, dass die NV Karten bei DirectX etwas langsamer sind. Nur ist das alles relativ. Ich will hier keinen Glaubenskrieg anheizen, aber es ist bekannt das die ATi standardmäßig Brilinear filtert und das die ATi zwar nen besseren AA-Code hat aber dafür nicht so gut filtert im AF Mode...
Es wäre vielleicht hilfreich wenn du mal andere Auflösungen und Einstellungen testen würdest. Unbestritten wenn auch nicht offziell ist übrigens auch das ATi und NVIDIA gewisse Spiele speziell "supporten"...darum auch manche Extremvorsprünge. Deshalb finde ich auch beide Hersteller irgendwie nicht naja sagen wir mal unten durch. Ich will das eine Graka überall gut ist und nirgens abkackt. Höchstens, wenns eine spezielle Anwendung wäre die NIEMAND nutzen würde, wäre das zu akzeptieren. Die aktuellen Karten sind irgendwie daneben. Man muss sich ja schon eine X800XT GF6800U kaufen um alle super zu spielen...

MfG,
Loci

Funky Bob
2004-11-10, 23:34:04
Ich finde die Werte der 6800u n bissl zu sehr abgedriftet ?!
Die sollten sich eigentlich nicht viel geben und schon gar nicht so krass in Richtung X800XT.

Und bevor nu was kommt von wegen seh's ein die 6800U is lahm und kacke und blubb und bla, ich hab selber ne X800XT PE und vorher wars ne 6800U(RIP) und die Unterschiede empfinde ich nicht wirklich als so groß.

Quasar
2004-11-10, 23:36:40
Das Problem, das ich mit "niedrigsten FPS" habe, ist, daß die oftmals nur am Beginn eines Games auftreten, je nachdem, wann wer was lädt.

Aber schön, daß du dir diese Mühe gemacht hast! :up:

Gast
2004-11-10, 23:39:35
Bis auf D3 supportet nv wohl kein Spiel :D Bei Ati hat man eigentlich durch die Bank gute Leistung. Aber: so göttlich das AA ist, so mies ist das AF :( Bugwelle ahoi :crazy:

Gast
2004-11-10, 23:40:39
Welche Settings wurden bei der 6800 Ultra im Treiber eingestellt?

betasilie
2004-11-10, 23:43:42
Bis auf D3 supportet nv wohl kein Spiel :D Bei Ati hat man eigentlich durch die Bank gute Leistung. Aber: so göttlich das AA ist, so mies ist das AF :( Bugwelle ahoi :crazy:
Von wegen. Das ist wohl maßlos übertrieben. Die Karten tun sich fast garnix bei der Qualität des AF. Da sind nur minimale Vorteile bei NV zu sehen.

Gast
2004-11-10, 23:45:55
Beta, mein R300 läßt mich jedesmal surfen ;D Tut das dein R420 auf einmal nicht? =)

betasilie
2004-11-10, 23:47:22
Beta, mein R300 läßt mich jedesmal surfen ;D Tut das dein R420 auf einmal nicht? =)
Nein, das tut er nicht. :p Sry, aber Bugwellen stören mich auch, deshalb kommt rein bilineares AF auch nicht in Frage.

Gast
2004-11-10, 23:47:53
Die Karten tun sich fast garnix bei der Qualität des AF. Da sind nur minimale Vorteile bei NV zu sehen.

UND, habe ich was von perfekter AF-Leistung bei Geforce6 geschrieben? ;)

betasilie
2004-11-10, 23:49:00
UND, habe ich was von perfekter AF-Leistung bei Geforce6 geschrieben? ;)
Ok, das hat sich so angehört. ;)

Gast
2004-11-10, 23:49:49
Komisch ich komme bei StarWars Battlefront und 6800 Ultra auf 32 fps... (P4 3,2ghz, Fw 66.93)Ich glaube du hast die Treibereinstellungen nicht richtig konfiguriert.

http://img105.exs.cx/img105/5807/swbf.jpg

Gast
2004-11-10, 23:51:05
Nein, das tut er nicht. :p Sry, aber Bugwellen stören mich auch, deshalb kommt rein bilineares AF auch nicht in Frage.

War das nicht der RV350 der brilinear brachte? Und alle folgten (R420)? Kann man das abstellen bei den X800 und X700, also voll trilinear, dis auf die eklige Winkelabhängigkeit?

loci2005
2004-11-10, 23:51:06
Klick mich! (http://www.de.tomshardware.com/graphic/20040616/ati-texturfilterung-01.html) :D

MfG,
Loci

Gast
2004-11-10, 23:53:00
Ok, das hat sich so angehört. ;)

Echt? Dachte, der Hinweis, daß die GF6 nur D3 beschleunigt, wäre Stichelei genug :D

CompEx
2004-11-10, 23:59:11
Welche Settings wurden bei der 6800 Ultra im Treiber eingestellt?

Alle Optimierungen an (steht schon oben). Oder was meinste?

Gast
2004-11-11, 00:04:16
Welche hattest du genau enabled? Da gibts 3 verschiedene. Auch scheinen mir deine Need for Speed Underground 2 Demo Werte recht bescheiden. Da hatte ich mit 1600x1200 4xFSAA und 16xAF schon fast doppelt so hohe Frames wie du. Hast du manchmal Die Unschärfen noch mit eingeschalten im Gamemenü? Du weisst sicher auch das denn kein FSAA funktioniert?
Deine 6800U SW:Battlefront Werte von dir erreiche ich bei mir mit HighQuality Settings und Opt.aus. Vieleicht wurden deine Einstellungen im Treiber ev. nicht übernommen? Ist nur eine Idee.

CompEx
2004-11-11, 00:13:18
Welche hattest du genau enabled? Da gibts 3 verschiedene. Auch scheinen mir deine Need for Speed Underground 2 Demo Werte recht bescheiden. Da hatte ich mit 1600x1200 4xFSAA und 16xAF schon fast doppelt so hohe Frames wie du. Hast du manchmal Die Unschärfen noch mit eingeschalten im Gamemenü? Du weisst sicher auch das denn kein FSAA funktioniert?
Deine 6800U SW:Battlefront Werte von dir erreiche ich bei mir mit HighQuality Settings und Opt.aus. Vieleicht wurden deine Einstellungen im Treiber ev. nicht übernommen? Ist nur eine Idee.

ALLE drei Optimierungen sind an. In den Spielemenüs habe ich ALLES auf an/max.
Hab BF nochmal mit FW66.93 ausprobiert: wieder 23FPS. 4xAA/8xAF. In deinem Bild fehlen die Objekte am linken Bildrand (woran kann das liegen?). Hast du bei BF alles auf max.?

Ob mit oder ohne Unschärfe macht bei diesem Test 0FPS Unterschied (kein Wunder, ist ja nur ein statisches Bild ohne Bewegung).

Gast
2004-11-11, 00:20:47
ALLE drei Optimierungen sind an. In den Spielemenüs habe ich ALLES auf an/max.

Ich auch.

Hab BF nochmal mit FW66.93 ausprobiert: wieder 23FPS. 4xAA/8xAF. In deinem Bild fehlen die Objekte am linken Bildrand (woran kann das liegen?). Hast du bei BF alles auf max.?

Hast du FSAA im Spiel oder im CP eingestellt? Lass es mal vom Spiel steuern. AF ist bei mir über das CP!

Ob mit oder ohne Unschärfe macht bei diesem Test 0FPS Unterschied (kein Wunder, ist ja nur ein statisches Bild ohne Bewegung)

Bei mir macht das schon einen deutlichen Unterschied! Leider habe ich die Demo nicht mehr installed. Aber über 40 fps hinaus hatte ich dort mit Sicherheit. Sonst wäre das für mich unspielbar.

Gast
2004-11-11, 00:26:55
In deinem Bild fehlen die Objekte am linken Bildrand (woran kann das liegen?). Hast du bei BF alles auf max.?

Da musste ich mich drehen um Objekte zu sehn. Aber gut Hier der Screen: http://img107.exs.cx/img107/997/swbf2.jpg

CompEx
2004-11-11, 00:27:17
Leider habe ich die Demo nicht mehr installed. Aber über 40 fps hinaus hatte ich dort mit Sicherheit. Sonst wäre das für mich unspielbar.

Dann install sie doch nochmal, stell alles an/max. und miss nach. Über 40 FPS zu kommen ist nicht schwer, kommt eben auf die Detailstufe an.

Gast
2004-11-11, 00:31:14
Ich muss die Demo nochmal laden. Ich poste morgen Screens hier in den Thread. Also ich hab die Unschärfen ausgestellt gehabt da mir das verschwommene Bild ohne FSAA bei NFS:UG2 nicht gefiel. Das Spiel lief bei mir ohne Bewegungsunschärfe und ausgestellten Optimierungen mit 40-60 fps!

DiGiTaL
2004-11-11, 01:16:48
Also ich habe bei mir Tribes Vengeance auch mal gestestet:

AthlonXP 3200+, 6800GT, 66.93 ( nix übertaktet )
Alles auf On und Ultra-High. 1600x1200 4x AA und 8x AF

Nicht mit Fraps gemessen, sondern über die Console!

OK... war Multiplayer mit einem anderen Level... aber der entspricht etwa 90% dem SP-Level (eigentlich sogar noch aufwändiger) und es hatte auch noch einige Leute im Spiel, wo kräftig ballerten... ich auch ;)

Und als min. hatte ich mal 37 FPS. Meistens aber > 40 FPS !!!

Vielleicht "bremst" Fraps die nvidia Karten? :|

mfg DiGi

loci2005
2004-11-11, 08:29:08
Vielleicht ist Fraps ein von ATi gesponsortes und optimiertes Progi :biggrin:

;)

MfG,
Loci

Tjell
2004-11-11, 08:38:29
Die Benchmarks zur X800 XT (PE) sowie zur 6800 Ultra sind schon seit Monaten im Internet zu finden und auf die hier beschriebene Erkenntnis der Leistung beider Kontrahenten unter 1600 × 1200, 4×AA und hohem AF kommt ihr erst jetzt?

Die GeForce 6800 Ultra und GT werden schließlich beide von der Radeon 9800 XT überholt, was nicht gerade ein rühmliches Licht auf die verwendete Spezialtechnik beim Anti-Aliasing wirft. Als kleine Ehrenrettung und zum Untermauern des eben gesagten sei noch erwähnt, dass die 6800 Ultra mit ansonsten gleichen Einstellungen im letzten Test mit 4xAA und 16xAF bei Double- anstatt Triple-Buffering 114,21 fps erreichte.

Hier sollte nVidia wirklich genau überlegen, ob der eine eingesparte Framebuffer-Write wirklich einen solchen Leistungseinbruch in genau den Settings rechtfertigt, für die man Karten dieses Preis- und Leistungssegmentes eigentlich erwirbt, sinnvoll ist.
Quelle: Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/16/#max_payne_2)

Zugegeben, ich habe nicht darauf geachtet, wie hoch der Unterschied in der Framerate ist, deshalb habe ich auch in Tombmans Thread so verwundert gepostet, zumal diese Auflösung nicht in meinem Interesse liegt.

Bei Computerbase wird in den jeweiligen Benchmarks immer wieder und sehr konkret der Schwachpunkt in der Architektur der 6800 Ultra angesprochen und hervorgehoben. Dieser Schachpunkt tritt aber nur bei diesen extremen Einstellungen auf und ist somit für ein Großteil der Nutzer mbMn derzeit noch uninteressant.

Man kann also auf die letztendlich Leistungsfähigkeit einer Grafikkarte nicht durch alleinige Betrachtung der niedrigsten oder auch nur der höchsten Grafikeinstellung schließen.

Wer mir das nicht glaubt, darf gerne das schon etwas angegraute Review bei Computerbase durchlesen.

Gast
2004-11-11, 08:38:36
Die Geschichte wiederholt sich.

Nvidia hat ein super Marketing, die Freaks kaufen sich immer beim Release die neueste Karte von denen und schauen dann dumm und ungläubig aus der Wäsche, wenn die Erwartungen nicht erfüllt werden.

Nvidia schafft es immer wieder mit Ihren Standardbechmarks zu überzeugen. Was nicht so oft gebencht wird läuft auch schlechter.

Erinnert mich gleich an den GF6800 Go Launch. Grafiken von den Vorzeigebenchmarks mit Taktraten um 500 MHz, obwohl sich vernünftig nur 275-300 MHz realisieren lassen.

Mit Investitionen in die richtige Abteilung (Marketing) läßt sich halt auch ein Geschäft machen. Fragt sich nur wie lange noch.

gruß
steffen

q@w
2004-11-11, 08:43:44
Die Benchmarks zur X800 XT (PE) sowie zur 6800 Ultra sind schon seit Monaten im Internet zu finden und auf die hier beschriebene Erkenntnis der Leistung beider Kontrahenten unter 1600 × 1200, 4×AA und hohem AF kommt ihr erst jetzt?


Quelle: Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/16/#max_payne_2)

Zugegeben, ich habe nicht darauf geachtet, wie hoch der Unterschied in der Framerate ist, deshalb habe ich auch in Tombmans Thread so verwundert gepostet, zumal diese Auflösung nicht in meinem Interesse liegt.

Bei Computerbase wird in den jeweiligen Benchmarks immer wieder und sehr konkret der Schwachpunkt in der Architektur der 6800 Ultra angesprochen und hervorgehoben. Dieser Schachpunkt tritt aber nur bei diesen extremen Einstellungen auf und ist somit für ein Großteil der Nutzer mbMn derzeit noch uninteressant.

Man kann also auf die letztendlich Leistungsfähigkeit einer Grafikkarte nicht durch alleinige Betrachtung der niedrigsten oder auch nur der höchsten Grafikeinstellung schließen.

Wer mir das nicht glaubt, darf gerne das schon etwas angegraute Review bei Computerbase durchlesen.

Es ist allerdings mehr als nur ein Frame-Buffer-Write, den nVidia da einspart durch Filter-at-Scanout. Die Antwort auf die diesbezgl. Frage habe ich allerdings zu spät für eine Korrektur erhalten.

Trotzdem, herkömmliches Buffer-schreiben ist auf jeden Fall schneller, als AGP-Texturing in größerem Umfange betreiben zu müssen.


Noch zum Thread:
Wozu nochmal ein eigener Thread? Davon gibt's doch hier schon einen... *nachuntenschiel*

q@w
2004-11-11, 08:45:27
Die Geschichte wiederholt sich.

Nvidia hat ein super Marketing, die Freaks kaufen sich immer beim Release die neueste Karte von denen und schauen dann dumm und ungläubig aus der Wäsche, wenn die Erwartungen nicht erfüllt werden.

Nvidia schafft es immer wieder mit Ihren Standardbechmarks zu überzeugen. Was nicht so oft gebencht wird läuft auch schlechter.

Erinnert mich gleich an den GF6800 Go Launch. Grafiken von den Vorzeigebenchmarks mit Taktraten um 500 MHz, obwohl sich vernünftig nur 275-300 MHz realisieren lassen.

Mit Investitionen in die richtige Abteilung (Marketing) läßt sich halt auch ein Geschäft machen. Fragt sich nur wie lange noch.

gruß
steffen

Allerdings - Geschichte wiederholt sich.
Bringe bitte Belege für deine Behauptungen (bsw. bzgl. der 6800go), ansonsten sind sie wertlos.

Gast
2004-11-11, 10:02:08
@q@w: von doom3 hast du schon mal was gehört :naughty:

q@w
2004-11-11, 10:24:03
@gast:
Ja, aber von mobile-GPUs bei 500MHz nicht. :naughty:

aths
2004-11-11, 10:46:20
Die 6800 heißt nicht FX. Ich passe mal das Topic an.

IVI
2004-11-11, 11:00:56
nur mal n wort am rande: ich präferiere dann doch benches an den fertigen games, demos sind meist zu heikel ... und buggy ... oder für den einen doer anderen optimiert ... oder der treiber zickt rum ... naja, das üblich halt.

Gast
2004-11-11, 11:01:21
könnte man mit tombmans thread mergen (sind noch mehr beweise ;) )

CompEx
2004-11-11, 12:07:24
Also ich habe bei mir Tribes Vengeance auch mal gestestet:
Nicht mit Fraps gemessen, sondern über die Console!

Wie geht das?

OK... war Multiplayer mit einem anderen Level... aber der entspricht etwa 90% dem SP-Level (eigentlich sogar noch aufwändiger) und es hatte auch noch einige Leute im Spiel, wo kräftig ballerten... ich auch ;)

MP und anderer Level = NICHT VERGLEICHBAR! Nimm doch auch mal die Demo.

Vielleicht "bremst" Fraps die nvidia Karten? :|

Könnte sein. Würde ich gerne mal testen. Also, wie geht's über die Konsole?

StefanV
2004-11-11, 12:11:58
Die Geschichte wiederholt sich.

Nvidia hat ein super Marketing, die Freaks kaufen sich immer beim Release die neueste Karte von denen und schauen dann dumm und ungläubig aus der Wäsche, wenn die Erwartungen nicht erfüllt werden.

Nvidia schafft es immer wieder mit Ihren Standardbechmarks zu überzeugen. Was nicht so oft gebencht wird läuft auch schlechter.
Tjo, das ist leider schon seit Jahren so, schon zu 3DFX Zeiten war das nicht anders, von R100 vs GF2 reden wir erst garnicht...

Gast
2004-11-11, 13:03:40
Welche Sau bitte spielt in 1600*1200 und so hohen Quali Einstellungen ?? Dieses wirklichkeitsfremde gebenche ist doch so nutzlos wie nur was. Was bitte soll damit bewiesen werden? Das die immer stärker werdende TFT Fraktion in 1280*1024 spielt ist schon bekannt,gelle?
Bitte, Bitte erkläre mir jemand was das soll (benchen in 1600)? Hey boah meine Ati zersägt deine Ultra in 1600...geil wa? Hmmm, ich spiel aber nir 1024 oder1280....wie siehts da aus? Ähhh; ich muß mal eben weg.......

Noah
2004-11-11, 13:17:15
Welche Sau bitte spielt in 1600*1200 und so hohen Quali Einstellungen ?? Dieses wirklichkeitsfremde gebenche ist doch so nutzlos wie nur was. Was bitte soll damit bewiesen werden? Das die immer stärker werdende TFT Fraktion in 1280*1024 spielt ist schon bekannt,gelle?
Bitte, Bitte erkläre mir jemand was das soll (benchen in 1600)? Hey boah meine Ati zersägt deine Ultra in 1600...geil wa? Hmmm, ich spiel aber nir 1024 oder1280....wie siehts da aus? Ähhh; ich muß mal eben weg.......
Warum sollte man nicht in diesen Einstellungen spielen, wenn die eigene Hardware über die nötige Power dafür verfügt?
Leistung zu verschenken ist wirklichkeitsfremd, sonst nichts.

CompEx
2004-11-11, 13:28:38
Welche Sau bitte spielt in 1600*1200 und so hohen Quali Einstellungen ?? Dieses wirklichkeitsfremde gebenche ist doch so nutzlos wie nur was. Was bitte soll damit bewiesen werden? Das die immer stärker werdende TFT Fraktion in 1280*1024 spielt ist schon bekannt,gelle?
Bitte, Bitte erkläre mir jemand was das soll (benchen in 1600)? Hey boah meine Ati zersägt deine Ultra in 1600...geil wa? Hmmm, ich spiel aber nir 1024 oder1280....wie siehts da aus? Ähhh; ich muß mal eben weg.......


Ähm... ich hab ein 20'er TFT, da interessiert mich halt nur die 1600'er Auflösung und ohne AF spiele ich schon seit Jahren nicht mehr, AA finde ich gut, verzichte aber, wenn's damit nicht schnell genug läuft.

Ich bin gerne bereit den ein oder anderen Test in 1280 mit/ohne AA zu testen. Ich vermute nur, dass einige mit AA, einige ohne AA, einige mit AF, einige ohne, andere wiederum lieber 1024 mit AA... Da werd ich ja nie mit testen fertig! Mortyr 2, Full Spectrum Warrior und Men of Valor sind übrigens in 1280 (da mehr nicht geht). Und bei MoV z. B. sieht's für nVidia auch in "wirklichkeitsnahen" Einstellungen ziemlich düster aus. Und in M2 und FSW liegt nVidia auch hinten.

Gast
2004-11-11, 13:28:48
Warum sollte man nicht in diesen Einstellungen spielen, wenn die eigene Hardware über die nötige Power dafür verfügt?
Leistung zu verschenken ist wirklichkeitsfremd, sonst nichts.

Ja, klar du Leuchte. Aber Matsch auf billigen Röhren in 1600 ist schön, gelle?
Die allerwenigsten haben einen hochwertigen CRT für so HOHE Auflösungen. Immer mehr besitzen 17" TFT. Was ist da wohl eher wirklichkeitsfremd??
Es sind eher HighEnd Grakas anzutreffen als entsprechende Monitore...

Gast
2004-11-11, 13:35:08
Ähm... ich hab ein 20'er TFT, da interessiert mich halt nur die 1600'er Auflösung und ohne AF spiele ich schon seit Jahren nicht mehr, AA finde ich gut, verzichte aber, wenn's damit nicht schnell genug läuft.

Ich bin gerne bereit den ein oder anderen Test in 1280 mit/ohne AA zu testen. Ich vermute nur, dass einige mit AA, einige ohne AA, einige mit AF, einige ohne, andere wiederum lieber 1024 mit AA... Da werd ich ja nie mit testen fertig! Mortyr 2, Full Spectrum Warrior und Men of Valor sind übrigens in 1280 (da mehr nicht geht). Und bei MoV z. B. sieht's für nVidia auch in "wirklichkeitsnahen" Einstellungen ziemlich düster aus. Und in M2 und FSW liegt nVidia auch hinten.


Wenn du diese Auflösung benutzen kannst ist das vollkommen gerechtertigt. Aber du mußt zugeben, das die Anzahl derer in % auf die Spielergemeinde gering ist. Benches sind sicher aufwendig, aber verlangt ja keiner. Mich stört nur die pauschale Aussage "ATI in neuen Games schneller! (X800XT vs 6800U)".

Elrood
2004-11-11, 13:38:05
Ja, klar du Leuchte. Aber Matsch auf billigen Röhren in 1600 ist schön, gelle?
Die allerwenigsten haben einen hochwertigen CRT für so HOHE Auflösungen. Immer mehr besitzen 17" TFT. Was ist da wohl eher wirklichkeitsfremd??
Es sind eher HighEnd Grakas anzutreffen als entsprechende Monitore...

Wenn auch sehr harsch ausgedrückt, so muss ich dem Gast doch recht geben. 1600er Auflösungen sind nunmal eher die Ausnahme. Selbst wenn man einen CRT hat, muss der schon wirklich gut sein, um da noch ne gute Hertz-Rate hinzubekommen. Und 20'' TFT ist auch eher selten anzutreffen.

Ich denke mit 1280er Benches würde man eher die breite Masse (der Highend-Graka-User) ansprechen.

StefanV
2004-11-11, 13:39:26
Wenn auch sehr harsch ausgedrückt, so muss ich dem Gast doch recht geben. 1600er Auflösungen sind nunmal eher die Ausnahme. Selbst wenn man einen CRT hat, muss der schon wirklich gut sein, um da noch ne gute Hertz-Rate hinzubekommen. Und 20'' TFT ist auch eher selten anzutreffen.
ein 'normaler' 19"er mit Flacher Streifenmaske sollte dafür ausreichend sein.

z.B. Iiyama Vision Master PROs oder aber die Samsung 959NFs...
Und die sollten recht breit verfügbar sein...

Wie dem auch sei:
Wer das Geld für 'ne absolute HIgh End GraKa wie x800XT PE oder 6800 ULTRA hat, der hat meist auch das Geld für 'nen entsprechenden Schirm.

Gast
2004-11-11, 13:43:21
Zur Diskussion warum 1600x1200:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2434923&postcount=493

Gast
2004-11-11, 13:50:07
Wie dem auch sei:
Wer das Geld für 'ne absolute HIgh End GraKa wie x800XT PE oder 6800 ULTRA hat, der hat meist auch das Geld für 'nen entsprechenden Schirm.

Sorry, wenn das harsch rüber kam.
@Payne Wenn es doch so,wäre...Sei doch ehrlich,das Thema Monitor wird doch von den meisten zugunsten der Graka zurückgestellt...

Tjell
2004-11-11, 13:56:55
Sorry, wenn das harsch rüber kam.
@Payne Wenn es doch so,wäre...Sei doch ehrlich,das Thema Monitor wird doch von den meisten zugunsten der Graka zurückgestellt...
Das kann ich wie gesagt aus bisherigen Erfahrungen im Bekannten- und Freundeskreis bestätigen.

Grafikkarte: locker mal bis 450 €
Monitor: alle unter 200 €

Nur ein Kumpel von mir hat einen 21"-CRT, den aber auch nur gebraucht.

CompEx
2004-11-11, 13:58:19
Ok ok, jeder wie er will. Ich füge wg. starken Interesses und guten Argumenten (es haben wirklich nur wenige die Ausstattung für 1600, das sehe ich ein) noch ein paar Benches in niedrigeren Auflösungen hinzu. Eins vorweg: damit zieht nvidia immer noch nicht gleichauf. Bei Tribes erreicht nVidia in 1280 nicht mal ATI in 1600, bei MoV ist nVidia in 1024 gleichschnell wie Ati in 1280, und bei NFSU2 verringert sich der Rückstand zwar etwas, aber bei 1280 ist ATI immer noch 20% vorne. Werde die erste Seite gleich editieren. Bei Tribes füge ich neben den min. auch die max. Werte hinzu.

loci2005
2004-11-11, 14:00:33
1600er Auflösung macht schon Sinn zu testen, wenn mann wirklich wissen will was die Grafikkarte kann. Mann sollte aber nicht vergessen, andere Auflösungen und Einstellungen zu testen, gerade um zu sehen wo stärken und schwächen der Karten liegen. Real nutzen die meisten Leute 1024er oder 1280er Auflösungen. 1600er ist meiner Meinung nach für heute noch zu hoch gegriffen, weil Zocker sich kaum nen 21" oder größer auf den Tisch stellen. 20" TFT's oder größer sind (noch) zu langsam...

MfG,
Loci

loci2005
2004-11-11, 14:03:50
Ok ok, jeder wie er will. Ich füge wg. starken Interesses und guten Argumenten (es haben wirklich nur wenige die Ausstattung für 1600, das sehe ich ein) noch ein paar Benches in niedrigeren Auflösungen hinzu. Eins vorweg: damit zieht nvidia immer noch nicht gleichauf. Bei Tribes erreicht nVidia in 1280 nicht mal ATI in 1600, bei MoV ist nVidia in 1024 gleichschnell wie Ati in 1280, und bei NFSU2 verringert sich der Rückstand zwar etwas, aber bei 1280 ist ATI immer noch 20% vorne. Werde die erste Seite gleich editieren. Bei Tribes füge ich neben den min. auch die max. Werte hinzu.

Mal ohne AA und AF getestet? Das würde mich mehr interessieren als die Auflösungen. Hier liegt der Hund begraben...weil das AA bei ATi effizienter arbeitet und AF schlechter ist und deswegen nicht soviel Leistung kostet wie bei NV.

MfG,
Loci

Tjell
2004-11-11, 14:05:39
Mich würde beim Refresh-Chip NV48 interessieren, inwiefern eine mögliche 512 MB-Variante an Leistung zulegen kann.

Aber gut, das paßt hier nicht ganz her.

loci2005
2004-11-11, 14:23:47
Die Geschichte wiederholt sich.

Nvidia hat ein super Marketing, die Freaks kaufen sich immer beim Release die neueste Karte von denen und schauen dann dumm und ungläubig aus der Wäsche, wenn die Erwartungen nicht erfüllt werden.

Nvidia schafft es immer wieder mit Ihren Standardbechmarks zu überzeugen. Was nicht so oft gebencht wird läuft auch schlechter.

Erinnert mich gleich an den GF6800 Go Launch. Grafiken von den Vorzeigebenchmarks mit Taktraten um 500 MHz, obwohl sich vernünftig nur 275-300 MHz realisieren lassen.

Mit Investitionen in die richtige Abteilung (Marketing) läßt sich halt auch ein Geschäft machen. Fragt sich nur wie lange noch.

gruß
steffen

Die Geschichte wiederholt sich.

ATi braucht Marktanteile und versucht durch höhere Taktraten und abgespecktere Features mehr FPS zu haben um marketingmäßig besser dazustehen wie nvidia. Nvidia baut technisch bessere Grafikkarten, klammert sich nicht an die (schlechteren) M$ Spezifikationen von DirectX und hat deswegen weniger FPS.

ATi braucht wenigere Transistoren bei gleicher Baugröße, weil hauptsächlich durch wenigere Features. Dadurch geringerer Stromverbrauch, weniger Verlustleistung, kein so dicker Lüfter, nur ein Stromanschluss.

Keine Frage, ATi schafft es den Kunden zu überzeugen durch ein auf M$ Produkte zugeschnittenes Produkt ;) die wesentlichen Dinge rauszuholen und dadurch nach Außen hin für den User besser dastehen zu lassen.

Was richtig ist muss jeder für sich entscheiden. Klar ist wichtig was am Ende rauskommt nur hab ich bei sowas immer das Gefühl, ein "übertaktetes", aufgefrischtes Modell zu haben, was ich eh bald verkaufe, weil es auf qualitativ schlechtere (ältere) Technologie setzt nur um mehr FPS zu haben...

MfG,
Loci

Gast
2004-11-11, 15:14:54
Die Geschichte wiederholt sich.

ATi braucht Marktanteile und versucht durch höhere Taktraten und abgespecktere Features mehr FPS zu haben um marketingmäßig besser dazustehen wie nvidia. Nvidia baut technisch bessere Grafikkarten, klammert sich nicht an die (schlechteren) M$ Spezifikationen von DirectX und hat deswegen weniger FPS.

ATi braucht wenigere Transistoren bei gleicher Baugröße, weil hauptsächlich durch wenigere Features. Dadurch geringerer Stromverbrauch, weniger Verlustleistung, kein so dicker Lüfter, nur ein Stromanschluss.

Keine Frage, ATi schafft es den Kunden zu überzeugen durch ein auf M$ Produkte zugeschnittenes Produkt ;) die wesentlichen Dinge rauszuholen und dadurch nach Außen hin für den User besser dastehen zu lassen.

Was richtig ist muss jeder für sich entscheiden. Klar ist wichtig was am Ende rauskommt nur hab ich bei sowas immer das Gefühl, ein "übertaktetes", aufgefrischtes Modell zu haben, was ich eh bald verkaufe, weil es auf qualitativ schlechtere (ältere) Technologie setzt nur um mehr FPS zu haben...

MfG,
Loci

LOL,

ATi baut Grafikkarten nach wesentlichen Gesichtspunkten und weckt bei weitem nicht so nachhaltig mit Hilfe bunter Bildchen und Animationen Bedürfnisse nach Produkten die man eigentlich gar nicht braucht...Imho.

Achso, noch ein paar Einwürfe: Die Technologie ist nicht älter (und schon gar nicht nach dem von dir gezogenen Schluss schlechter) sie setzt auf einen niedrigeren Standard. UNd wenn du ein Produkt X kaufst das nach Standard A gebaut ist muss das nicht älter/schlechter sein als Produkt Y nach Standard B.

Weil DX zu MS gehört ist die gute DX-Leistung der ATI-Treiber auch negativ zu bewerten? Böse Welt.

"Nur ein paar weniger fps..." Aha, worum geht es denn beim Kauf einer neuen Grafikkarte. Oder konntest Du sonst schon einen relevanten Mehrwert gegenüber deiner alten Grafikkarte feststellen, den ein vergleichbares ATI-Produkt nicht bietet?!

aths
2004-11-11, 15:43:50
LOL,

ATi baut Grafikkarten nach wesentlichen Gesichtspunkten und weckt bei weitem nicht so nachhaltig mit Hilfe bunter Bildchen und Animationen Bedürfnisse nach Produkten die man eigentlich gar nicht braucht...Imho.Welche Gesichtspunkte "wesentlich" sind, lässt sich kaum objektivieren. Für wen z. B. ist FP32 wesentlich, wer braucht SM3-HW?

Achso, noch ein paar Einwürfe: Die Technologie ist nicht älter (und schon gar nicht nach dem von dir gezogenen Schluss schlechter) sie setzt auf einen niedrigeren Standard.Natürlich ist sie älter. "Alte" Sachen beschleunigt R420 taktbedingt sehr gut, für "neue" Effekte gibt es kaum oder keine Hardware, die hier beschleunigen kann. NV40 hat eine niedrigere Grundgeschwindigkeit, kann allerdings viel mehr (flexiblere) Operationen in der Hardware ausführen.

"Nur ein paar weniger fps..." Aha, worum geht es denn beim Kauf einer neuen Grafikkarte. Oder konntest Du sonst schon einen relevanten Mehrwert gegenüber deiner alten Grafikkarte feststellen, den ein vergleichbares ATI-Produkt nicht bietet?! Mir geht es z. B. um beste Qualität bei guten Frameraten.

Gast
2004-11-11, 16:20:00
NV40 hat eine niedrigere Grundgeschwindigkeit, kann allerdings viel mehr (flexiblere) Operationen in der Hardware ausführen.

Leider zu langsam, auch wenn du´s noch 10000 mal betonst (wie auch schon zu FX Zeiten). In der Praxis ist der R420 einfach schneller, selbst wenn gegen SM3 gebencht wird (wie man sieht, bisher).
Ob sich das nochmal ändern wird bleibt mehr als fraglich.

CompEx
2004-11-11, 16:21:58
Neue Werte für Battlefront(1280 und ohne AA/AF), MoV (ohne AA/AF), Thief 3 (1280) und NFSU2 (ohne AA) hinzugefügt. Naja, bei NFSU2 sind die Karten bei 1280 8xAF gleich schnell (55) und das ohne CPU-Limitierung (in 1024 sind's 65). In MoV ist nVidia auch in 1024 ohne AA/AF weit abgeschlagen (aber nicht mehr so weit wie in 1600). Hier (in MoV) verliert ATI durch AA deutlich mehr Geschwindigkeit als nVidia, während nVidia bei AF deutlich mehr verliert (prozentual). Bei Thief und Battlefront helfen nVidia auch niedrigere Auflösungen nicht viel (der Rückstand verkürzt sich zwar prozentual, nVidia bleibt aber deutlich auf Platz 2). Bei BF bringt der Verzicht auf AA/AF auch nix: nVidia bleibt deutlich hinter ATI. Da bleibt wohl nur das warten auf schnellere Treiber.

StefanV
2004-11-11, 16:26:14
NV40 hat eine niedrigere Grundgeschwindigkeit, kann allerdings viel mehr (flexiblere) Operationen in der Hardware ausführen.
Toll...

Was bringt mir das als Gamer?!

Ich will Bilder schnell auf dem Schirm haben, nicht die Karte für irgendwelche Rechenaufgaben mißbrauchen oder ähniches, von daher ist das nicht wirklich relevant...

Da wiegt 3DC schon fast schwerer, ebenso das bessere FSAA, die atm besseren Treiber (bzw bessere Spielekompatiblität) usw.

Gast
2004-11-11, 17:33:57
Ganz schwer wiegt das bei beiden versaute AF. ;)

Aths Wandel bezüglich der früher geforderten Lehrbuch-Filterung bleibt allerdings ein Rätsel.

MechWOLLIer
2004-11-11, 17:43:12
mhm, also das solch hohen Settings in Verbindung mit AF dem NV40 nicht gefallen weiß ich langsam:)
und 1600x1200 halte ich bei beiden Karten schon für gebräuchliche Auflösungen, da man sie meistens problemlos fahren kann. und passende Monitore sind auch keine Seltenheit mehr.

Was mich mal sehr interessieren würde: Wie würden die Ergebnisse ausfallen, wenn beide Karten mit 1600x1200, 4xAA aber ohne AF antreten würden.

DiGiTaL
2004-11-11, 19:38:11
@CompEx

Hier ist alles beschreiben, wie man in die Console kommt:

http://www.tribes-3.de/faq/3/

rince
2004-11-11, 19:56:02
Die Geschichte wiederholt sich.

ATi braucht Marktanteile und versucht durch höhere Taktraten und abgespecktere Features mehr FPS zu haben um marketingmäßig besser dazustehen wie nvidia.

Weniger Features bringen einen Marketingvorteil? Wär mir neu

Nvidia baut technisch bessere Grafikkarten, klammert sich nicht an die (schlechteren) M$ Spezifikationen von DirectX und hat deswegen weniger FPS.

Haben "technisch bessere Grafikkarten" denn weniger fps?

Dadurch geringerer Stromverbrauch, weniger Verlustleistung, kein so dicker Lüfter, nur ein Stromanschluss.

So soll es sein. Oder ist das auch böse? :crazy:

Keine Frage, ATi schafft es den Kunden zu überzeugen durch ein auf M$ Produkte zugeschnittenes Produkt ;)

Für welches BS werden denn Spiele entwickelt?


Sowas dämliches, zusammenhangloses und widersprüchliches hab ich selten in einem Beitrag gelesen. Überleg beim nächsten posting, ob dass was su schreibst überhaupt Sinn macht.

betasilie
2004-11-11, 20:36:10
Weniger Features bringen einen Marketingvorteil? Wär mir neu
Doch, wenn die Features nix in Spielen bringen und die low-feature karten schneller sind.

Haben "technisch bessere Grafikkarten" denn weniger fps?

Im Fall vom NV40 ja.

Features kosten Transistoren, die den Takt runterdrücken.

Sowas dämliches, zusammenhangloses und widersprüchliches hab ich selten in einem Beitrag gelesen. Überleg beim nächsten posting, ob dass was su schreibst überhaupt Sinn macht.
Nun, man sollte immer erst vor der eigenen Tür kehren. ;)

Quasar
2004-11-11, 20:58:07
Toll...

Was bringt mir das als Gamer?!


HDR in Far Cry bsw.

rince
2004-11-11, 23:12:03
Features kosten Transistoren, die den Takt runterdrücken.

Jo, aber das Feature(ps3 nv40) bringt sowieso nur Geschwindigkeit. Genauso wie Taktvorteil(x800) eben auch. Und die technisch (technologisch vll. nicht) bessere Karte ist für mich die, die höhere Framezahlen liefert und - nebenbei noch weniger Strom zieht, weniger Warm wird und damit auch leiser gekühlt werden kann - und das ist die x800.

Gast
2004-11-11, 23:34:25
@CompEx: Wie versprochen kommt heute der Screen NFSU2 Demo 1600x1200 4xFSAA 8xAF Blureffekt aus ansonsten alles auf Very High
Treiber Fw 66.93 HighQuality Optimierungen aus!

http://img67.exs.cx/img67/224/nfsu2_1.jpg

betasilie
2004-11-12, 00:04:11
Jo, aber das Feature(ps3 nv40) bringt sowieso nur Geschwindigkeit. Genauso wie Taktvorteil(x800) eben auch. Und die technisch (technologisch vll. nicht) bessere Karte ist für mich die, die höhere Framezahlen liefert und - nebenbei noch weniger Strom zieht, weniger Warm wird und damit auch leiser gekühlt werden kann - und das ist die x800.
Das sehe ich für die meisten Kunden genauso.

saddevil
2004-11-12, 10:15:48
Klick mich! (http://www.de.tomshardware.com/graphic/20040616/ati-texturfilterung-01.html)



ich sag mal ..
das dürfte einiges erklären...
wenn die ATI immer optimierungen benutzt (was man nicht beeinflussen kann)
die NV dagegen ackern muss...
wurde das mittlerweile bei benches beachtet??

oder wird immernoch in MAX getestet??
das wäre unfair!
die NV würde voll TRI filtern und die ATI nur in der ertsen stage..
der rest nur BRI...

Tjell
2004-11-12, 11:08:26
ich sag mal ..
das dürfte einiges erklären...
wenn die ATI immer optimierungen benutzt (was man nicht beeinflussen kann)
die NV dagegen ackern muss...
wurde das mittlerweile bei benches beachtet??

oder wird immernoch in MAX getestet??
das wäre unfair!
die NV würde voll TRI filtern und die ATI nur in der ertsen stage..
der rest nur BRI...
Tombman z. B. hat bei ATi die "Optimierungen" aktiv gelassen - aber ebenso auch bei NV die "Optimierungen" angeschaltet.

Inwieweit in "echten" Reviews dies beachtet wird, kann man in den meisten Fällen nicht erklärt finden.

r@w
2004-11-12, 12:06:25
Tombman z. B. hat bei ATi die "Optimierungen" aktiv gelassen - aber ebenso auch bei NV die "Optimierungen" angeschaltet.Na klasse...
Also hat er "getestet" wie doll die beiden optimieren können...
:kotz:

Besser wäre es doch wohl gewesen, zu sehen, wie es tatsächlich mit der Performance bestellt ist, wenn man bei beiden die Optimierungen abschaltet (ATI = AI Off / nVidia = Hohe Qualität). Das wäre zwar noch immer nicht 100% vergleichbar, würde aber doch eher eine Basis für eine solche Behauptung stellen können...

So muss man das, was Tombamn da "gemessen" hat, leider als unfug abtun.

Inwieweit in "echten" Reviews dies beachtet wird, kann man in den meisten Fällen nicht erklärt finden.Steht in der Regel dabei...

Razor

r@w
2004-11-12, 12:13:35
Was bringt mir das als Gamer?!Wirst Du das auch fragen, wenn ATI mit dem SM3-Zeug kommt?

Aber auch ich hätte da eine Frage an Dich:
Was bringt mir ganz generell die "Weiterentwicklung" als Multimedia-Freak?
(und ja, Spielen gehört mit ca. 20% auch dazu ;-)

Ich hoffe mal, Du kommst darauf.

Ich will Bilder schnell auf dem Schirm haben, nicht die Karte für irgendwelche Rechenaufgaben mißbrauchen oder ähniches, von daher ist das nicht wirklich relevant...Und Du bist also das Maß der Dinge, was?
Mann, mann, mann...

Den Rest kommentiere ich mal lieber nicht.

Razor

r@w
2004-11-12, 12:15:22
und 1600x1200 halte ich bei beiden Karten schon für gebräuchliche Auflösungen, da man sie meistens problemlos fahren kann. und passende Monitore sind auch keine Seltenheit mehr.Echt?
100Hz bei 1600?
Und das auch noch zu erschwinglichen Preisen?
Wo?
:D

Würde mich wirklich intressieren!

Razor

betasilie
2004-11-12, 12:22:36
Echt?
100Hz bei 1600?
Und das auch noch zu erschwinglichen Preisen?
Wo?
:D

Würde mich wirklich intressieren!

Razor
Jau, war ja klar, dass Du jetzt 85hz nicht als ergonomisch betrachtest. ;D

Mr. Lolman
2004-11-12, 12:41:55
Na klasse...
Also hat er "getestet" wie doll die beiden optimieren können...
:kotz:


Gerade bei den Textur Filtern mit Optimierungen anzusetzen ist garnicht nmal so unvernünftig. Bspw.: Meine Radeon 9700pro kann noch keine besonderen Filteroptimierungen, ausser die die schon in HW verbaut sind (Winkelabhängigkeit z.B.)

In 1600x1200 4xAA 16xFulltriAF hab ich in der Flatout Demo 23fps. (=absolut unspielbar) Wenn ich jetzt auf 4xbiAF runterschalte siehts (im Falle von Flatout) kaum schlechter aus, (bis auf 1 sichtbares mipmapband) dafür hab ich >40fps...

Und bevor ich perfekte Grafik habe, bevorzuge ich jedoch eher spielbare fps. (am besten wär natürlich beides), und ich wette der Grossteil der Leute sieht das hier genauso.

Wobei grad im Fall von NV es ja so ist, dass man eine Optimierung sogar aktiviert haben muss, dass die Grafik nicht mehr sol flimmert :)

Elrood
2004-11-12, 12:49:26
Ich glaube nen 120kHz CRT zu kaufen, sollte nicht das Problem sein, aber wer stellt sich in Zeiten von TFTs denn noch so ein 25kg Monster auf den Schreibtisch?!

seahawk
2004-11-12, 13:00:08
Wirst Du das auch fragen, wenn ATI mit dem SM3-Zeug kommt?

Aber auch ich hätte da eine Frage an Dich:
Was bringt mir ganz generell die "Weiterentwicklung" als Multimedia-Freak?
(und ja, Spielen gehört mit ca. 20% auch dazu ;-)

Ich hoffe mal, Du kommst darauf.

Und Du bist also das Maß der Dinge, was?
Mann, mann, mann...

Den Rest kommentiere ich mal lieber nicht.

Razor

Man muss aber davon ausgehen, dass der R520 eine ausreichend performante
Architektur bieten wird um SM3.0 wirklich zu nutzen.

Und zu dem Rest dürfte SP wohl für die Mehrheit der Kunden sprechen.

Quasar
2004-11-12, 13:01:54
Wobei grad im Fall von NV es ja so ist, dass man eine Optimierung sogar aktiviert haben muss, dass die Grafik nicht mehr sol flimmert :)

Erzähl'.....

StefanV
2004-11-12, 13:16:25
Wirst Du das auch fragen, wenn ATI mit dem SM3-Zeug kommt?

Aber auch ich hätte da eine Frage an Dich:
Was bringt mir ganz generell die "Weiterentwicklung" als Multimedia-Freak?
(und ja, Spielen gehört mit ca. 20% auch dazu ;-)

Ich hoffe mal, Du kommst darauf.
Und was hat das mit meiner Frage zu tun?!

Muss/sollte man sich nicht erstmal überlegen, ob man ein Feature wirklich braucht und dafür auf ein anderes verzichtet?!

In diesem Fall ists ganz klar:
man kann definitiv auf SM3 verzichten, das braucht atm kein Gamer.


Und Du bist also das Maß der Dinge, was?
Mann, mann, mann...
In diesem Fall:

Ja, definitiv.

r@w
2004-11-12, 13:16:53
Jau, war ja klar, dass Du jetzt 85hz nicht als ergonomisch betrachtest. ;DNa ja... OK... die Bildgröße hat selbstredend auch was damit zu tun.

Also präzisieren wir:
100Hz bei 1600x1200 bei mind. 22" zu erschwinglichen Preisen!
:D

Razor

ShadowXX
2004-11-12, 13:25:17
Man muss aber davon ausgehen, dass der R520 eine ausreichend performante
Architektur bietehn wird um SM3.0 wirklich zu nutzen.


Muss man das???

r@w
2004-11-12, 13:27:04
Und bevor ich perfekte Grafik habe, bevorzuge ich jedoch eher spielbare fps. (am besten wär natürlich beides), und ich wette der Grossteil der Leute sieht das hier genauso. Auf Kosten der BQ?
Niemals!

Und eine Frage: Du willst also keine "perfekte Grafik", stellst aber eine unsinnig hohe Auflösung, 4xAA und - und das ist wirklich grotesk in diesem Zusammenhang - auch noch AF ein? Mann-o-mann...

...aber dieses Thema hatten wir einfach schon zu oft - und wir werden hier ganz sicher nicht auf einen Konsenz kommen!

Razor

Tjell
2004-11-12, 13:28:51
Na klasse...
Also hat er "getestet" wie doll die beiden optimieren können...
:kotz:

Besser wäre es doch wohl gewesen, zu sehen, wie es tatsächlich mit der Performance bestellt ist, wenn man bei beiden die Optimierungen abschaltet (ATI = AI Off / nVidia = Hohe Qualität). Das wäre zwar noch immer nicht 100% vergleichbar, würde aber doch eher eine Basis für eine solche Behauptung stellen können...

So muss man das, was Tombamn da "gemessen" hat, leider als unfug abtun.

Steht in der Regel dabei...

Razor
Dein Urteil ist... übertrieben und ungerechtfertigt. Er hat bei ATI die Optimierungen, die per Registry deaktiviert werden müssen, nicht abgeschaltet.

In den meisten Reviews wird nicht wirklich sehr genau auf diese Einstellungen verwiesen.

r@w
2004-11-12, 13:30:15
Man muss aber davon ausgehen, dass der R520 eine ausreichend performante
Architektur bietehn wird um SM3.0 wirklich zu nutzen. SM3 wird auf der gf6 'wirklich' genutzt.
Oder meinst Du so etwas wie HDR, was auf den ATI's nicht einmal 'halbwegs' performant zu realisieren scheint?

Und zu dem Rest dürfte SP wohl für die Mehrheit der Kunden sprechen.Jo, klar... vor allem, wenn wir mal den OEM-Bereich mit einbeziehen.
Oder meinst Du einen speziellen "Kundenbereich"?
:confused:

Razor

Quasar
2004-11-12, 13:31:20
In diesem Fall ists ganz klar:
man kann definitiv auf SM3 verzichten, das braucht atm kein Gamer.


Falschaussage. Ohne SM3 und die damit in direktem Zusammenhang stehenden Techniken gibt's keine VTF-Wellen in Pacific Fighters.

ShadowXX
2004-11-12, 13:31:35
Und was hat das mit meiner Frage zu tun?!

Muss/sollte man sich nicht erstmal überlegen, ob man ein Feature wirklich braucht und dafür auf ein anderes verzichtet?!

In diesem Fall ists ganz klar:
man kann definitiv auf SM3 verzichten, das braucht atm kein Gamer.


Das mag für den Moment durchaus stimmen...aber wenn nV mit dem nv40 kein SM3.0 gebracht hätte, würde sich im Moment auch kein Programmierer damit beschäftigen (wie auch?).

Dann würde es zum Zeitpunkt des Erscheinens des r520 auch keine SM3.0 Games geben.

Hmmm....das würde dann bedeuten, dass SM3.0 dann zum Erscheinen des r520 auch nutzlos wäre und es kein Gamer gebrauchen könnte....also sparen wir es doch gleich ganz ein, incl. SM4.0 in WGF und bleiben Zeitlebens auf SM2.0 stehen.....

Irgendjemand muss irgendwann den ersten Schritt machen, damit überhaupt jemand mal änfängt sich damit zu beschäftigen...diesmal wars nV, mit nicht unbedingt der weltbesten (bzw. performantesten) Lösung...aber Sie deshalb zu bashen ist nonsens....

Wie hättest du reagiert, wenns andersherum gewesen wäre bzw. ATI beim r420 plötzlich SM4.0 präsentiert hätte...wäre es dann besser oder toller gewesen???

r@w
2004-11-12, 13:32:28
Dein Urteil ist... übertrieben und ungerechtfertigt. Er hat bei ATI die Optimierungen, die per Registry deaktiviert werden müssen, nicht abgeschaltet.Nein.

In den meisten Reviews wird nicht wirklich sehr genau auf diese Einstellungen verwiesen.Und die kann man dann auch meist in ihrem restlichen Inhalt voll und ganz vergessen. Aber immerhin bieten sie dann "mehr", als diesen Bench-Schrott. Unser Tombman hier bietet nur diesen und insofern...

Razor

r@w
2004-11-12, 13:36:23
In diesem Fall ists ganz klar:
man kann definitiv auf SM3 verzichten, das braucht atm kein Gamer.Also ich würde als "Gamer" nicht auf die wunderschönen HDR-Effekte verzichten wollen, wenn ich schon eine Karte der neuesten Generation kaufen muss.

Oder gehörst Du etwa zu der Sorte "Gamer", die am liebsten ganz ohne Bild speieln würden, wenn dies ginge, nur um damit maximale Peroformance zu erzielen? Dann braucht's wiederum überhaupt keine neue Hardware.

Damit schließt sich dann der Kreis zu meiner Argumentation.

Razor

Tjell
2004-11-12, 13:36:34
Ich glaube nen 120kHz CRT zu kaufen, sollte nicht das Problem sein, aber wer stellt sich in Zeiten von TFTs denn noch so ein 25kg Monster auf den Schreibtisch?!
Ich. Native Auflösung sucks.

Ich muß ständig Auflösungen ändern für verschiedene Dinge, und seien es Spiele, und da würde mir eine Maximal-/Optimal-Auflösung plus der darunter liegende interpolierte Kram sehr sauer aufstoßen.

MbMn.

seahawk
2004-11-12, 13:39:37
SM3 wird auf der gf6 'wirklich' genutzt.
Oder meinst Du so etwas wie HDR, was auf den ATI's nicht einmal 'halbwegs' performant zu realisieren scheint?

Abgesehen von der unzumutbar langsamen Anwendung in FC 1.3 wird es heute kaum genutzt. Ich betrachte dieses Feature also als für den Spieler (nicht den Entwickler) sinnlos.


Jo, klar... vor allem, wenn wir mal den OEM-Bereich mit einbeziehen.
Oder meinst Du einen speziellen "Kundenbereich"?
:confused:
Razor

Retailkunden. Der OEM Bereich hat uns auch schon Geschenke wie die DX9-Karte FX500 gebracht, was ja eigentlich wirklich nur ein Scherz gewesen ist.

NV hat imho eine Tendenz über nutzlose Features eine Überlegenheit der Karte vorzutäuschen die nicht wirklich vorhanden ist.
Die fing imho mit dem 32Bit Rendering bei dem TNT an und reicht bis zum NV40 mit SM3.0. Alle diese Features waren frühstens mit der nächsten oder übernächsten Generation in realen Spielen praktisch nutzbar.

So gesehen dürfte SM3.0 erst mit dem R520 bzw. NV50 für den Spieler wichtig werden.

Mr. Lolman
2004-11-12, 13:40:31
Auf Kosten der BQ?
Niemals!

Und eine Frage: Du willst also keine "perfekte Grafik", stellst aber eine unsinnig hohe Auflösung, 4xAA und - und das ist wirklich grotesk in diesem Zusammenhang - auch noch AF ein? Mann-o-mann...

...aber dieses Thema hatten wir einfach schon zu oft - und wir werden hier ganz sicher nicht auf einen Konsenz kommen!

Razor

Stimmt. Aber auf nem 21" CRT Monitor (hab ich so herumstehen, ich verwend lieber den 19" TFT) ist 1600x1200 nunmal ne angenehme Auflösung. Und mich stört halt das Kantenflimmern (v.a bei stark kontrastigen Kanten) weitaus mehr als ein Mipband was ich vielleicht mal zufällig irgendwo entdecke.Deswegen 4xAA/biAF und nicht 2xAA/triAF.

Und auch in 1600x1200 4xAA/biAF ist die Grafik nunmal nicht perfekt (sondern nur sehr gut). Ausserdem, hab ich nicht geschreiben, dass ich keine perfekte Grafik will; klar will ich die, aber dafür nehm ich keinen fps Verlust von 50% in Kauf.

Aber du hast schon recht: wir werden hier ganz sicher nicht auf einen Konsenz kommen!

Wishnu
2004-11-12, 13:48:13
Abgesehen von der unzumutbar langsamen Anwendung in FC 1.3 wird es heute kaum genutzt. Ich betrachte dieses Feature also als für den Spieler (nicht den Entwickler) sinnlos.


Ich denke so kommen wir nicht weiter. Es gibt eben Spieler, die für ein Eye-Candy ruckeln in Kauf nehmen, und andere, die lieber auf ein bisschen Grafikpracht verzichten und das Spiel flüssig spielen. Ich persönlich gehöre zu letzteren, da ich mich an den Candies recht schnell satt sehe und dann lieber ohne Ruckeln spiele (zumindest in shootern).

BK-Morpheus
2004-11-12, 13:48:21
Ich finde (außer bei der r8500) das biAF echt ganz gut und im Verhältnis Qualität/Leistungseinbuße bevorzuge ich eigentlich immer biAF.

ShadowXX
2004-11-12, 13:48:43
Abgesehen von der unzumutbar langsamen Anwendung in FC 1.3 wird es heute kaum genutzt. Ich betrachte dieses Feature also als für den Spieler (nicht den Entwickler) sinnlos.


Als ich kann auf meiner 6800Ultra momentan genausogut mit HDR daddeln wie früher auf meiner 9800Pro ohne alles (bis auf 4xAF).


So gesehen dürfte SM3.0 erst mit dem R520 bzw. NV50 für den Spieler wichtig werden.

Ja, aber auch nur deshalb, weil es jetzt schon , dank nV, Entwickler gibt, die sich mit SM3.0 beschäftigen können....

Wenn SM3.0 erst mit r520/nv50 gekommen wären, würde es auch erstmal bis zur nächsten GraKa-Generation dauern, bis Games damit erscheinen....
(Einfach durch die Entwicklungszeit)

Gast
2004-11-12, 13:50:54
NV hat imho eine Tendenz über nutzlose Features eine Überlegenheit der Karte vorzutäuschen die nicht wirklich vorhanden ist.
Die fing imho mit dem 32Bit Rendering bei dem TNT an und reicht bis zum NV40 mit SM3.0. Alle diese Features waren frühstens mit der nächsten oder übernächsten Generation in realen Spielen praktisch nutzbar.

Ich kaufe mir lieber ein Auto, daß 20% weniger Endgeschwindigkeit hat, dafür aber einen Rückwärtsgang bietet.
Klar, auf Autobahnen darf man ihn nicht benutzen, auf Landstraßen nutzt er eher selten, aber in der Stadt und besonders beim Einparken, ist er höchst wertvoll.

Sicher, wenn man viel Übung hat, kann man auch mit Gaspedal und Handbremse einparken.... ;)

Tjell
2004-11-12, 13:51:55
Habt Ihr, die Ihr an den (theoretischen) Fähigkeiten der NV30, 35 und 38 zweifelt, schon einmal das hier (http://www.tomshardware.com/hardnews/20040902_135943.html) gelesen?

Eine Software-Firma namens BionicFX (http://www.bionicfx.com/) entwickelt, um es in Kürze zu sagen, ein Programm, das die Shaderfähigkeiten der FX-Karten dazu nutzt, um DSP-Effekte in Studioqualität zu berechnen.

Später sollen sogar beliebige Arten Software auf die Rechenfähigkeiten der FX-spezifischen Shader zugreifen können. Eine Art "kleiner Supercomputer".

Dieselben (noch besseren Fähigkeiten) stecken auch in den NV4x.

betasilie
2004-11-12, 13:52:50
Also ich würde als "Gamer" nicht auf die wunderschönen HDR-Effekte verzichten wollen, wenn ich schon eine Karte der neuesten Generation kaufen muss.
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:

Wishnu
2004-11-12, 13:53:51
Ja, aber auch nur deshalb, weil es jetzt schon , dank nV, Entwickler gibt, die sich mit SM3.0 beschäftigen können....

Wenn SM3.0 erst mit r520/nv50 gekommen wären, würde es auch erstmal bis zur nächsten GraKa-Generation dauern, bis Games damit erscheinen....
(Einfach durch die Entwicklungszeit)

Es geht doch hier nicht um den generellen Nutzen von SM3, sondern darum, ob das derzeit schon ein Kaufgrund ist, oder nicht.
Dass SM3 die Zukunft darstellt, steht doch ausser Frage (ist ja schließlich in DX implementiert).

BK-Morpheus
2004-11-12, 13:54:45
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:
Mal abgesehen davon, dass ich einige HDR Screenshots eher schlecht/übertrieben als schön finde, gibt es HDR glaube ich auch noch bei Painkiller.

Mr. Lolman
2004-11-12, 13:55:22
Ich finde (außer bei der r8500) das biAF echt ganz gut und im Verhältnis Qualität/Leistungseinbuße bevorzuge ich eigentlich immer biAF.
Und sooo viel schlechter ist das 8500 AF auch wieder nicht. Die Winkelabhänigkeit hat ne 45° + n*90° Schwäche* und nicht ne 22.5° + n*45°.


Jedenfalls glaub ich nicht, dass irgendein GF4 User, Mafia in 1280x1024x32 mit 8xAF gespielt hat. :D



* ok sind nicht genau 45° und 22.5°, aber ca. kommt das schon hin. Auf jeden Fall reichts um die AF Techniken zu illustrieren

betasilie
2004-11-12, 13:56:59
Mal abgesehen davon, dass ich einige HDR Screenshots eher schlecht/übertrieben als schön finde, gibt es HDR glaube ich auch noch bei Painkiller.
Nun, wenn Painkiller die Lichteffekte mit HDR macht, dann ist kein Argument für den NV40, denn dort ist der R420 um einiges schneller.

Tjell
2004-11-12, 13:57:07
...
Und mich stört halt das Kantenflimmern (v.a bei stark kontrastigen Kanten) weitaus mehr als ein Mipband was ich vielleicht mal zufällig irgendwo entdecke.
...
*sing* Surfin' USA *sing*

Entschuldige, das Lied hab ich gestern noch gehört und bei Deinem Satz mußte ich daran denken und es loswerden.

Keine Kritik. Jeder so, wie er mag. :smile:

Wishnu
2004-11-12, 13:57:34
Eine Software-Firma namens BionicFX (http://www.bionicfx.com/) entwickelt, um es in Kürze zu sagen, ein Programm, das die Shaderfähigkeiten der FX-Karten dazu nutzt, um DSP-Effekte in Studioqualität zu berechnen.


Klingt für mich als Musiker sehr interessant.
Ich befürchte nur, dass die sich das richtig vergolden lassen. Mal schauen.

BvB123
2004-11-12, 14:02:11
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:


Hmm Ich spiele es in 1280*1024 mit HDR und mit 8AF sehr flüssig

Tjell
2004-11-12, 14:02:44
Klingt für mich als Musiker sehr interessant.
Ich befürchte nur, dass die sich das richtig vergolden lassen. Mal schauen.
He estimates the price will be somewhere between $200-$800.Quelle: THG (siehe unten).

und
Q&A
1) Mac support? The Audio Unit specification is being researched to determine if AVEX will run on Apple computers. The importance of the Mac to the audio community is clearly understood and developments will be posted here.

2) ATI support? The latest video cards from ATI may not support AVEX due to numeric limitations in the graphics pipeline. Testing is underway and findings will be posted here in the future.

3) NVIDIA support? Yes! AVEX is being developed on GeForce 6800 from eVGA. The entire graphic pipeline of the latest NVIDIA cards is 32-bit. NVIDIA cards are designed to rock!
Quelle: BionicFX (http://www.bionicfx.com)

betasilie
2004-11-12, 14:04:47
Hmm Ich spiele es in 1280*1024 mit HDR und mit 8AF sehr flüssig
Sehr seltsam, ich habe da ganz andere Sachen über die Performance gelesen. Du schienst wohl ne Wunderkarte zu haben. :|

r@w
2004-11-12, 14:09:08
Abgesehen von der unzumutbar langsamen Anwendung in FC 1.3 wird es heute kaum genutzt. Ich betrachte dieses Feature also als für den Spieler (nicht den Entwickler) sinnlos. Ah ja...
Meinst Du jetzt den Spieler, der auch gerne mal stehen bleibt und sich mal umschaut... oder eher den Spieler, der am liebsten das ganze Bild abschalten würde, wenn es was 'bringt'?

Such Dir was aus.

Und was soll bitte ein Entwickler ohne (echte, verfügbare) Hardware machen?
Oh ja... ich verstehe... nichts selbstverständlich.

Fragt sich, wofür wir überhaupt SM2 brauchen...

Retailkunden. Der OEM Bereich hat uns auch schon Geschenke wie die DX9-Karte FX500 gebracht, was ja eigentlich wirklich nur ein Scherz gewesen ist. Du meinst wohl die FX5200... hoffe ich doch.
Auch werkelt eine solche (passiv gekühlte) Karte in meinem HTPC.
Was soll denn daran bitte schlecht sein?
:confused:

Und stell Dir vor... mit der FX5200 hat nVidia richtig Geld gemacht!
Der Retail-Markt ist hier (im Geamtvolumen), der eher unwichtige Teil.

Und... die FX5200 hat ganz entscheidend zur Verbreitung des SM2 beigetragen und damit die Plattform geschaffen, auf der sich überhaupt erst die Vielfalt an darauf basierenden Engines entwickeln konnte.

NV hat imho eine Tendenz über nutzlose Features eine Überlegenheit der Karte vorzutäuschen die nicht wirklich vorhanden ist. Gut, dass Du hier das 'IMO' dazu gesetzt hast... ;)

Die fing imho mit dem 32Bit Rendering bei dem TNT an und reicht bis zum NV40 mit SM3.0. Alle diese Features waren frühstens mit der nächsten oder übernächsten Generation in realen Spielen praktisch nutzbar. Und diese 'realen' Spiele gab es genau weswegen?
Denk' mal darüber nach...

So gesehen dürfte SM3.0 erst mit dem R520 bzw. NV50 für den Spieler wichtig werden.Nein.
Denn Spieler werden nur deswegen etwas von SM3 mit der R520 und dem NV50 haben, weil der NV40 >JETZT< dieses Feature unterstützt. Ohne Verbreitung keine Spiele... so einfach ist das.

Aber offenbar funktioniert das Marketing seitens ATI recht gut bei Dir!
:D

Razor

r@w
2004-11-12, 14:11:07
Aber du hast schon recht: wir werden hier ganz sicher nicht auf einen Konsenz kommen!Dabei sollten wir es erst einmal belassen, gell?
:)

Razor

Tjell
2004-11-12, 14:12:05
Sehr seltsam, ich habe da ganz andere Sachen über die Performance gelesen. Du schienst wohl ne Wunderkarte zu haben. :|
Ist durchaus möglich (http://www.hardocp.com/article.html?art=Njc4LDQ=), daß BvB123 daß Spiel flüssig erscheint.

r@w
2004-11-12, 14:15:09
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?Irgendwie scheint da etwas an 'Deiner' Realität vorbei zu gehen...
;)

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:Nun werd' mal nicht polemisch...
Konzentrier Dich doch bitte lieber auf inhaltliche Korrektheit Deiner Postings.

Razor

Tjell
2004-11-12, 14:19:28
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:
Nunja, vielleicht gehörst Du dann zu der diametral entgegengesetzten Gruppe der Leute, die statt optischer Schmankerl lieber 60 FPS und mehr gerendert wissen wollen?

Im Übrigen schließe ich mich meinem Vorredner Razor an.

ShadowXX
2004-11-12, 14:21:56
LOL. Wo gibt es denn HDR in Spielen, außer in FarCry, wo man die Aulösung auf 1024*768 runterschrauben muss und auf AA und AF verzichten muss?

Klar, da kann dann dein Monitor 130hz. Das ist natürlich wichtiger. :rolleyes:

Läuft bei mir mit 1280x1024...und 4xAF...und das wie erwähnt in der Performance die ich vorher mit meiner alten 9800Pro mit 4xAF hatte....

betasilie
2004-11-12, 14:25:21
Läuft bei mir mit 1280x1024...und 4xAF...und das wie erwähnt in der Performance die ich vorher mit meiner alten 9800Pro mit 4xAF hatte....
Ok, dann hatte ich da flasche Informationen.

Das ist dann doch recht passabel. :)

Weiß jemand welche kommenden Games HDR unterstützen?

Nutzt Painkiller2 HDR? Imo sieht das doch eher nach Glow und Bloom aus, da sich die Kontrastverhältnisse nicht wirklich ändern. Außerdem ist NV da ja um einges langsamer, was dann ja auch nciht passen sollte.

betasilie
2004-11-12, 14:27:07
Nun werd' mal nicht polemisch...
Konzentrier Dich doch bitte lieber auf inhaltliche Korrektheit Deiner Postings.

Razor
*hüst* Das sagst gerade Du? :O ... :uclap:

DrFreaK666
2004-11-12, 14:38:15
...
Ja, aber auch nur deshalb, weil es jetzt schon , dank nV, Entwickler gibt, die sich mit SM3.0 beschäftigen können....
...

Was heisst hier dank nv?? Lange bevor der NV40 auf dem Markt war gab es erste PS3.0-Demos von Power Vr

http://www.pvrdev.com/pub/PC/eg/index.htm

Datum: 31.10.2003 :wink:

Dunkeltier
2004-11-12, 14:39:32
Also ich würde als "Gamer" nicht auf die wunderschönen HDR-Effekte verzichten wollen, wenn ich schon eine Karte der neuesten Generation kaufen muss.

Oder gehörst Du etwa zu der Sorte "Gamer", die am liebsten ganz ohne Bild speieln würden, wenn dies ginge, nur um damit maximale Peroformance zu erzielen? Dann braucht's wiederum überhaupt keine neue Hardware.

Damit schließt sich dann der Kreis zu meiner Argumentation.

Razor


Ja supi, dann haste ein aufgrund des Effekts unspielbares Spiel. Da verzichte lieber auf HDR, und nehme konstant hohe FPS-Zahlen in kauf. Zumal ich sowieso immer mit VSync an spiele, und daher mindestens 85 FPS brauche weils ansonsten die nächste Ruckelorgie gibt...

Quasar
2004-11-12, 14:41:41
Hmm Ich spiele es in 1280*1024 mit HDR und mit 8AF sehr flüssigSehr seltsam, ich habe da ganz andere Sachen über die Performance gelesen. Du schienst wohl ne Wunderkarte zu haben. :|
ShadowXX anscheinend auch - die beiden müssen ein Glück haben...

Andererseits - wenn Beta recht hat und der Leistungseinbruch kaum zu verkraften ist und damit die Existenzberechtigung der nV40 in Frage gestellt ist...
Als ich kann auf meiner 6800Ultra momentan genausogut mit HDR daddeln wie früher auf meiner 9800Pro ohne alles (bis auf 4xAF).

... was ist dann mit der 9800p?

ShadowXX
2004-11-12, 14:41:54
Ok, dann hatte ich da flasche Informationen.

Das ist dann doch recht passabel. :)

Weiß jemand welche kommenden Games HDR unterstützen?

Nutzt Painkiller2 HDR? Imo sieht das doch eher nach Glow und Bloom aus, da sich die Kontrastverhältnisse nicht wirklich ändern. Außerdem ist NV da ja um einges langsamer, was dann ja auch nciht passen sollte.

No Problemo....man sollte natürlich erwähnen, das es so auf einer 6800 Ultra läuft, darum verstehe ich durchaus, wenn jemand mängel in der Performance erwähnt.

Allerdings hat Demi in einem anderen Thread auch schon erwähnt, das die Methode, wie Crytek das HDR im Patch1.3 realisiert hat, wohl eher als suboptimal anzusehen ist....Was allerdings wohl auch daran liegt, das es eben "reingepatched" werden musste.
Könnte also durchaus sein, das bei einer von anfang an konzipierten HDR-Darstellung das ganze auch mit GTs vernünftig laufen könnte.

Zu HDR/MDR allgemein....mann sollte da immer unterscheiden wie dieses und wo dieses Realisiert wird...das bei Painkiller würde ich nicht wirklich als HDR ansehen....der grosse Performancedrop bei den 6800Ultras liegt bei der FC implementation ja auch wohl daran, das Sie in den 64Bit-Framebuffer rendern und auch beim Blending FP16 benutzen (darum auch kein AA).

Das man das ganze auch anders und Resourcensparender implementieren könnte, bestreitet wohl auch niemand....wenn mans mit AA vergleichen würde, hat Crytek sozusagen die Supersampling-Methode anstatt Multisampling benutzt (und jetzt bitte keine Haue von den Gurus für den etwas (extrem) groben vergleich).

Und glaub mir betareverse, ich hätte mich gefreut, wenn Crytek eine Methode benutzt hätte, die auch auf ATI-Karten funktioniert, da ich keinen der beiden Hersteller wirklich bevorzuge....im Moment würde ich z.B. sagen, das meine nächste Karte wohl eine mit r520-Chip werden wird....

ShadowXX
2004-11-12, 14:44:20
Was heisst hier dank nv?? Lange bevor der NV40 auf dem Markt war gab es erste PS3.0-Demos von Power Vr

http://www.pvrdev.com/pub/PC/eg/index.htm

Datum: 31.10.2003 :wink:

Gibts von PVR eine Karte mit SM3.0 Support zu kaufen???? Wohl nur für Automaten (als Chip) und diese Jungs Entwickeln wohl kaum für PCs....

ShadowXX
2004-11-12, 14:46:01
... was ist dann mit der 9800p?

???....die ist Verkauft, oder meintest du warum ich die 9800Pro mit ins Spiel bringe??

Sollte nur als Vergleich der Spielbarkeit in HDR herhalten, da man mit einer 9800Pro ja durchaus ordentlich FC spielen kann....

MechWOLLIer
2004-11-12, 14:46:42
Echt?
100Hz bei 1600?
Und das auch noch zu erschwinglichen Preisen?
Wo?

Ich gib mich bereits mit 85Hz in 1600x1200 zufrieden, dass reicht mir:D
Und davon gibts dann tgenug Bildschirme.
Ja supi, dann haste ein aufgrund des Effekts unspielbares Spiel. Da verzichte lieber auf HDR, und nehme konstant hohe FPS-Zahlen in kauf. Zumal ich sowieso immer mit VSync an spiele, und daher mindestens 85 FPS brauche weils ansonsten die nächste Ruckelorgie gibt...
Das problem ist nunmal, dass Far Cry mit HDR NICHT unspielbar ist. Es läuft recht gut in 1280x1024 mit 4xAF und sieht dank HDR mal anders aus als andere Spiele.

Gast
2004-11-12, 15:06:03
Sehr seltsam, ich habe da ganz andere Sachen über die Performance gelesen. Du schienst wohl ne Wunderkarte zu haben. :|


Das war einmal. Die Performance unter dem neuen 66.93 ist deutlich besser.

DrFreaK666
2004-11-12, 15:08:22
Gibts von PVR eine Karte mit SM3.0 Support zu kaufen???? Wohl nur für Automaten (als Chip) und diese Jungs Entwickeln wohl kaum für PCs....

Wollte damit nur sagen, dass wir SM3.0 nicht Nv verdanken.
NV verdanken wir eher die schnellere Verbreitung dessen

r@w
2004-11-12, 15:09:54
Ja supi, dann haste ein aufgrund des Effekts unspielbares Spiel. Da verzichte lieber auf HDR, und nehme konstant hohe FPS-Zahlen in kauf. Zumal ich sowieso immer mit VSync an spiele, und daher mindestens 85 FPS brauche weils ansonsten die nächste Ruckelorgie gibt...Wus?
Was'n' das'n für'n Schnurz?
:confused:

Wieso bedeuten 47,5fps 'ruckeln' bei Dir?
Und wieso sind 40+fps bei Dir 'unspielbar'?
Und warum muss man immer mit vSync auf 'On' spielen, um glücklich zu sein?

Also irgendwie...

Mir geht Qualität IMMER und überall VOR Performance.
Klar, 5fps finde ich auch nicht sonderlich berauschend, aber alles, was über 25fps bleibt ist schlicht 'ruckelfrei'.

Razor

ShadowXX
2004-11-12, 15:11:09
Wollte damit nur sagen, dass wir SM3.0 nicht Nv verdanken.
NV verdanken wir eher die schnellere Verbreitung dessen

Naja...SM3.0 "verdanken" wir aber auch nicht PVR....wenn überhaupt, "verdanken" wir es MS.

Ist aber auch egal.....

Tjell
2004-11-12, 15:14:45
Wus?
Was'n' das'n für'n Schnurz?
:confused:

Wieso bedeuten 47,5fps 'ruckeln' bei Dir?
Und wieso sind 40+fps bei Dir 'unspielbar'?
Und warum muss man immer mit vSync auf 'On' spielen, um glücklich zu sein?

Also irgendwie...

Mir geht Qualität IMMER und überall VOR Performance.
...Andere Leute, andere Vorlieben. :cool:

...
Klar, 5fps finde ich auch nicht sonderlich berauschend, aber alles, was über 25fps bleibt ist schlicht 'ruckelfrei'.

RazorIm Allgemeinen (!) kann man bei wenig hektischen Spielen (Adventures, Rennsims, Flugsims o. Ä.) mit 25 FPS von einem ruckelfreien Spielvergnügen sprechen. Bei Actionkost à la Doom3, UT2004 usw. benötigt man üblicherweise eine höhere Framerate, außer in ruhigen Spielpassagen.

Quasar
2004-11-12, 15:15:02
???....die ist Verkauft, oder meintest du warum ich die 9800Pro mit ins Spiel bringe??

Sollte nur als Vergleich der Spielbarkeit in HDR herhalten, da man mit einer 9800Pro ja durchaus ordentlich FC spielen kann....

Vorab:
Beta hat ja jetzt eingeräumt, da wohl einer falschen Erinnerung aufgesessen zu sein, von daher hat sich's eh erledigt.

Ich wollte damit jedenfalls zum Ausdruck bringen, daß man aufgrund deiner Aussage, wenn man dem nV40 mit Far-Cry HDR die Existenzberechtigung abspricht, man konsequenterweise dasselbe auch für die R9800p (weil gleiche Performance) hätte tun müssen.

Komischerweise hiess es nur immer, Far Cry sei ganz toll auf Radeons spielbar.

r@w
2004-11-12, 15:16:18
Ich gib mich bereits mit 85Hz in 1600x1200 zufrieden, dass reicht mir:D
Und davon gibts dann tgenug Bildschirme.Na ja...
Ich hab's etwas erweitert (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2438510&postcount=76):

Na ja... OK... die Bildgröße hat selbstredend auch was damit zu tun.

Also präzisieren wir:
100Hz bei 1600x1200 bei mind. 22" zu erschwinglichen Preisen!
:D;D

Razor

ShadowXX
2004-11-12, 15:17:50
Vorab:
Beta hat ja jetzt eingeräumt, da wohl einer falschen Erinnerung aufgesessen zu sein, von daher hat sich's eh erledigt.

Ich wollte damit jedenfalls zum Ausdruck bringen, daß man aufgrund deiner Aussage, wenn man dem nV40 mit Far-Cry HDR die Existenzberechtigung abspricht, man konsequenterweise dasselbe auch für die R9800p (weil gleiche Performance) hätte tun müssen.

Komischerweise hiess es nur immer, Far Cry sei ganz toll auf Radeons spielbar.

OK....jetzt hab ichs verstanden....

r@w
2004-11-12, 15:19:44
Wollte damit nur sagen, dass wir SM3.0 nicht Nv verdanken.
NV verdanken wir eher die schnellere Verbreitung dessenHuh?
Ich glaube auch kaum, dass dies hier irgend jemand behauptet hat!
Allerdings werden sie mirgewirkt haben, wie ImgTech und ATI und wer-auch-immer...

Die Verbreitung vom SM3 wird allerdings wie zuvor auch schon SM2 tatsächlich nVidia verdanken zu sein.
Was ist auch so schlimm daran?
:confused:

Razor

Wishnu
2004-11-12, 15:21:42
Und... die FX5200 hat ganz entscheidend zur Verbreitung des SM2 beigetragen und damit die Plattform geschaffen, auf der sich überhaupt erst die Vielfalt an darauf basierenden Engines entwickeln konnte.


Schade nur, dass man bei besagter Karte auf einen Fallback nach SM1 angewiesen ist, damits überhaupt noch spielbar ist... ;)

Mr. Lolman
2004-11-12, 15:22:33
Na ja...
Ich hab's etwas erweitert (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2438510&postcount=76):

;D

Razor

OT: Ists nicht so dass 22" Monitore meist nur ein grösseres Gehäuse haben, während die sichtbare Bilddiagonale fast gleich mit 21" Monitoren ist?

DrumDub
2004-11-12, 15:26:59
Naja...SM3.0 "verdanken" wir aber auch nicht PVR....wenn überhaupt, "verdanken" wir es MS.

nein. ms hat nur der standard sm 3.0 zusammen mit den beteiligten firmen definiert. was pvr mit seinen sm 3.0 demos geziegt hat, geht soweit ich weiß über die fähigkeiten des nv40 hinaus. edit: dies ist falsch, da die pvr demos auch auf dem nv40 laufen. danke für die info, quasar. :)
bei sm 2.0 war ati federführend bzw. man hat sich von dem r300 atis überzeugen lassen. bei sm 3.0 ist eben nvidia derjenige, der die hw mit dem nv40 zuerst liefern konnte und dessen konzept überzeugte: http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

r@h
2004-11-12, 15:29:36
Andere Leute, andere Vorlieben. :cool: Jau!
:ugly:

Im Allgemeinen (!) kann man bei wenig hektischen Spielen (Adventures, Rennsims, Flugsims o. Ä.) mit 25 FPS von einem ruckelfreien Spielvergnügen sprechen. Bei Actionkost à la Doom3, UT2004 usw. benötigt man üblicherweise eine höhere Framerate, außer in ruhigen Spielpassagen.Nein... eigentlich kann man IMMER bei über 25fps von einem ruckelfreien Spielvergnügen sprechen.
Es darf halt nur nicht darunter fallen (= 'ruckeln').

Und bei Online-Spielern kann es gar nicht genug fps geben, das ist klar!
Da reichen dann aber auch keine 60fps, sondern es sollten schon über 100 sein... wenn nicht mehr. Und da wird dann selbstredend auf so etwas wie AA und AF verzichtet (auch mit heutigen High-End-Karten ;-)... oder aber zumindest die Quali soweit reduziert, dass es dann paßt.

Die 'perversesten' Ausgeburten sind hier noch immer tatsächlich solche Dinge, wie sie dann z.Bsp. Lolman treibt (und hier bitte 'pervers' in Bezug auf meine Einstellung verstehen!), so dass zwar AF aktiviert wird, dies dann aber auf eine (für mich!) unannehmbare Qualität herunter gesetzt wird... aber ich wollte das ja lassen.

Egal... wie Du schon meintest...
"Andere Leute, andere Vorlieben."

Gell?
;)

Razor

r@w
2004-11-12, 15:31:41
Schade nur, dass man bei besagter Karte auf einen Fallback nach SM1 angewiesen ist, damits überhaupt noch spielbar ist... ;)Ich hoffe nur, dass Du wenigstens verstanden hast, was ich damit zum Ausdruck bringen wollte...

Razor

Mr. Lolman
2004-11-12, 15:32:24
Irgendwie glaub ich, mich rechtfertigen zu müssen. Moment...

r@w
2004-11-12, 15:33:14
OT: Ists nicht so dass 22" Monitore meist nur ein grösseres Gehäuse haben, während die sichtbare Bilddiagonale fast gleich mit 21" Monitoren ist?Jain... aber das würde hier wirklich zu weit führen...

Razor

P.S.: sonst fang ich noch an, hier öffentlich von einem 24" Breitbild-Moni zu träumen!
:D

ShadowXX
2004-11-12, 15:34:04
nein. ms hat nur der standard sm 3.0 zusammen mit den beteiligten firmen definiert. was pvr mit seinen sm 3.0 demos geziegt hat, geht soweit ich weiß über die fähigkeiten des nv40 hinaus.
bei sm 2.0 war ati federführend bzw. man hat sich von dem r300 atis überzeugen lassen. bei sm 3.0 ist eben nvidia derjenige, der die hw mit dem nv40 zuerst liefern konnte und dessen konzept überzeugte: http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

Das ist klar....nur ohne die implementation von SM3.0 in DX9(c) würde es das überhaupt nicht geben....das das SM3.0 in DX also benutzt werden kann verdanken wir im Endeffekt schon MS...

Aber das ist langsam Haarspalterei...Zusammengesetzt wurde SM3.0 natürlich aus den Vorschlägen verschiedener IHVs, wobei MS wohl immer das letzte Wort hat......

Wishnu
2004-11-12, 15:34:13
Jau!
:ugly:

Nein... eigentlich kann man IMMER bei über 25fps von einem ruckelfreien Spielvergnügen sprechen.
Es darf halt nur nicht darunter fallen (= 'ruckeln').


Wenn Motionblurr drin wäre, würde ich Dir recht geben.
Davon mal abgesehen ist mir die Maus in Shootern mit 25hz einfach zu ungenau (auch offline).

r@w
2004-11-12, 15:36:13
Irgendwie glaub ich, mich rechtfertigen zu müssen. Moment...Nein... sorry... bitte nicht!
Ich ziehe mein 'pervers' zurück...
*niederkniet*

Du bist mit den von Dir gewählten Einstellungen zufrieden, was auch absolut OK so ist.
Wir haben halt lediglich unterschiedliche Auffassungen...
OK so?

Razor

P.S. und OT: "...ein bissel Spaß muss sein..."... ;)
(-> nicht auf diesen Post bezogen!)

Wishnu
2004-11-12, 15:40:48
Ich hoffe nur, dass Du wenigstens verstanden hast, was ich damit zum Ausdruck bringen wollte...

Razor

Das alles, was Nvidia macht, toll ist? (sorry, aber Du fährst sowas von eingleisig, dass ich mir das nicht verkneifen konnte) ;)

Mr. Lolman
2004-11-12, 15:41:16
Irgendwie glaub ich, mich rechtfertigen zu müssen. Moment...

/edit2:

Hier stehts: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2439106&postcount=143

/edit:
Nein... sorry... bitte nicht!
Ich ziehe mein 'pervers' zurück...
*niederkniet*

Du bist mit den von Dir gewählten Einstellungen zufrieden, was auch absolut OK so ist.
Wir haben halt lediglich unterschiedliche Auffassungen...
OK so?

Razor

P.S. und OT: "...ein bissel Spaß muss sein..."... ;)
(-> nicht auf diesen Post bezogen!)

Sry, zu spät. Aber: Ich versteh auch voll und ganz deine Einstellung, auch wenn es mir schwerfällt sie nachzuvollziehen...

DrumDub
2004-11-12, 15:45:24
Das ist klar....nur ohne die implementation von SM3.0 in DX9(c) würde es das überhaupt nicht geben....das das SM3.0 in DX also benutzt werden kann verdanken wir im Endeffekt schon MS...

Aber das ist langsam Haarspalterei...Zusammengesetzt wurde SM3.0 natürlich aus den Vorschlägen verschiedener IHVs, wobei MS wohl immer das letzte Wort hat......

okay. wollen uns da ja auch nicht streiten. ;)
ohne ms und nv kein sm 3.0 in dx9.0c.
ms hat eben nur mit der entwicklung des sm 3.0 sehr wenig zu tun. die hauptleistung für das jetzige sm 3.0 liegt ganz klar bei nv, da es sich eben praktisch um cinefx 3.0 handelt: http://www.nvidia.com/object/feature_cinefx3.0.html

r@w
2004-11-12, 15:45:45
Wenn Motionblurr drin wäre, würde ich Dir recht geben.
Davon mal abgesehen ist mir die Maus in Shootern mit 25hz einfach zu ungenau (auch offline).Das ist doch mal ein ganz anderer Schnack!
(und gottlob hab' ich gleich Wochänändeeeeeee ;-)

Allerdings solltest Du nicht 25fps mit 25Hz vergleichen... oder schaltet Dein Moni etwa permanent zwischen den Frequenzen? Eine GraKa tut dies (wenn man sie läßt)...

Wenn jetzt allerdings die CPU limitiert (wie eben oft/meist in Online-Games), dann ist's natürlich schlecht. Aber da hilft dann auch die schnellste GraKa nicht mehr.

Razor

r@w
2004-11-12, 15:47:27
Das alles, was Nvidia macht, toll ist? Nein.
Also tätest Du offenbar gut daran, Dir den Kontext nochmal zu vergegenwärtigen...

Razor

Wishnu
2004-11-12, 15:47:31
Allerdings solltest Du nicht 25fps mit 25Hz vergleichen... oder schaltet Dein Moni etwa permanent zwischen den Frequenzen? Eine GraKa tut dies (wenn man sie läßt)...



Mit 25Hz meinte ich die effektive Abtastfrequenz. Hätte das vielleicht ein wenig weiter ausführen sollen, aber ich bin manchmal ein bissl schreibfaul. ;)

Mr. Lolman
2004-11-12, 15:47:41
Irgendwie glaub ich, mich rechtfertigen zu müssen. Moment...

Ich habs grad durchgetestet (bei Flat Out):

1024x768 4xAA 16x Quality AF: 41fps
1600x1200 4xAA 4xbiAF: 40fps

Du kannst dir denken, warum ichs lieber in 1600x1200 spielen würde. BTW: Die BQ mit 4xbiAF ist bei Flat Out selbst in 1024x768 schon ziemlich ok: http://img39.exs.cx/img39/8088/FlatOutDemo-2004-11-12-13-4.jpg

Andererseits würd ich ein Spiel wie "Uru" nie mit bi-AF spielen wollen; während ich in UT2004 gerne in 1280x1024 mit 4xAA/biAF höhere fps durch biAF akzeptiere, anstatt mich mit 1024x768 mit triAF und noch deutlich niedrigen fps zu begüngen.

/edit: Sry, sind nur 40fps. Die 46fps hab ich bei 1280x1024...

Tjell
2004-11-12, 15:47:55
Das ist klar....nur ohne die implementation von SM3.0 in DX9(c) würde es das überhaupt nicht geben....das das SM3.0 in DX also benutzt werden kann verdanken wir im Endeffekt schon MS...

Aber das ist langsam Haarspalterei...Zusammengesetzt wurde SM3.0 natürlich aus den Vorschlägen verschiedener IHVs, wobei MS wohl immer das letzte Wort hat......
DX9 mit SM2.0 wurde um den R300 herum designt.
NV40 wurde dem entgegen um (die Grundanforderungen von) DX9c/SM3.0 herum designt - wenn auch unter Mitwirkung.

Wishnu
2004-11-12, 15:48:44
Das ist doch mal ein ganz anderer Schnack!
(und gottlob hab' ich gleich Wochänändeeeeeee ;-)
Razor

Wisoooo?

Wishnu
2004-11-12, 15:53:29
Nein.
Also tätest Du offenbar gut daran, Dir den Kontext nochmal zu vergegenwärtigen...

Razor

siehe Klammeredit in besagtem Posting

r@w
2004-11-12, 15:56:52
Ich habs grad durchgetestet (bei Flat Out):

1024x768 4xAA 16x Quality AF: 41fps
1600x1200 4xAA 4xbiAF: 46fps

Du kannst dir denken, warum ichs lieber in 1600x1200 spielen würde. BTW: Die BQ mit 4xbiAF ist bei Flat Out selbst in 1024x768 schon ziemlich ok: http://img39.exs.cx/img39/8088/FlatOutDemo-2004-11-12-13-4.jpgIch hoffe inständig, dass Du nicht gerade versuchst, die offensichtlichen Nachteile von Bi-AF in Standbildern zu verdeutlichen (obwohl sie auch dort oft nachweisbar sind ;-).

Und wieso vergleichst Du jetzt gleich nochmal 16x mit 4x?
:confused:

Andererseits würd ich ein Spiel wie "Uru" nie mit bi-AF spielen wollen; während ich in UT2004 gerne in 1280x1024 mit 4xAA/biAF höhere fps durch biAF akzeptiere, anstatt mich mit 1024x768 mit triAF und noch deutlich niedrigen fps zu begüngen.Also ich spiele UT2004 eigentlich immer ohne AA und AF. Liegt aber eher daran, dass ich die Umgebung einfach schon zu oft gesehen habe und sie mich nicht mehr wirklich interessiert...

Da 'darfst' Du dann auch gerne mit biAF zocken!
:D

Sry, zu spät. Aber: Ich versteh auch voll und ganz deine Einstellung, auch wenn es mir schwerfällt sie nachzuvollziehen...Danke...
*knutsch*
;)

Razor

r@w
2004-11-12, 15:58:54
Mit 25Hz meinte ich die effektive Abtastfrequenz. Hätte das vielleicht ein wenig weiter ausführen sollen, aber ich bin manchmal ein bissl schreibfaul. ;)"Abtastfrequenz"?
Was genau meinst Du jetzt damit?
Hmmm...

Hoffentlich nicht die von Deiner Maus.
DARAN solltest Du dann wirklich ganz schnell etwas ändern...
:D

Razor

tombman
2004-11-12, 16:00:14
@ r@w

Hehe, muß schon weh tun, wenn immer mehr user draufkommen, daß meine sig Recht hat, gell? Da muß man dann auch gleich ´tombman´s Methoden zu benchen angreifen, auch wenn diese FAIR sind. (opt. ON @ all, bei Nvidia dafür nur qual. und nicht hq)

@topic, dabei darf man ned übersehen, daß die ATI sogar im Nachteil war wegen dem RELATIVEN Takt (die ati war underclocked, die nv overclocked) UND , daß ati nicht nur "ein bischen" schneller ist im Durchschnitt sondern sehr oft 30-50%! :eek: Einfach nur die scores genau ansehen.

Naja, we are borg, resistance IS futile :D

r@w
2004-11-12, 16:01:20
Wisoooo?Na ja... heute ist Freitag... 16:00... nix (wichtiges) mehr zu tun... und absolut keine Lust hier weiter rum zu hängen!
;D

Razor

r@w
2004-11-12, 16:04:05
siehe Klammeredit in besagtem PostingSchon klar...
Hast Du's denn jetzt verstanden?
:confused:

Oder bis Du wirklich der Meinung, dass ich die wahnsinnige SuperDuper-Performance einer FX5200 glorifizieren will/wollte? Nee... glaub' ich einfach nicht.

Razor

Wishnu
2004-11-12, 16:06:21
"Abtastfrequenz"?
Was genau meinst Du jetzt damit?
Hmmm...

Hoffentlich nicht die von Deiner Maus.
DARAN solltest Du dann wirklich ganz schnell etwas ändern...
:D

Razor

Doch, ich meine genau die Mäuseriche. ;)

Wenn ich 25fps habe, erhalte ich ja nur jede 1/25 Sekunde eine Rückmeldung in Bezug auf die Bewegungen meiner Maus (mit jeder Bewegung muss ja das Bild neu gerendert werden). Also habe ich eine effektive Abtastrate von 25Hz.
Oder stehe ich grade auf der Leitung? ;)

Gast
2004-11-12, 16:07:25
@ r@w

Hehe, muß schon weh tun, wenn immer mehr user draufkommen, daß meine sig Recht hat, gell? Da muß man dann auch gleich ´tombman´s Methoden zu benchen angreifen, auch wenn diese FAIR sind. (opt. ON @ all, bei Nvidia dafür nur qual. und nicht hq)

@topic, dabei darf man ned übersehen, daß die ATI sogar im Nachteil war wegen dem RELATIVEN Takt (die ati war underlclocked, die nv overclocked) UND , daß ati nicht nur "ein bischen" schneller ist im Durchschnitt sondern sehr oft 30-50%! :eek: Einfach nur die scores genau ansehen.

Naja, we are borg, resistance IS futile :D

Das die Ati X800XTPE durch ihren Takt leicht schneller ist war schon lange klar. Da braucht niemand deine Bemerkungen für zu lesen. Aber neuere Games wie Doom3 oder CS:Source sind auf der 6800 Ultra leicht schneller. Siehe die Firingsquad.com Benchmarks die ich für sehr glaubwürdig halte. Pauschalurteile ala die X800XTPE ist immer schneller sind völlig schwachsinnig.

Wishnu
2004-11-12, 16:09:09
Schon klar...
Hast Du's denn jetzt verstanden?
:confused:

Oder bis Du wirklich der Meinung, dass ich die wahnsinnige SuperDuper-Performance einer FX5200 glorifizieren will/wollte? Nee... glaub' ich einfach nicht.

Razor

Ne, ich wollte damit nur sagen, dass SM2 in Software genauso seinen Zweck erfüllt hätte (oder wo ist der Unterschied zu DX9 in Hardware, wenn beides zu lahm für DX9-Spiele ist?).

Mr. Lolman
2004-11-12, 16:19:16
Erzähl'.....

Naja, es gibts einige Berichte, lt denen die aktivierte "Trilineare Optimierung" für weniger Flimmern sorgt, als wenn sie deaktiviert ist....

r@w
2004-11-12, 16:20:35
Hehe, muß schon weh tun, wenn immer mehr user draufkommen, daß meine sig Recht hat, gell? Da muß man dann auch gleich ´tombman´s Methoden zu benchen angreifen, auch wenn diese FAIR sind. (opt. ON @ all, bei Nvidia dafür nur qual. und nicht hq)Na ja... wenn Du das wirklich als fair ansiehst.

Deine Sache!
Und meine, dies zu kommentieren.

Mach' einfach nochmal die gleichen Tests, nur ohne AA/AF (vor allem AF!) und ohne Optimierungen (nVidia=HQ, ATI=nonAI). Versuche damit dann Deine 'Hypothese' (und mehr ist es nicht) zu halten, bzw. zu untermauern.

Tust Du es nicht, ist dieser Test und die daraus gezogene Konsequenz noch wertloser, als so mach anderes Zeugs, welches hier so durchs Netz flattert.

Und um Dir nochmal meine Meinung zu vergegenwärtigen:
(die selbstredend Basis für das hier Gesagte ist)

Aufgrund der derzeitigen Situation (BQ!) bin ich nicht bereit in irgendwelche High-End-Hardware egal welchen IHV's zu invenstieren. Vermutlich werde ich mir noch dieses Jahr irgendwann wohl eine 6600GT mit 256MB auf AGP-Basis zulegen, einfach nur um auf dem aktuellen Stand der Technik zu bleiben (deswegen nVidia) und ganz gemütlich auf die nächste GraKa-Generation warten, die es hoffentlich versteht, wieder echte Qualität zu bieten.

Vermultich wird die 6600 dann splange ein ähnliches Schattendasein führen, wie derzeit meine R9800p...

Razor

Mr. Lolman
2004-11-12, 16:22:48
Ich hoffe inständig, dass Du nicht gerade versuchst, die offensichtlichen Nachteile von Bi-AF in Standbildern zu verdeutlichen (obwohl sie auch dort oft nachweisbar sind ;-).

Doch versuch ich. Denn wenn man das Mipmapband bei einem Standbild überhaupt nicht sieht, ist es sehr unwarhscheinlich, dass es einem bei Bewegung plötzlich störend auffällt


Und wieso vergleichst Du jetzt gleich nochmal 16x mit 4x?
:confused:


Weil 4xbi für mich in vielen Fällem akzeptable Texturqualität bietet und ich zeigen wollte, wie sehr man, im Vergleich dazu, die Auflösung runterschrauben muss, um mit hoch qualitativen AF die ähnliche fps zu erreichen.

r@w
2004-11-12, 16:24:49
Doch, ich meine genau die Mäuseriche. ;)

Wenn ich 25fps habe, erhalte ich ja nur jede 1/25 Sekunde eine Rückmeldung in Bezug auf die Bewegungen meiner Maus (mit jeder Bewegung muss ja das Bild neu gerendert werden). Also habe ich eine effektive Abtastrate von 25Hz.
Oder stehe ich grade auf der Leitung? ;)Ähmmm... ja, bzw. nein.
Ich hoffe nur inständig, dass Du nicht wirklich für alle 25 Bilder eine bewußte Rückmeldung durch Dein Auge brauchst...
:D

Mir ist schon klar, was Du sagen wolltest und ich habe auch entsprechend geantwortet.

Razor

r@w
2004-11-12, 16:26:39
Ne, ich wollte damit nur sagen, dass SM2 in Software genauso seinen Zweck erfüllt hätte (oder wo ist der Unterschied zu DX9 in Hardware, wenn beides zu lahm für DX9-Spiele ist?).Na ja...
fps und fph (für 'hour' ;-) ist schon ein Unterschied.
Meinst Du nicht?
:D

Razor

P.S.: Versuch' mal z.Bsp. HDR in Software berechnen zu lassen... ;)

Wishnu
2004-11-12, 16:31:04
Ähmmm... ja, bzw. nein.
Ich hoffe nur inständig, dass Du nicht wirklich für alle 25 Bilder eine bewußte Rückmeldung durch Dein Auge brauchst...
:D


Ich schalte beim Spielen grundsätzlich den Monitor ab, um Strom zu sparen... :D



Mir ist schon klar, was Du sagen wolltest und ich habe auch entsprechend geantwortet.
Razor

Ahja, dann war mir das offensichtlich zu hoch. ;)

Wishnu
2004-11-12, 16:33:19
Na ja...
fps und fph (für 'hour' ;-) ist schon ein Unterschied.
Meinst Du nicht?
:D

Razor

P.S.: Versuch' mal z.Bsp. HDR in Software berechnen zu lassen... ;)

Hm, 1fps (das käme wohl bei HDR raus) finde ich beim Zocken nicht wirklich erquickender als 1fph. ;)

r@w
2004-11-12, 16:33:21
Doch versuch ich. Denn wenn man das Mipmapband bei einem Standbild überhaupt nicht sieht, ist es sehr unwarhscheinlich, dass es einem bei Bewegung plötzlich störend auffälltVergiß bitte nicht, dass ich zu Hause eine R9800p liegen hab'...
...also nicht vereimern bitte.

Das Band ist in flatout mehr als deutlich wahrnehmbar!
(spiele Flatout momentan mit dem bei mir momentan auf ATI eingerichteten Zweit-Sys, weil's mit der FX einfach net funzen will ;-)

Weil 4xbi für mich in vielen Fällem akzeptable Texturqualität bietet und ich zeigen wollte, wie sehr man, im Vergleich dazu, die Auflösung runterschrauben muss, um mit hoch qualitativen AF die ähnliche fps zu erreichen.Ich weiß... und Du hast dies ja auch schon 'etwas' öfter getan...
(deswegen wollte ich diese Diskussion ja vermeiden, habe aber ganu das Gegenteil bewirkt, sorry)

Nur haben wir halt sehr unterschiedliche Vorstellungen von dem Begriff 'akzeptabel'...
...denke ich.

Egal.
Mich würde wirklich interessieren, wie der 'Test' vom Tombman ausfallen würde, wenn er einfach mal AF wegläßt.
Ich denke, dass dies für alle sehr interessant werden dürfte...

Meinst Du nicht?
;)

Razor

r@w
2004-11-12, 16:35:41
Ich schalte beim Spielen grundsätzlich den Monitor ab, um Strom zu sparen... :DCool!
:up:

Ahja, dann war mir das offensichtlich zu hoch. ;)Manchmal ist es mir einfach nicht vergönnt, mich allgemein verständlich und präzise auszudrücken!
:D

Razor

r@w
2004-11-12, 16:43:25
Hm, 1fps (das käme wohl bei HDR raus) finde ich beim Zocken nicht wirklich erquickender als 1fph. ;)HDR läuft auf der FX nicht... mann.
(außerdem ist's 'nen SM3-Feature ;-)

Aber Painkiller (auch wenn's ein OGL-Game ist ;-) läuft - mit Abstrichen - noch ganz passabel auf 'ner FX5200. OK, bei D3 hört's dann schon auf und auch FarCry ist nicht wirklich erquickend. Alles davor ist allerdings noch mehr als erträglich... und in dem eigentlich Einsatzgebiet schlicht 'perfekt'.

Ergo: lieber 'nen passenderes Beispiel.

Apropos, passend... versuch mal 'ne Scene von FarCry in Software berechnen zu lassen!
(das werden so einige fph ;-)

Razor

P.S.: So... und nu ab ins WoEn!
*kreisch* *zeter* *sabber* ....... *flücht*
:D

Quasar
2004-11-12, 16:48:34
Painkiller ist nicht OpenGL, AFAIK.

Coda
2004-11-12, 16:53:46
(außerdem ist's 'nen SM3-Feature ;-)
Mitnichten. Alpha Blending auf einem FP-Framebuffer hat mit den Shadern gar nix am Hut.

Mr. Lolman
2004-11-12, 16:57:11
Vergiß bitte nicht, dass ich zu Hause eine R9800p liegen hab'...
...also nicht vereimern bitte.

Das Band ist in flatout mehr als deutlich wahrnehmbar!
(spiele Flatout momentan mit dem bei mir momentan auf ATI eingerichteten Zweit-Sys, weil's mit der FX einfach net funzen will ;-)


Sry, vereimern wollt ich dich nicht. Da du ohnehin weisst, wie die Flatout Demo auf ner 9800pro aussieht, wirst du mir hoffentlich zustimmen können, dass man in den ersten 2 Level, (wo man auch das Banding am Screenshot) erkennen kann, das Banding auch mehr auffällt, als im dritten Level, wos am Screenshot überhaupt nicht sichtbar ist.

(Daran dachte ich blöderweise nicht als ich den Shot postete. kthxsry)


Egal.
Mich würde wirklich interessieren, wie der 'Test' vom Tombman ausfallen würde, wenn er einfach mal AF wegläßt.
Ich denke, dass dies für alle sehr interessant werden dürfte...

Meinst Du nicht?
;)

Razor

Auf jeden Fall. (aber mit Screenshots bitte ;))

Black-Scorpion
2004-11-12, 17:00:18
Mach' einfach nochmal die gleichen Tests, nur ohne AA/AF (vor allem AF!) und ohne Optimierungen (nVidia=HQ, ATI=nonAI). Versuche damit dann Deine 'Hypothese' (und mehr ist es nicht) zu halten, bzw. zu untermauern.
Razor
Dir ist aber auch bewust das so ein Vergleich auch Schwachsinn ist.
Oder passt der dir besser ins Konzept?
Bei ATI werden auch alle anderen Optimierungen (außer Hardware) und Bugfixes abgeschalten wenn du AI abstellst.
Das wurde aber schon oft geschrieben und gesagt.

Tjell
2004-11-12, 17:12:36
@ r@w

Hehe, muß schon weh tun, wenn immer mehr user draufkommen, daß meine sig Recht hat, gell? Da muß man dann auch gleich ´tombman´s Methoden zu benchen angreifen, auch wenn diese FAIR sind. (opt. ON @ all, bei Nvidia dafür nur qual. und nicht hq)

@topic, dabei darf man ned übersehen, daß die ATI sogar im Nachteil war wegen dem RELATIVEN Takt (die ati war underclocked, die nv overclocked) UND , daß ati nicht nur "ein bischen" schneller ist im Durchschnitt sondern sehr oft 30-50%! :eek: Einfach nur die scores genau ansehen.

Naja, we are borg, resistance IS futile :D
:udown:

Du schaffst es immer wieder, Dich selbst um den inoffiziellen Forumsposten des objektiven Quer-Benchmarkers zu bringen kurz nachdem Du nette Ansätze gezeigt hast.

Genauso kann ich hier behaupten:
"6800 Ultra ist fast immer schneller als eine X800 XT PE" und beziehe mich dann auf die 1024er Auflösung ohne alles. Top!

Merkst Du eigentlich nicht, daß Du die Sache differenziert betrachten solltest, wenn Du Dich als der Benchmarker vor dem Herrn in den Vordergrund stellst, dem Interessierten Leser dienend?

Genauso könnte man sagen:
Porsche XYZ mit Lachgaseinspritzung ist immer langsamer als ein Ferrari ABC, weil der Ferrari mehr PS hat, ignorierst dann aber die Möglichkeit des ersteren.
Scheinbar hat Dich die ganze Diskussion vollkommen kalt gelassen und Du hast sie nicht verfolgt oder nun geflissentlich ignoriert.

Daß der NV40 erwiesene Schwächen hat kann nicht so stehengelassen werden, daß er immer langsamer als ein entsprechend positionierter R420 ist. Das ist schlicht falsch, ändert aber nichts an Deinen Ergebnissen.

saddevil
2004-11-12, 17:18:14
@ r@w

Hehe, muß schon weh tun, wenn immer mehr user draufkommen, daß meine sig Recht hat, gell?




sag nie wieder was gegen fanboys

Gast
2004-11-12, 17:19:06
@Tjell

verschwende nicht deine Zeit mit solchen leuten.
der hat hier ein Freibrief in dem Forum.

Tjell
2004-11-12, 17:25:57
@Tjell

verschwende nicht deine Zeit mit solchen leuten.
der hat hier ein Freibrief in dem Forum.
Freibrief hieße, er würde was tun, was man nicht tun darf (lt. Forumsregeln), das tut er ja nicht.
Er blendet einfach den von ihm ungewünschten Teil aus seinen Beiträgen aus.

Daß die XT PE immer vorne liegen kann hängt von der Test-Situation ab, die man gewillt ist, zu konstruieren.

Quasar
2004-11-12, 17:28:33
@Tjell

verschwende nicht deine Zeit mit solchen leuten.
der hat hier ein Freibrief in dem Forum.

Den hat jeder hier. Solange man sich an die Regeln hält, kann man hier posten, was man will.

Gast
2004-11-12, 17:34:44
Daß die XT PE immer vorne liegen kann hängt von der Test-Situation ab, die man gewillt ist, zu konstruieren.
Du willst doch nicht etwa behaupten, daß für Highend Grakas eine andere Einstellung als 1600x1200 zum Testen sinnvoll ist?
Für 1024x768 reicht auch eine 9800PRO zum flüssigen Spielen.
Ne, ne, einige hier haben echt abgefahrene Vorstellungen.
Einfach nur peinlich.

Tjell
2004-11-12, 17:40:43
Du willst doch nicht etwa behaupten, daß für Highend Grakas eine andere Einstellung als 1600x1200 zum Testen sinnvoll ist?
Für 1024x768 reicht auch eine 9800PRO zum flüssigen Spielen.
Ne, ne, einige hier haben echt abgefahrene Vorstellungen.
Einfach nur peinlich.
Wenn Du weißt oder gelesen hast, warum die 6800 Ultra unter 1600 mit 4xAA/16xAF oder ähnliche Extreme hinten liegt, dann ist Deine Unterstellung peinlich.

Wenn Du es nicht weißt, dann sei Dir verziehen. :tongue:

StefanV
2004-11-12, 17:44:15
Wenn Du weißt oder gelesen hast, warum die 6800 Ultra unter 1600 mit 4xAA/16xAF oder ähnliche Extreme hinten liegt, dann ist Deine Unterstellung peinlich.

Wenn Du es nicht weißt, dann sei Dir verziehen. :tongue:
Klär uns auf...

Abgesehen von den Taktraten wüsst ich keinen Grund...

seahawk
2004-11-12, 17:47:33
Ah ja...
Meinst Du jetzt den Spieler, der auch gerne mal stehen bleibt und sich mal umschaut... oder eher den Spieler, der am liebsten das ganze Bild abschalten würde, wenn es was 'bringt'?

Such Dir was aus.

Normalerweise bin ich für Effekte, allerdings nur wenn das Spiel dadurch flüssig bleibt. Dies ist bei einer Nutzung der Sm3.0 Effekte (z.B. HDR) beim NV40 nicht mehr gegeben.
Der Verlsut an Effekten bei der X800 wird durch die Möglcihkeit der höheren Auflösung ausgeglichen.



Und was soll bitte ein Entwickler ohne (echte, verfügbare) Hardware machen?
Oh ja... ich verstehe... nichts selbstverständlich.

Fragt sich, wofür wir überhaupt SM2 brauchen...



Der R300 hat SM2.0 am Anfang seiner Lebenszeit nicht gebraucht, kann aber heute noch viele Effekte und Spiele in 1024*768 meistern. Im Endeffekt ist er heute dem vergleichbaren NV-Chip NV30 himmelhoch überlegen. Das ist für mich ein guter Chip.



Du meinst wohl die FX5200... hoffe ich doch.
Auch werkelt eine solche (passiv gekühlte) Karte in meinem HTPC.
Was soll denn daran bitte schlecht sein?
:confused:

Und stell Dir vor... mit der FX5200 hat nVidia richtig Geld gemacht!
Der Retail-Markt ist hier (im Geamtvolumen), der eher unwichtige Teil.

Und... die FX5200 hat ganz entscheidend zur Verbreitung des SM2 beigetragen und damit die Plattform geschaffen, auf der sich überhaupt erst die Vielfalt an darauf basierenden Engines entwickeln konnte.



Das ist sicherlich nicht unrichtig.



Und diese 'realen' Spiele gab es genau weswegen?
Denk' mal darüber nach...

Nein.
Denn Spieler werden nur deswegen etwas von SM3 mit der R520 und dem NV50 haben, weil der NV40 >JETZT< dieses Feature unterstützt. Ohne Verbreitung keine Spiele... so einfach ist das.

Aber offenbar funktioniert das Marketing seitens ATI recht gut bei Dir!
:D

Razor

Ich denke es geht hier um die High-Endlösungen. Die Tatsache dass NV über die gesamte Plalette SM3.0 einführt halte ich hingegen für absolut wichtig. Ich persönlich werde mir sowieso eine 6800Ultra kaufen, weil ich meine Karten immer 18-24 Monate behalte und mir da die NV wesentlich sicherer erscheint. Nur bin ich da sicher eine Ausnahme.

DrumDub
2004-11-12, 17:58:58
Normalerweise bin ich für Effekte, allerdings nur wenn das Spiel dadurch flüssig bleibt. Dies ist bei einer Nutzung der Sm3.0 Effekte (z.B. HDR) beim NV40 nicht mehr gegeben.


hdr ist KEIN sm 3 effekt. das sollte doch mittlerweile bekannt sein.

Tjell
2004-11-12, 18:00:56
Klär uns auf...

Abgesehen von den Taktraten wüsst ich keinen Grund...
Was den Unterschied vor allen in hohen Auflösungen bedingt sind ohne Anspruch auf Vollständigkeit ohne Berücksichtigung der Architektur-Eigenheiten (copy-pasted ;)):

- X800 XT PE höhere Pixelfüllrate
- X800 XT PE höhere Texelfüllrate
- X800 XT PE höherer Dreiecksdruchsatz
- 6800 Ultra AA Filter@Scanout, dadurch VRAM zu knapp in hohen Auflösungen usw.
- 6800 Ultra hindert Triple-Buffering

//NACHTRAG
Deshalb bin ich ja gespannt, was ein NV48 mit 512 MB VRAM zu leisten imstande sein wird.

Grestorn
2004-11-12, 18:02:00
Klär uns auf...

Abgesehen von den Taktraten wüsst ich keinen Grund...Wegen dem Downsampling on Scanout bei AA und dem damit verbundenen, hohen Speicherbedarf, der dazu führt, dass Texturen nicht mehr ins RAM passen.

Das hatten wir doch schon sooo oft und das ist nun wirklich nichts neues mehr.

seahawk
2004-11-12, 18:07:08
hdr ist KEIN sm 3 effekt. das sollte doch mittlerweile bekannt sein.

Danke. sorry

Schrotti
2004-11-12, 18:20:03
Du willst doch nicht etwa behaupten, daß für Highend Grakas eine andere Einstellung als 1600x1200 zum Testen sinnvoll ist?
Für 1024x768 reicht auch eine 9800PRO zum flüssigen Spielen.
Ne, ne, einige hier haben echt abgefahrene Vorstellungen.
Einfach nur peinlich.

Dann spiel mal CoD United Offensive auf einer 9800Pro (Auflösung 1280x1024 alles auf max).

Da kannste nen 4000+ AMD64 haben und die Karte reicht nicht.

Mfg Schrotti

Black-Scorpion
2004-11-12, 18:23:05
Sorry, aber hast du auch gelesen auf was du antwortest?

Gast
2004-11-12, 18:25:20
Was den Unterschied vor allen in hohen Auflösungen bedingt sind ohne Anspruch auf Vollständigkeit ohne Berücksichtigung der Architektur-Eigenheiten (copy-pasted ;)):

- X800 XT PE höhere Pixelfüllrate
- X800 XT PE höhere Texelfüllrate
- X800 XT PE höherer Dreiecksdruchsatz
- 6800 Ultra AA Filter@Scanout, dadurch VRAM zu knapp in hohen Auflösungen usw.
- 6800 Ultra hindert Triple-Buffering

//NACHTRAG
Deshalb bin ich ja gespannt, was ein NV48 mit 512 MB VRAM zu leisten imstande sein wird.
Und?
Meinst du das juckt einen Highend Gamer. Er will doch nur wissen welche Highend Karte bei Highend Settings vorn ist. Der Rest ist für die meisten uninteressant. Was hinten rauskommt das zählt. Wie es erreicht wird, interessiert nur Freaks.
Frag mal Nvidia warum sie das AA@Scanout machen. Juckt doch keinen. Sie müssen es nicht.

tombman
2004-11-12, 18:40:46
@ 1024 ohne alles @ high end ... rofl?

Ja klar, ich kauf mir einen Ferrari damit ich schneller im Stau stehen kann als mein Nachbar, welcher Golf Fahrer ist :rolleyes:

Was diese Karten bei 1024 ohne AA/AF machen ist mir, und so gut wie jedem Käufer, sooo scheißegal... weil dafür reicht Mittelklasse auch.

Daher kann dieser low-end settings Leistungsvergleich meine sig auch ned relativieren.

Nvidia hat eben das scanout Problem und fällt ua auch deshalb zurück. Basta.
Aber eigentlich ist das Warum ja auch völlig egal. Langsamer ist langsamer.

hmx
2004-11-12, 19:19:04
Das das AA wegen dem Scanout zu langsam ist glaube ich nicht. Meiner Erfahrung nach ists das AF was ziemlich reinhaut. AA eillein frisst nicht soviel Leistung.

Wallman
2004-11-12, 19:36:49
Auf meinen Monitor kann ich eigentlich auf Grund der allgemienen
Bildqualität nicht über 1152/864 Pixel gehen. Da fällt das Performancedefizit
selbst mit AA und AF gegenüber den Radeons bei weitem nicht so groß aus.
Dass ich nur auf 1152 x 864 gehen kann stört mich nicht mal, da ich mich
an höhere Auflösungen noch gar nicht gewöhnt habe und mir die
schlechtere Qualität dadurch nicht auffällt... schon komisch....

PS: 6800 gt - Signatur noch falsch

Banshee18
2004-11-12, 19:56:42
hmx,
wegen dem "Scanout-AA" braucht die Karte mehr Videoram, der ihr dann in hohen Auflösungen + AA ausgeht. Erst dann bricht die Karte so stark ein.

hmx
2004-11-12, 20:27:00
Ich weiss, aber noch reicht der VRAM anscheinend für hohe Auflösungen und AA.
Es ist nur so dass man meistens AA und AF einschaltet und dann die Karte relativ stark einbricht. Aber das liegt meiner Erfahrung nach am AF.

Fadl
2004-11-12, 20:30:38
hmx,
wegen dem "Scanout-AA" braucht die Karte mehr Videoram, der ihr dann in hohen Auflösungen + AA ausgeht. Erst dann bricht die Karte so stark ein.

Wie tombman aber bereits sagte wird es den meisten egal sein warum die Karte einbricht. Tatsache ist einfach das sie es tut. Und nur das wird den Gamer interessieren.
Nichts desto trotz ist die 6800U immernoch eine verdammt schnelle Karte mit der man nicht unbedingt einen Fehlkauf tätigt ;)

seahawk
2004-11-12, 20:30:52
@ 1024 ohne alles @ high end ... rofl?

Ja klar, ich kauf mir einen Ferrari damit ich schneller im Stau stehen kann als mein Nachbar, welcher Golf Fahrer ist :rolleyes:

Was diese Karten bei 1024 ohne AA/AF machen ist mir, und so gut wie jedem Käufer, sooo scheißegal... weil dafür reicht Mittelklasse auch.

Daher kann dieser low-end settings Leistungsvergleich meine sig auch ned relativieren.

Nvidia hat eben das scanout Problem und fällt ua auch deshalb zurück. Basta.
Aber eigentlich ist das Warum ja auch völlig egal. Langsamer ist langsamer.

Nur wenn man dauernd die neusten KArten kauft. es gibt aber auch Leite (ich z.B.) die seltener High-End kaufen und sich einige Refreshs sparen. Da kann man am Anfang der Nutzungsdauer auf etwas Leistung in extremen Settings verzichten, wenn man dafür später in 1024x768 mit allen Effekts spielen kann. Und da sehe ich Vorteile für NV.

Für den typischen High-End-Käufer hingegen ist die Ultra die falsche Karte.

BK-Morpheus
2004-11-12, 21:15:46
Und sooo viel schlechter ist das 8500 AF auch wieder nicht. Die Winkelabhänigkeit hat ne 45° + n*90° Schwäche* und nicht ne 22.5° + n*45°.


Jedenfalls glaub ich nicht, dass irgendein GF4 User, Mafia in 1280x1024x32 mit 8xAF gespielt hat. :D



* ok sind nicht genau 45° und 22.5°, aber ca. kommt das schon hin. Auf jeden Fall reichts um die AF Techniken zu illustrieren
Also mein Bruder hat ja meine alte 8500LE und irgendwie hat er in so ziemlich jedem Spiel, in dem er AF benutzt dann so flimmernde Texturen....ich mit biAF nicht, von daher mag ich sein's nicht ^^

Gast
2004-11-12, 21:26:33
Nichts desto trotz ist die 6800U immernoch eine verdammt schnelle Karte mit der man nicht unbedingt einen Fehlkauf tätigt ;)

Nicht nur das. Vor allem bei Doom3 Engine Games und auch im kommenden Halflife2 die leicht bessere Wahl darstellen. ;)

StefanV
2004-11-12, 21:48:28
Abwarten und Tee rauchen...

Solche Aussagen können auch mal nach hinten losgehen, soll heißen, es kann anders kommen, als man denkt...

r@h
2004-11-13, 08:18:29
Painkiller ist nicht OpenGL, AFAIK.Ups.
;)

Mitnichten. Alpha Blending auf einem FP-Framebuffer hat mit den Shadern gar nix am Hut.Dann lassen wir es einfach so stehen:
"HDR, FC-like, läuft auf den FX'en wie Radeons nicht."

OK?

Und wo wir schon dabei sind... meinst Du, dass man so etwas wie FarCry via Software in voller SM2-Quali berechnen lassen könnte? (und das ja ist mir schon klar, die frage ist: wie schnell? ;-)

Razor

zeckensack
2004-11-13, 08:58:30
- 6800 Ultra AA Filter@Scanout, dadurch VRAM zu knapp in hohen Auflösungen usw.Das kostet im Vergleich zu zB der ATI-Konkurrenz "läppische" 23,04MB bei double buffering bzw 46,08MB bei triple buffering (1600x1200, 32bpp, 4xMultisampling).
Nicht eben wenig, aber IMO auch nicht mörderisch viel. 256MiB-Karten sollten das -- nämlich einen "Verlust" von knapp 10 bzw 20% des Gesamtspeichers -- noch halbwegs verkraften können.
- 6800 Ultra hindert Triple-BufferingDer Satz versteht mich nicht X-D
Was meinst du damit? :conf2:

1)auch NVIDIA-Chips beherrschen triple buffering. Unter D3D sowieso, da dies dort von der Applikation direkt angefordert werden kann. Für OpenGL erzwingen kann man's als Anwender nicht selbst ... aber das muss ja nicht heissen, dass der Treiber es nicht trotzdem uU als Optimierung anwendet. ATI hat das auch mal gemacht. Das habe ich mal nachgemessen, lange bevor der bewusste Haken im CP auftauchte :)

2)TB frisst gerade in Kombination mit "Downfilter on scanout" Speicher, ja.

Quasar
2004-11-13, 10:23:00
Das kostet im Vergleich zu zB der ATI-Konkurrenz "läppische" 23,04MB bei double buffering bzw 46,08MB bei triple buffering (1600x1200, 32bpp, 4xMultisampling).
Bei den von mir besessenen (*gg*) 128MB-Karten läßt das insgesamt aber kaum noch Platz für Texturen - so etwa 5-10MB, IIRC.
Deswegen nervt's, daß ich das nicht abschalten kann.


Nicht eben wenig, aber IMO auch nicht mörderisch viel. 256MiB-Karten sollten das -- nämlich einen "Verlust" von knapp 10 bzw 20% des Gesamtspeichers -- noch halbwegs verkraften können.
Im Prinzip schon - letzten Endes kommt es aber darauf an, ob diese 10-20% nicht doch dazu zwingen, Texturen über den AGP hin- und herzuschieben.

Aber wir werden den Effekt ja sehr schön beobachten können, wenn erst die 512MB-Karten kommen. Die Quadros sollen diesen Monat ausgeliefert werden... *sabber*

MechWOLLIer
2004-11-13, 10:49:56
hmx,
wegen dem "Scanout-AA" braucht die Karte mehr Videoram, der ihr dann in hohen Auflösungen + AA ausgeht. Erst dann bricht die Karte so stark ein.
So ganz kann ich dem nicht zustimmen. Natürlich vermindert sich der RAM zusehends durch Scanout, aber trotzdem hat die Karte bei 99% aller Spiele noch genug RAM um 1600x1200 mit 4xAA flüssig darzustellen. Und imo tut sie das gleich schnell wie die X800XT-PE, falls nicht sogar schneller. Erst wenn man AF hinzuschaltet sieht die Sache anders aus.

Btw. mich wundert es, dass ATI es schafft, in wirklich fast jedem Treiber mal so eben 5-10FPS mehr pro Spiel zu bekommen und das schon irgendwie seit der Präsentation der X800 Karte.

Tjell
2004-11-13, 14:31:33
...
- 6800 Ultra hindert Triple-Buffering
Der Satz versteht mich nicht X-D
Was meinst du damit? :conf2:
...Die GeForce 6800 Ultra und GT werden schließlich beide von der Radeon 9800 XT überholt, was nicht gerade ein rühmliches Licht auf die verwendete Spezialtechnik beim Anti-Aliasing wirft. Als kleine Ehrenrettung und zum Untermauern des eben gesagten sei noch erwähnt, dass die 6800 Ultra mit ansonsten gleichen Einstellungen im letzten Test mit 4xAA und 16xAF bei Double- anstatt Triple-Buffering 114,21 fps erreichte.

Hier sollte nVidia wirklich genau überlegen, ob der eine eingesparte Framebuffer-Write wirklich einen solchen Leistungseinbruch in genau den Settings rechtfertigt, für die man Karten dieses Preis- und Leistungssegmentes eigentlich erwirbt, sinnvoll ist.Benchmarks unter Max Payne 2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/16/)

tombman
2004-11-13, 16:13:12
die 6800 16-6 ist sicher kein fehlkauf, auch für high end gamer nicht. (sonst hätt ich mir ja kaum eine geholt).

das Argument für die 6800 jetzt ein bischen Leistung gegenüber der x800 zu verlieren und dafür später bei neuen games immer noch in 1024 gut spielen zu können ist ein sehr risikoreicher Gedanke, denn eigentlich haben wir doch gelernt, daß "alte" Karten, egal wie super sie früher waren, in neuen next-gen games doch irgendwie sucken. Dh für die Zukunft kaufen hat noch nie wirklich funktioniert. Klar, mit ner X800 wird man in der Zukunft EVENTUELL noch mehr Probleme haben wegen fehlendem SM 3.0, aber generell ist "langes Behalten" von hardware ned sinnvoll. Besser schnell verkaufen und neues kaufen, so bleibt man immer am Ball.

Jesus
2004-11-13, 16:47:50
also die 500 Euro Highend Karten in ner meist schon CPU limitierenden 1024er Auflösung zu benchen halte ich ebenfalls für ziemlichen dummfug.

Ich spiele immer noch alles auf 1280x1024 mit meiner 9800pro mit 2xAA (meist) und 8xAF. Dafür reicht die Karte. Ich würde nie auf die Idee kommen in ner 1024er Auflösung zu spielen (TFT).

Wer nen 17" Monitor hat braucht imo keine 500 Euro Karte, das ist rausgeschmissenes Geld.

spike.sp.
2004-11-13, 17:11:03
heheh hab nen 19" hyundai p910+ und zocke auch nur 1024, aber dafür jetzt immer 4xAA/8xAF. bei höheren auflösungen bremmst meine cpu zu sehr. :(

Mcdave
2004-11-13, 17:25:41
Bei höheren Auflösungen bremst meine CPU zu sehr. :(

In 3D Games stellt eine höhere Auflösung keine Mehrbelastung für die CPU dar. Lediglich die Graka hat mehr zu tun.

spike.sp.
2004-11-13, 18:14:46
dann erklär mir mal, warum 1024x768 4xAA/8xAF auf meinem system schneller läuft als 1280x1024 4xAA/8xAF !? aber ich werden ohenhin meine auflösung nicht höher stellen, denn nach 3 jahren 100hz erscheinen mir schon 85hz flimmrig ;) :)

mbee
2004-11-13, 18:17:56
Nicht nur das. Vor allem bei Doom3 Engine Games und auch im kommenden Halflife2 die leicht bessere Wahl darstellen. ;)

Seit dem Cat 4.12b wohl derzeit nicht mehr (was HL2 betrifft) ;)

mike49
2004-11-13, 18:25:39
dann erklär mir mal, warum 1024x768 4xAA/8xAF auf meinem system schneller läuft als 1280x1024 4xAA/8xAF !?
Weil bei 1280 deine Grafikkarte bremst ;) :D

seahawk
2004-11-13, 20:34:25
die 6800 16-6 ist sicher kein fehlkauf, auch für high end gamer nicht. (sonst hätt ich mir ja kaum eine geholt).

das Argument für die 6800 jetzt ein bischen Leistung gegenüber der x800 zu verlieren und dafür später bei neuen games immer noch in 1024 gut spielen zu können ist ein sehr risikoreicher Gedanke, denn eigentlich haben wir doch gelernt, daß "alte" Karten, egal wie super sie früher waren, in neuen next-gen games doch irgendwie sucken. Dh für die Zukunft kaufen hat noch nie wirklich funktioniert. Klar, mit ner X800 wird man in der Zukunft EVENTUELL noch mehr Probleme haben wegen fehlendem SM 3.0, aber generell ist "langes Behalten" von hardware ned sinnvoll. Besser schnell verkaufen und neues kaufen, so bleibt man immer am Ball.

Meine 9700pro hat mir 2 Jahre lang treu gedient und wird bis Februar sicherlich noch ausreichend halten.

Tjell
2004-11-13, 21:38:20
die 6800 16-6 ist sicher kein fehlkauf, auch für high end gamer nicht. (sonst hätt ich mir ja kaum eine geholt).

das Argument für die 6800 jetzt ein bischen Leistung gegenüber der x800 zu verlieren und dafür später bei neuen games immer noch in 1024 gut spielen zu können ist ein sehr risikoreicher Gedanke, denn eigentlich haben wir doch gelernt, daß "alte" Karten, egal wie super sie früher waren, in neuen next-gen games doch irgendwie sucken. Dh für die Zukunft kaufen hat noch nie wirklich funktioniert. Klar, mit ner X800 wird man in der Zukunft EVENTUELL noch mehr Probleme haben wegen fehlendem SM 3.0, aber generell ist "langes Behalten" von hardware ned sinnvoll. Besser schnell verkaufen und neues kaufen, so bleibt man immer am Ball.
Dein Beitrag gefällt mir mal wieder. :up:

Es gibt aber noch einen Standpunkt, der sicher nicht wenige Leute betrifft, die nicht Computern von der Stange wollen, und den nenne ich mal an meinem Beispiel:
Stichwort "AGP". Fast alle, die sich nach Retail-Grafikkarten umsehen, gerade im oberen Leistungsspektrum stehen gerade vor der Wahl, das bestehende AGP-System noch einmal mit der jetzigen Generation aufzurüsten und mit einem einigermaßen guten Paket die nächsten 1 bis 2 Jahre technologisch "auszusitzen", oder stattdessen auf einen baldigen Umstieg auf PCI-E zu setzen.
Ich gehöre ersterer Gruppe an und warte mit neuen Techniken bis 2006 und dafür ist die 6800 GT oder Ultra die technologisch bessere Wahl.
Zweitere Gruppe, die schon bald komplett auf neue Technik umsteigt, würde mit sowohl X800 XT oder den vorgenannten nichts falsch machen, ist mit der X800 aber besser beraten, weil sie eher ersetzt wird.

Diese Einschätzung gilt aber auch nur, weil zum jetzigen Zeitpunkt nicht klar ist, inwiefern die Hersteller AGP noch ernsthaft bei ihren zukünftigen Produkten berücksichtigen.

CompEx
2004-11-15, 13:02:00
Update!

Neue Demos: Juiced (ATI gewinnt mit 58%), America's Army 2 (ATI gewinnt mit 34%), Blodd Rayne 2 (ATI gewinnt mit 21%), Seal of Evil (ungefähr gleichstand), Armies of Exigo (nVidia gewinnt mit 4%).

Hab' auch den Cat 4.12 mit allen Demos getestet und da wo's Änderungen gab, hab ich die angegeben.

!!!
Bei Painkiller SP Demo 3 kam folgendes rauß (starten, erstes Bild):
X800XT: 64 (vierundsechzig)
6800U: 20 (zwanzig)
1600, 4xAA/8xAF (egal of AP/CP) alles high/on, alle Optimierungen an
!!!

EDIT: Problem gelöst: Neuinstallation des Demos. Jetzt:
X800XT: 64
6800U: 54

Könnte das vielleicht jemand prüfen? Mir kommt's komisch vor, weshalb ich das auch noch nicht auf Seite 1 eingetragen habe. Ich hab auch mal etwas weitergespielt: die nvidia kommt kaum über 30, die ATI liegt meist über 50 (wenn man immer geradeaus guckt und nicht direkt vor einer Wand steht).

Quasar
2004-11-15, 13:19:05
Mit allen Optimierungen an?

CompEx
2004-11-15, 13:25:44
Ja (edit). Versteh's einfach nicht, hab's immer wieder probiert.

Skusi
2004-11-15, 13:27:03
X800XT: 64 (vierundsechzig)
6800U: 20 (zwanzig)

Na, darauf hab ich gewartet. Dann gibts ja gleich nen Thread:

X800 in neuen Games 3mal schneller als 6800U ;D

Mumins
2004-11-15, 13:35:36
Nachdem mir gestern meine 6800 abgeraucht ist hab ich mir übergangsweise ne X800SE geholt. In NFSU 2 ist die Karte default getaktet genauso schnell wie meine 6800@16P+6VP, das Spiel ist sogar smoother mit der ATI.

Quasar
2004-11-15, 13:46:03
Ja (edit). Versteh's einfach nicht, hab's immer wieder probiert.
Daß die XTPE schön schnell ist versteh' ich. Warum deine 6800ultra+ jedoch nur 20fps hat wundert mich ein bißchen.

Meine nV40 16-6 350/370 (also eine freigeschaltete non-ultra mit weniger als GT-Taktung und nur 128MB VRAM) erreicht an dieser Stelle auf meinem Pentium3 mit offenen Hintergrundprogrammen (Browser, Firewall, aTuner, FRAPS) und HQ im Treiber bereits 27fps (MS via Game, 8xAF via aTuner).

Mit Quality und allen Optimierungen 'on' sind's gar 35 FPS. Treiber war der offizielle 66.93.

(Links folgen gleich)
http://img119.exs.cx/img119/4461/Painkiller2004-11-1513-23-14-45.th.jpg (http://img119.exs.cx/my.php?loc=img119&image=Painkiller2004-11-1513-23-14-45.jpg)

http://img119.exs.cx/img119/4568/Painkiller2004-11-1513-38-12-02.th.jpg (http://img119.exs.cx/my.php?loc=img119&image=Painkiller2004-11-1513-38-12-02.jpg)

CompEx
2004-11-15, 13:51:29
Na, darauf hab ich gewartet. Dann gibts ja gleich nen Thread:

X800 in neuen Games 3mal schneller als 6800U



Hehe! Ich wollte aber erstmal sehen was andere nVidia-User haben. Vielleicht gibt's hier 'ne Inkompatibilität (Mb, Chipsatz, Treiber, Sound...) bei mir.

CompEx
2004-11-15, 13:54:43
[QUOTE=Quasar]Daß die XTPE schön schnell ist versteh' ich. Warum deine 6800ultra+ jedoch nur 20fps hat wundert mich ein bißchen.

Meine nV40 16-6 350/370 (also eine freigeschaltete non-ultra mit weniger als GT-Taktung und nur 128MB VRAM) erreicht an dieser Stelle auf meinem Pentium3 mit offenen Hintergrundprogrammen (Browser, Firewall, aTuner, FRAPS) und HQ im Treiber bereits 27fps (MS via Game, 8xAF via aTuner).

Mit Quality und allen Optimierungen 'on' sind's gar 35 FPS. Treiber war der offizielle 66.93.


Das kommt mir glaubwürdig vor. Wieso's bei mir net richtig will, versteh ich aber partout nicht. Schließlich zeigen viele Tests, dass nVidia bei PK ziemlich schnell ist.

Gast
2004-11-15, 14:02:58
Daß die XTPE schön schnell ist versteh' ich. Warum deine 6800ultra+ jedoch nur 20fps hat wundert mich ein bißchen.

...


vsync an ?

CompEx
2004-11-15, 14:17:02
vsync off.

Hab aber etwas gefunden:
x800xt dynamic lights high: 64, dl low: 133 (off auch 133)
6800u dynamic lights high: 20, dl low: 65 (off auch 65)

@quasar: wie war "dynamic lights" denn bei dir eingestellt?

Quasar
2004-11-15, 14:19:38
Eigentlich war alles aktiviert, ich schau aber nochmal nach.

Edit:
Wenn das die 'Dynamic Lights' aus dem Video-Advanced Menü oben recht sind, dann standen sie auf 'High'..

CompEx
2004-11-15, 14:29:03
Eigentlich war alles aktiviert, ich schau aber nochmal nach.

Edit:
Wenn das die 'Dynamic Lights' aus dem Video-Advanced Menü oben recht sind, dann standen sie auf 'High'..

Jo, die mein ich. Verstehe nix mehr...

CompEx
2004-11-15, 14:51:19
Verstehe alles! Wie immer ist die Lösung ganz einfach: Demo deinstalliert, neu installiert, fertig! Jetzt also offiziell:

X800XT: 64
6800U: 54

r@w
2004-11-15, 15:19:40
@ 1024 ohne alles @ high end ... rofl?

Ja klar, ich kauf mir einen Ferrari damit ich schneller im Stau stehen kann als mein Nachbar, welcher Golf Fahrer ist :rolleyes:

Was diese Karten bei 1024 ohne AA/AF machen ist mir, und so gut wie jedem Käufer, sooo scheißegal... weil dafür reicht Mittelklasse auch.Nicht 1024 ohne alles, sondern 1024 mit 2xAA und 4°AF.
Und einem AF zudem, von dem man mit den 'neuen' nur noch träumen kann...

Ich habe nur einen 19"-Moni und fahre die 1024'er Auflösung einzig und allein.
Warum also sollte ich mir jetzt eine HighEnd-Karte zulegen?

Insofern ich mich immer mehr mit dem Gdanken anfreunden kann, mir irgendwann vor Weihnachten eine 6600GT auf AGP-Basis zuzulegen. Kostet nicht viel, bringt mir modernste Technologie und könnte dann irgendwann meine passive FX5200 im HTPC ablösen, wenn's notwendig wird (Stichwort HDTV).

Das Schöne ist zudem, dass ich auch die Systembasis noch nicht aufrüsten muss, ergo mir erst dann eine neue Plattform zulege, wenn es Sinn macht und mich auch erst dann um einen neuen Beschleuniger 'sorge'. So bleibt dieses Weihnachten mehr für mein Mauserl, meine/ihre Eltern und noch einen kleinen Winterurlaub (OK, da werd' ich 'nen bissel drauflegen müssen ;-)...

...bringt mir allemal mehr, als mich an irgendwelchen surrealen Benchmurksern zu ergötzen.

Razor

Gast
2004-11-15, 15:56:11
Verstehe alles! Wie immer ist die Lösung ganz einfach: Demo deinstalliert, neu installiert, fertig! Jetzt also offiziell:

X800XT: 64
6800U: 54

könntest du mal bei beiden die optimierungen auf off testen ?

Soulthief
2004-11-15, 16:18:43
Das nervt tierisch, die beiden Karten wurden so oft von verschiedensten Zeitschriften und im Internet (tomshardware.de, computerbase.de, usw) getestet und jedes mal war es das gleiche Ergebnis, die beiden High-End Karten sind fast 100% gleich schnell. Also warum die Diskusion? :cool:

Gast
2004-11-15, 16:28:16
Das nervt tierisch, die beiden Karten wurden so oft von verschiedensten Zeitschriften und im Internet (tomshardware.de, computerbase.de, usw) getestet und jedes mal war es das gleiche Ergebnis, die beiden High-End Karten sind fast 100% gleich schnell.
Ja, weil bekannte Titel getestet werden. Das Thema dreht sich aber um weniger bekannte bzw. ganz neue Spiele. Und hier scheint ATI deutlich im Vorteil zu sein.
Mich würde es auch interessieren wie das jetzt(die Reviews) mit den neusten Treibern aussieht.
Da ATI (erst) mit dem 4.11 einen Bug bei den 256MB Karten beseitigt hat, sind die damaligen Reviews heute eh für die Tonne.
Wäre nicht schlecht wenn das einige Reviewer nachtesten würden.

Mr. Lolman
2004-11-15, 16:28:16
weil die lieben Reviewer immer nur die gleichen Spiele testen...

...und auf die hin wird dann auch optimiert.

/LOL: Auf die Sekunde genau das gleiche gepostet.

Soulthief
2004-11-15, 16:51:01
Natürlich, die X800 Xt Karten sind unendlich schnell und Nvidia hat mal wieder Scheiße gebaut. Ist klar!!!!! :| :biggrin: :cool:

Gast
2004-11-15, 17:03:07
Natürlich, die X800 Xt Karten sind unendlich schnell und Nvidia hat mal wieder Scheiße gebaut. Ist klar!!!!! :| :biggrin: :cool:
Klar ist hier gar nichts.
Deswegen machen sich auch User, die ihre Karten nicht nur für paar Tage zum Testen haben (wie die Reviewer), ihre Gedanken und testen selbst. Dazu werden auch andere Spiele getestet als bei den Reviews. Auf die Benchmarkspiele wird von den IHVs zu viel optimiert um eine Aussage über die Performance treffen zu können. Deswegen sind Usertests/-erfahrungen auch so wichtig.

MarcWessels
2004-11-15, 17:06:11
Update!
!!!
Bei Painkiller SP Demo 3 kam folgendes rauß (starten, erstes Bild):
X800XT: 64 (vierundsechzig)
6800U: 20 (zwanzig)
1600, 4xAA/8xAF (egal of AP/CP) alles high/on, alle Optimierungen an
!!!

EDIT: Problem gelöst: Neuinstallation des Demos. Jetzt:
X800XT: 64
6800U: 54

Könnte das vielleicht jemand prüfen? Mir kommt's komisch vor, weshalb ich das auch noch nicht auf Seite 1 eingetragen habe. Ich hab auch mal etwas weitergespielt: die nvidia kommt kaum über 30, die ATI liegt meist über 50 (wenn man immer geradeaus guckt und nicht direkt vor einer Wand steht).


6800GT @ 421/1158, 66.81er Treiber

61fps (60fps mit 67.50er)


->

Prince of Persia - Warrior Within-Demo (Spiel starten, nicht steuern bis zum Tod)

42 -> 49fps (37 -> 80fps mit 67.50er Treiber)

Titelmenu: 52fps


->

Colin McRae Multiplayer-Demo (Challenge, am Start nichts tun)

53fps (52fps mit 67.50er)



->

GTR-Demo Spa (nicht vergessen, die Sichtweite, sichtbare Gegner etc. auf volle Pulle zu stellen, 32 Stimmen) Arcade Weekend

Startaufstellung: 50fps (48fps mit 67.50er)

Einführungsrunde, nachdem alle Gegner außer Sicht sind und man selber auf seiner Startposition steht: 98fps (100fps mit 67.50er)

->


Call of Duty - United Offensive (statisch, nach Einführungsbesprechung)

55fps

CompEx
2004-11-15, 19:20:44
6800GT @ 421/1158, 66.81er Treiber

61fps

->
Colin McRae Multiplayer-Demo (Challenge, am Start nichts tun)

53fps (52fps mit 67.50er)

->

GTR-Demo Spa (nicht vergessen, die Sichtweite, sichtbare Gegner etc. auf volle Pulle zu stellen, 32 Stimmen) Arcade Weekend

Startaufstellung: 50fps (48fps mit 67.50er)

Einführungsrunde, nachdem alle Gegner außer Sicht sind und man selber auf seiner Startposition steht: 98fps (100fps mit 67.50er)

Prince of Persia - Warrior Within-Demo (Spiel starten, nicht steuern bis zum Tod)
42 -> 49fps

Das hatte ich auch probiert, aber die Werte sind nicht eindeutig reproduzierbar (also nicht reliabel und das soll beim Messen nicht sein). Die Spielerfigur bleibt mal länger mal kürzer am Leben und wird manchmal mehr oder weniger weit weggestoßen, so dass sich die Bildinhalte und auch die FPS verändern. Deshalb hab ich nur den Wert der ersten beiden Sekunden genommen.


GTR hatte ich auch probiert. Nachdem aber drei Systeme (X800XT, 6800U und R9700) praktisch identische Werte lieferten (die R9700 allerdings ohne AA) fand ich das uninteressant. Schien eher CPU-limitiert zu sein.

Sehr schön, dass mal jemand mitbencht. Deine Werte sind den meinen ja sehr ähnlich (trotz unterschiedlicher Systeme und Graka-Taktfrequenzen). Ist einfach wichtig, dass andere mal nachprüfen.

MarcWessels
2004-11-15, 20:00:13
GTR hatte ich auch probiert. Nachdem aber drei Systeme (X800XT, 6800U und R9700) praktisch identische Werte lieferten (die R9700 allerdings ohne AA) fand ich das uninteressant. Schien eher CPU-limitiert zu sein.

Sehr schön, dass mal jemand mitbencht. Deine Werte sind den meinen ja sehr ähnlich (trotz unterschiedlicher Systeme und Graka-Taktfrequenzen). Ist einfach wichtig, dass andere mal nachprüfen.

Stimmt - auch das mit Prince of Persia ist mir aufgefallen.

Verwendest Du von CMR05 auch die Multiplayerversion?

Marc

P.S.:Was mich an den nVidia-Treibern nervt ist, daß die Einstellung "Überschreiben der Bildwiederholfrequenzen" für die Tonne ist. Verwendet man diese, halbieren sich nahezu die Frameraten (Beispiel Painkiller-> 33 statt 61fps)!!!

Piffan
2004-11-15, 20:31:14
Natürlich, die X800 Xt Karten sind unendlich schnell und Nvidia hat mal wieder Scheiße gebaut. Ist klar!!!!! :| :biggrin: :cool:

Es steht dir frei, zu diesem Schluss zu kommen. Ich hingegen würde zum ersten Punkt sagen: Nicht ganz, aber fast. Zum zweiten Punkt volle Zustimmung.

NV hat mit seinen letzten Karten irgendwo die Zielgruppe Konsument nicht recht im Fadenkreuz behalten.....tolle Features, aber außer den Entwicklern oder 3d- Artisten bringt es dem Endverbraucher nicht wirklich viel! SLI scheint mir ne Notlösung zu sein.

Gast
2004-11-15, 20:52:14
Es steht dir frei, zu diesem Schluss zu kommen. Ich hingegen würde zum ersten Punkt sagen: Nicht ganz, aber fast. Zum zweiten Punkt volle Zustimmung.

NV hat mit seinen letzten Karten irgendwo die Zielgruppe Konsument nicht recht im Fadenkreuz behalten.....tolle Features, aber außer den Entwicklern oder 3d- Artisten bringt es dem Endverbraucher nicht wirklich viel! SLI scheint mir ne Notlösung zu sein.
Hart, aber zum Teil gerecht.
So weit würde ich aber nicht gehen. Ich dachte erstmal Du sprichst von der verbockten FX-Serie. :)
Trotzdem scheint mit den 6800ern etwas nicht zu stimmen.
Man schaue sich nur den zum Teil funktionierenden VP an. Oder daß viele Karten über den Jordan gehen.
Wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=183316) zu sehen ist.
Irgendwas ist da faul. :)
Zu viele Transis vielleicht. ;)

MarcWessels
2004-11-15, 21:30:53
MoH PA Demo ("Single Player", "new game", während der Typ auf uns zu läuft, bevor wir attackiert werden, niedrigster FPS-Wert, dauert ca. 3 Sek, nicht statisch, ohne AA)
X800XT: 51
6800U: 31


1280 x 1024-> 56fps

1600 x 1200-> 40fps (42fps mit 70.49er Treibern)

CompEx
2004-11-15, 22:49:55
1600 x 1200-> 40fps


Komisch, der Unterschied ist etwas sehr groß. Eigentlich solltest du höchstens 10% schneller sein. Hab's bei mir zum 20ten mal getestet. Ganz selten sind's 32 meistens 31. Mehr kommt aber einfach nicht raus. Sound an? PS2.0? Decals an? Post-Processing-Effects an? 8xAF? Alles auf high? Treiber? Was für'n System haste eigentlich?

Colin 2005MP Demo kann ich nicht installieren, kommt sofort 'ne Fehlermeldung. Liegt aber nicht an der Datei, sondern Windows-Fehler irgendwas.

Gast
2004-11-15, 22:49:59
>Zitat von DrumDub
>hdr ist KEIN sm 3 effekt. das sollte doch mittlerweile bekannt sein.


>Danke. sorry

Die x800XTPE kanns trotzdem nicht darstellen, oder?

Demirug
2004-11-15, 22:53:23
>Zitat von DrumDub
>hdr ist KEIN sm 3 effekt. das sollte doch mittlerweile bekannt sein.


>Danke. sorry

Die x800XTPE kanns trotzdem nicht darstellen, oder?

Können könnte sie es schon. Allerdings muss man ein anderes aufwendigeres Verfahren benutzen (s. dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=182960)). Crytek hat dieses aber für Farcry bisher nicht implementiert.

Gast
2004-11-15, 22:57:41
Ich bin ziemlich hin und hergerissen zwischen ATi und Nvidia: Einerseits finde ich ATi seit Jahren gut, dann haben die Karten angeblich bessere 2D Quali, was mir wichtig ist und die XTPE ist preislich als PCI-E mit der 6800GT zu vergleichen. Nachteil ist aber das fehlende SM 3.0...

vinacis_vivids
2004-11-16, 00:28:55
wenn du so hin und hergerissen bist nimm einfach ATI die du nun schon seit "jahren" hast. Gibt kein grund sich Nvidia zu kaufen. SM 3.0 ist kein Grund.

tombman
2004-11-16, 00:40:04
Nicht 1024 ohne alles, sondern 1024 mit 2xAA und 4°AF.
Und einem AF zudem, von dem man mit den 'neuen' nur noch träumen kann...

Ich habe nur einen 19"-Moni und fahre die 1024'er Auflösung einzig und allein.
Warum also sollte ich mir jetzt eine HighEnd-Karte zulegen?

Insofern ich mich immer mehr mit dem Gdanken anfreunden kann, mir irgendwann vor Weihnachten eine 6600GT auf AGP-Basis zuzulegen. Kostet nicht viel, bringt mir modernste Technologie und könnte dann irgendwann meine passive FX5200 im HTPC ablösen, wenn's notwendig wird (Stichwort HDTV).

Das Schöne ist zudem, dass ich auch die Systembasis noch nicht aufrüsten muss, ergo mir erst dann eine neue Plattform zulege, wenn es Sinn macht und mich auch erst dann um einen neuen Beschleuniger 'sorge'. So bleibt dieses Weihnachten mehr für mein Mauserl, meine/ihre Eltern und noch einen kleinen Winterurlaub (OK, da werd' ich 'nen bissel drauflegen müssen ;-)...

...bringt mir allemal mehr, als mich an irgendwelchen surrealen Benchmurksern zu ergötzen.

Razor


es ging aber nicht darum wie wichtig dir Grakas im allgemeinen sind, sondern worauf du achten sollst wenn du high-end vergleichst -> und das ist NICHT 1024 res. (und die 2xAA und 4xAF machen des Kraut noch lang ned fett, ned mal feucht ;) Denn sowas verursacht bei moderner hardware kaum Mehrlast gegenüber 1024 ohne allem. 2xAA gibts so gut wie gratis dazu)

MarcWessels
2004-11-16, 01:17:38
Komisch, der Unterschied ist etwas sehr groß. Eigentlich solltest du höchstens 10% schneller sein. Hab's bei mir zum 20ten mal getestet. Ganz selten sind's 32 meistens 31. Mehr kommt aber einfach nicht raus. Sound an? PS2.0? Decals an? Post-Processing-Effects an? 8xAF? Alles auf high? Treiber? Was für'n System haste eigentlich?

Ja, ist alles komplett eingeschaltet. Als Treiber kam der 67.50er zum Einsatz und mein Sys besteht aus einem P4 2.6C @ 3.45GHz + 1 Gig Ram.

EDIT: Mit dem 70.49er sind's 42fps in 1600x1200.

MarcWessels
2004-11-16, 05:37:25
Thief 3 Demo (starten, nix machen, ablesen, statisch; 1600x1200, 1280x1024):
X800XT: 31, 40
6800U: 20, 28


28, 34

r@h
2004-11-16, 06:11:54
es ging aber nicht darum wie wichtig dir Grakas im allgemeinen sind, sondern worauf du achten sollst wenn du high-end vergleichst -> und das ist NICHT 1024 res. (und die 2xAA und 4xAF machen des Kraut noch lang ned fett, ned mal feucht ;) Denn sowas verursacht bei moderner hardware kaum Mehrlast gegenüber 1024 ohne allem. 2xAA gibts so gut wie gratis dazu)In erster Linie zählt für mich, was mir eine Neuanschaffung (mehr) bringen würde. Und da sehen beide IHV's derzeit nicht sonderlich dolle aus.

Oder was soll es mir bringen, wenn die Kärtchen unter einer für mich unzumutbaren Auflösung (85Hz... *brrrr* ;-) eine super-dolle Leistung bringen, die ich dort aber gar nicht benötige?

Für mich zählen Features wie 2D-Quali (hat mit den GPU's wenig bis gar nichts zu tun), Multi-Mon-Fähigkeiten (da hat nVidia eindeutig die Nase vorn), 'saubere' Filter-Quali unter 3D (und wieder nVidia, aber nur bis zur FX), Stereo3D (bei nVidia schon im Treiber implementiert)... u.s.w.

Insofern mich die 'Leistung' irgendwelcher Karten - zudem noch in völlig hirnrissigen Situationen - nicht die Bohne interessiert. So hoffe ich doch inständig, dass sich die IHV's wieder besinnen und mit diesem fps-wahn endlich schluss machen und sich wieder auf die eigentliche Darstellungsquali konzentrieren.

Ich finde diese Entwicklung (bei beiden IHV) mehr als bedenklich...

Razor

MarcWessels
2004-11-16, 06:27:57
Juiced Demo (starten, nix machen, niedrigsten (während wir überholt werden) und höchsten (wenn alle außer Sichtweite sind) FPS-Wert, ablesen, nicht statisch):
X800XT: 77-96
4.12b: 79-100
6800U: 50-58


Treiber 67.50

63 - 80 (Motion Blur, Depth of Field, LT, No AA)

66 - 100 (No Motion Blur, Depth of Field, 4xAA)

76 - 100 (No Motion Blur, No Depth of Field, 4xAA)


1.Deutliche Speedsteigerung mit dem 67er Treiber

2.Bist Du sicher, daß Du die o.g. Optionen an bzw. ausgeschaltet hattest? AA beißt sich ja mit Motion Blur und Light Trails, ist also nicht gleichzeitig möglich.


EDIT:Welche Strecke, Meisterschaft etc. hast Du genommen? Einfach mit Enter, Enter, Enter... durch die Menus gehangelt?

q@w
2004-11-16, 08:18:53
Komisch, der Unterschied ist etwas sehr groß.
Ohne dich jetzt schräg von der Seite anmachen zu wollen, aber genau das habe ich mir bsw. bei der SP-Demo3 zu PK bei dir auch gedacht.
Kann es sein, daß in einem deiner Systeme ein bißchen der Wurm drinhängt - Speicher vollgemüllt, HDD bis zum Bersten voll, fragmentiert und immer ins letzte GB die jeweilige Demo installiert?
Speicher vollgemüllt und deswegen gerade beim Gamestart 'mehr' Nachladeruckler auf deinem Sys mit nV, als auf dem mit der ATi?

CompEx
2004-11-16, 14:41:31
1.Deutliche Speedsteigerung mit dem 67er Treiber

Tja, sieht danach aus. Werde die nVidia demnächst mit neueren treibern benchen.

2.Bist Du sicher, daß Du die o.g. Optionen an bzw. ausgeschaltet hattest? AA beißt sich ja mit Motion Blur und Light Trails, ist also nicht gleichzeitig möglich.

Ich hatte AA im CP erzwungen und MB und LT an (weiß jetzt nicht was dabei genau rausgekommen ist, muss mir das nochmal angucken, ob AA tatsächlich aktiv ist). Also AA + MB + LT usw. ALLES an. Das könnte ja auch erklären wieso bei mir weniger FPS rauskommen. Mal vom neueren Treiber und dem ganz anderen Prozzi bei dir abgesehen.

EDIT:Welche Strecke, Meisterschaft etc. hast Du genommen? Einfach mit Enter, Enter, Enter... durch die Menus gehangelt?

Genau: ENTER, ENTER, ENTER...

CompEx
2004-11-16, 14:51:43
Ohne dich jetzt schräg von der Seite anmachen zu wollen, aber genau das habe ich mir bsw. bei der SP-Demo3 zu PK bei dir auch gedacht.
Kann es sein, daß in einem deiner Systeme ein bißchen der Wurm drinhängt - Speicher vollgemüllt, HDD bis zum Bersten voll, fragmentiert und immer ins letzte GB die jeweilige Demo installiert?
Speicher vollgemüllt und deswegen gerade beim Gamestart 'mehr' Nachladeruckler auf deinem Sys mit nV, als auf dem mit der ATi?

Jetzt haste mich schräg angemacht, ohne es zu wollen... :-)

Ich bin ganz sicher nicht unfehlbar, ich habe ja auch extra immer hingeschrieben, wie diese Werte zustande gekommen sind: damit das andere mal nachprüfen. Mir kommt es selber komisch vor, dass nVidia so schlecht abschneidet und für alle nVidia-User würde es mich sehr freuen, wenn es nicht an nVidia selber, sondern nur an meinem Testsystem liegt. Aber du hast übersehen, dass Marc mit einem P4 statt A64 testet und v. a. verwendet er neuere Treiber als ich. Ergebnisse mit neueren Treibern werde ich demnächst noch nachliefern, dann sehen wir ja, ob's am Treiber oder dem Testsystem lag. Bin selber sehr neugierig.

HDD ist halb leer, 1Gb Ram, nur Fraps + AV + Expert Tool im Speicher, alle Tests X-mal wiederholt, um HDD-Zugriffe zu vermeiden.

@Marc: welcher Treiber ist denn der schnellste bei nVidia? 66.93, 67.02, 67.50 oder 70.41? Gibt's mit einem Treiber besondere Probleme? Hab keine Lust alle Tests mit x Treibern zu wiederholen...

CompEx
2004-11-16, 15:52:55
Marcs 6800U 67.50
Meine X800XT 4.12b

63 - 80 (Motion Blur, Depth of Field, LT, No AA)
80 - 108

66 - 100 (No Motion Blur, Depth of Field, 4xAA)
80 - 113

76 - 100 (No Motion Blur, No Depth of Field, 4xAA)
83 - 115

Gast
2004-11-16, 16:10:12
Nur mal so eingeworfen.
1. Wenn Nvidia keine Shader3.0 eingeführt hätte würde wesebtlich später Hardware mit selbigen zur Verfügung stehen und von Endwicklern genutzt werden.
2.Ati darf nutzlose schader einführen (r200 mit shader1.4)
finden sich garantiert noch lobende Beiträge von SP oder anderen diesbezüglich *gg* Ebenfalls wurde damals Shadermodell 2.0 (r300) in höchsten Tönen gelobt obwohl es augenscheinlich keine Verwendung gab.
Nvida machte damals den selben Mist den ATi heute macht.
Alles nach dem Motto brauchen wir nich soll es der andere machen.
Ich habe daher die Meinung das sm3.0 alles andere als überflüssig ist und ATI nicht aus Nvidia's alten Fehlern lernt.

Nur zwei gute Gründe gegen X800 und Konsorten...

Tjell
2004-11-16, 16:41:39
Nochmal zum Thema, warum die 6800 Ultra so unter hohen Auflösungen und Bildqualitätseinstellungen schwächelt:

Codecreatures Benchmarks (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=73&seite=13)

Man schaue auf die Einstellungen ab 1280, 4×AA, 16×AF. Man kann hieran (Asus V9999 GT/TD, 128 MB) symptomatisch erkennen, daß die GeForces extrem unter Speichermangel leiden, deshalb sollte man dies bei den Testbedingungen nochmals beachten.

Wie gesagt, je nach Willen und Absicht des Testers kann man immer und überall eine Situation schaffen, in der die 6800er (extreme) Schwächen zeigen (können).